Verifiche e valutazioni: ha ancora senso “vietare” ChatGPT?

Verifiche e valutazioni: ha ancora senso “vietare” ChatGPT?

Negli ultimi mesi, una delle reazioni più diffuse all’ingresso dell’Intelligenza Artificiale nei contesti educativi è stata il divieto. Vietare ChatGPT durante gli esami, vietarne l’uso nei compiti, vietarne la presenza nei percorsi di studio. Una risposta comprensibile, soprattutto se la valutazione continua a essere pensata come verifica del risultato finale.
Ma quando l’AI entra stabilmente nello studio quotidiano – come supporto alla comprensione, all’organizzazione, alla rielaborazione – il tema non è più soltanto se usarla, ma come valutare l’apprendimento in sua presenza.

Copiare o usare l’AI come strumento cognitivo?

Nel dibattito pubblico, l’uso dell’AI viene spesso ridotto a una dicotomia semplice: o è copiatura, o è scorciatoia. Ma questa lettura rischia di essere insufficiente per descrivere ciò che accade realmente nei percorsi universitari e professionali.

Molte persone in formazione utilizzano l’AI per chiarire concetti, riformulare testi complessi, esplorare esempi alternativi, organizzare lo studio. In questi casi, l’AI non sostituisce il pensiero, ma lo accompagna. Diventa uno strumento cognitivo, simile – per certi versi – a un tutor sempre disponibile, a una forma avanzata di mediazione.

Alcuni osservatori hanno però messo in guardia da un uso più ingenuo, paragonando l’AI a una sorta di autotune cognitivo: uno strumento che migliora il risultato finale senza che chi lo utilizza sia davvero consapevole del processo sottostante. In questo scenario, il rischio non è solo quello della copiatura, ma quello di una delega silenziosa del pensiero, in cui la macchina finisce per “fare tutto” senza che chi studia sviluppi una reale padronanza dei contenuti.

La difficoltà, allora, non sta tanto nel vietare o consentire l’uso dell’AI, quanto nel distinguere tra uso dello strumento e delega cognitiva. E questa distinzione non può essere demandata solo a un controllo tecnico o a una regola formale.

Se cambia lo studio, deve cambiare anche la valutazione

Se l’AI è parte del processo di apprendimento, continuare a valutare esclusivamente il prodotto finale rischia di diventare sempre meno significativo. Una risposta corretta non dice nulla sul percorso che l’ha generata, sulle scelte fatte, sulle difficoltà incontrate, sul grado di comprensione reale.
Qui emerge una tensione già presente da tempo nell’education, ma oggi più evidente: valutare ciò che si vede o valutare ciò che si è costruito.
Ripensare verifiche, esami e compiti non significa abbassare il livello, ma spostare l’attenzione dal risultato al processo, dalla riproduzione alla rielaborazione, dalla risposta giusta alla capacità di argomentare.

Rendere visibile il processo di apprendimento

Valutare il processo di apprendimento significa spostare l’attenzione da ciò che viene consegnato a come si arriva a quel risultato.
Non si tratta di controllare ogni passaggio, ma di rendere osservabili alcune dimensioni del lavoro cognitivo che spesso restano implicite.
In concreto, questo può voler dire osservare come una persona:
– usa le fonti a disposizione e le mette in relazione;
– formula domande pertinenti durante il percorso;
– rielabora informazioni per favorirne la comprensione;
– prende decisioni e sa giustificarle.

Queste dimensioni possono emergere attraverso strumenti semplici ma intenzionali: brevi commenti di accompagnamento al lavoro consegnato, momenti di restituzione orale, versioni successive dello stesso elaborato, oppure richieste esplicite di spiegare perché una certa scelta è stata fatta.
In questo senso, l’uso dell’AI non è necessariamente un ostacolo alla valutazione, ma può diventare parte stessa del processo osservabile: come viene interrogata, quali suggerimenti vengono accettati o scartati, come il risultato finale si discosta dalle proposte iniziali.

Vietare o progettare?

La domanda, a questo punto, non è solo se abbia senso vietare ChatGPT. La domanda è se il divieto, da solo, sia sufficiente a tutelare l’integrità accademica e la qualità dell’apprendimento.
Forse la sfida non è impedire l’uso dell’AI, ma progettare contesti di valutazione in cui l’uso improprio perda significato. Contesti in cui ciò che conta non è nascondere uno strumento, ma dimostrare comprensione, autonomia e capacità critica.
È una transizione complessa, che chiama in causa docenti, istituzioni e studenti. Ma è anche un passaggio inevitabile, se l’AI è destinata a restare parte integrante dei percorsi di studio e di formazione.

Nel prossimo articolo, questa riflessione si sposterà ancora più a monte: chi decide davvero il percorso di apprendimento quando entrano in gioco algoritmi, piattaforme e sistemi intelligenti?

Iscriviti alla Newsletter: