Gli studenti hanno imparato ben presto a utilizzare l’intelligenza artificiale, soprattutto per aiutarsi con i compiti assegnati dagli insegnanti, in modi più o meno corretti. Il fenomeno tocca anche le università: negli Stati Uniti un docente è infatti riuscito a scoprire che quasi metà dei suoi studenti aveva usato ChatGPT.
Se, come riporta HuffPost
, l’insegnante ha utilizzato un vero e proprio “Cavallo di Troia”, a colpire è l’incapacità degli studenti di rendersi conto degli errori presenti nel compito prodotto con ChatGPT. Un problema che diventerà ancora più presente nel prossimo futuro, e che va affrontato in modo efficace.
usare ChatGPT per copiare… male
All’origine della vicenda c’è qualcosa di strano, che il docente universitario inizia a notare nei saggi consegnati dai suoi studenti: nessun errore, nessuna esitazione, nessun cambio di registro tipico dei principianti. Testi che dovrebbero essere acerbi sono invece formalmente impeccabili e, pertanto, meno umani del solito.
Iniziano allora i tentativi di capire se gli studenti abbiano cominciato ad utilizzare strumenti di intelligenza artificiale, quanti lo hanno fatto e come. Queste le sue parole:
Mi sono riproposto di cercare tracce di IA nei compiti degli studenti con più attenzione, e alcune di esse sono molto semplici da notare. I saggi prodotti con ChatGPT, per esempio, sono orrori noiosi e senz’anima, ricchi di parole, frasi e punteggiatura che nessuno studente universitario userebbe così tanto.
Da qui nasce la necessità di trovare le prove dell’uso di strumenti di intelligenza artificiale. Il docente invia una traccia che ha, nascosto, un comando invisibile per gli studenti ma non per i software IA, che invece possono leggerlo e devono tenerne conto durante la stesura. Un vero e proprio “Cavallo di Troia”.
Il risultato dell’esperimento è devastante: 33 elaborati su 122 contengono l’errore inserito da ChatGPT e, in seguito, altri 14 studenti confermano di essersi serviti di strumenti IA. Insomma, quasi il 40% della classe ha usato l’intelligenza artificiale per scrivere il saggio richiesto dal docente, senza accorgersi di nulla.
Nelle istruzioni di un compito ho inserito un testo nascosto, invisibile agli studenti ma leggibile dai sistemi di Ai. L’incarico riguardava il libro Gabriel’s Rebellion di Douglas Egerton, sulla rivolta di schiavi in Virginia nel 1800. La trappola imponeva all’Ai di scrivere il saggio da una prospettiva marxista, un approccio anacronistico che uno studente attento avrebbe riconosciuto come incongruo.
Il punto chiave è tuttavia un altro: se scrivere un saggio vuol dire soltanto consegnare un testo all’insegnante, allora ChatGPT è il mezzo perfetto per farlo. È veloce ed efficiente, ma non equivale all’esercizio della scrittura, che è esercizio del pensiero e palestra per la propria mente.
Su questo l’intelligenza artificiale è ancora carente.
Insomma, l’abuso degli strumenti di IA finisce per cambiare il senso stesso dello studio: scrivere diventa mettere parole in fila, riassumere diventa accontentarsi della visione di qualcun altro. O di qualcos’altro. D’altronde, mentre lo stesso Premio Nobel Giorgio Parisi ricorda che l’intelligenza artificiale tende a compiacerci, il docente protagonista di questa storia nota con una certa ironia:
Agli studenti ho spiegato il perché della mia delusione, specificando anche che loro avevano barato per scrivere un saggio sulla ribellione degli schiavi. Di persone che hanno sacrificato la loro vita per la libertà, inclusa la libertà di leggere e scrivere.
Cambiare la didattica
Dopo l’episodio, il docente universitario ha deciso di abbandonare questa tipologia di compiti per casa e di tornare alla scrittura in presenza, senza alcun dispositivo elettronico e senza intelligenza artificiale. Si tratta di una scelta drastica ma comprensibile, che tuttavia mostra un altro lato del problema.
Il rischio è quello di ritrovarci con contenuti scritti da intelligenze artificiali che non sanno cosa scrivono, generati a partire da prompt di studenti che non sanno cosa chiedono. A ciò si aggiunge l’incapacità di sottoporre a controllo l’operato dei software, e incappare in errori anche stupidi.
È proprio per evitare un rischio del genere che, oggi, molte scuole hanno deciso di introdurre lo studio delle IA nelle programmazioni annuali, sia in Italia che all’estero, con l’obiettivo di insegnare un uso più consapevole dell’intelligenza artificiale.
Una strada sicuramente tutt’altro che semplice ma, al tempo stesso, oggi più che mai necessaria.










