Immagine in evidenza: Annie Spratt da Unsplash
Con l’arrivo sulla scena di ChatGPT, la necessità di riconoscere se un testo è stato scritto da un’intelligenza artificiale o meno ha già invaso l’ambito scolastico. La città di New York e la città di Los Angeles hanno deciso di impedire l’accesso al chatbot sviluppato da OpenAI dalle reti e dai dispositivi scolastici. La preoccupazione è che l’abuso dello strumento possa rendere più facile per gli studenti imbrogliare sui compiti. O che il suo utilizzo possa diffondere informazioni inesatte.
“A causa delle preoccupazioni per l’impatto negativo sull’apprendimento degli studenti e per la sicurezza e l’accuratezza dei contenuti, l’accesso a ChatGPT dalle reti e dai dispositivi delle scuole pubbliche di New York è stato limitato”, ha dichiarato in un comunicato Jenna Lyle, vice addetto stampa delle scuole pubbliche di New York. E ha precisato: “Sebbene lo strumento sia in grado di fornire risposte rapide e semplici alle domande, non consente di sviluppare il pensiero critico e la capacità di risolvere i problemi”. Dall’altra parte del mondo, in reazione a ChatGPT, alcune università australiane hanno dichiarato di voler fare un più ampio uso di carta e penna agli esami scritti e in generale di voler rivedere il modo in cui le prove sono valutate. L’urgenza di rivedere valutazioni e lavori assegnati viene condivisa da più parti. “Gli insegnanti dovranno ripensare i compiti in modo che non possano essere facilmente scritti dallo strumento”, ha commentato Darren Hicks, professore di filosofia alla Furman University
ChatGPT, ossia Chat Generative Pre-trained Transformer, è un’intelligenza artificiale generativa, creata da OpenAI evolvendo il proprio modello linguistico di grandi dimensioni (LLM) GPT-3, con cui è possibile interagire in modo molto più evoluto rispetto a un tradizionale chatbot. ChatGPT è stato addestrato su enormi quantità di dati raccolti da Internet prima del 2022 e tre le altre cose può: rispondere a domande; completare un testo o una frase; scrivere contenuti di narrativa e saggistica a partire da suggerimenti; riassumere un testo; generare codici informatici.
ChatGPT è un’evoluzione di GPT-3 e sarà probabilmente il trampolino di lancio verso GPT-4. Al momento ha diversi limiti, tra i quali spiccano la produzione di risposte errate o senza un senso compiuto (scritte però con tono e stile autorevole).
Qui il nostro precedente articolo: ChatGPT: cosa può fare e non può fare
Gli strumenti che vogliono individuare i testi generati da AI
Tuttavia, se delle tecnologie di intelligenza artificiale (IA) pongono il problema di riconoscere la paternità di un testo, altri strumenti si presentano come una possibile soluzione. Quanto siano efficaci e risolutivi, e quanto cavalchino l’esplosione di interesse per il tema, non è sempre chiaro. Scott Aaronson, ricercatore nel campo del quantum computing che si è unito a OpenAI durante l’estate del 2022, è dell’idea che un watermark possa limitare i danni. In pratica ogni volta che un sistema come ChatGPT genera del testo, questo sistema incorporerebbe un “segnale segreto impercettibile” che indichi la provenienza del testo.
“Vogliamo che sia molto più difficile prendere i risultati [di un sistema di IA] e spacciarli come se provenissero da un essere umano”, ha detto Aaronson. “Questo watermark può essere utile per prevenire il plagio accademico, ovviamente, ma anche la generazione di propaganda in scala – come spammare ogni blog con commenti apparentemente in tema che sostengono l’invasione dell’Ucraina da parte della Russia, senza nemmeno aver bisogno di un edificio pieno di troll a Mosca. O impersonare lo stile di scrittura di qualcuno per incriminarlo”.
L’ingegnere di OpenAI Hendrik Kirchner avrebbe già costruito un prototipo funzionante, e la speranza è di poterlo inserire nei futuri sistemi sviluppati dal noto centro di ricerca, ha dichiarato ancora Aaronson. Non tutti i ricercatori sono convinti di questa soluzione però, ritenendo che si possa aggirare in vari modi.
Ci sono anche altri strumenti che sostengono di essere in grado di analizzare l’origine di un’opera, testuale o visuale. Tra questi figura Open AI Detector, creato per riconoscere testo generato da GPT-2, un modello meno avanzato di quello su cui si basa ChatGPT. Basta incollare un testo nell’apposito campo e attendere il verdetto finale. Lo abbiamo provato inserendo porzioni di testo in lingua inglese e ha dato la risposta corretta. Di fatto riconosce i parametri usati da GPT-2 per creare testo (qui il codice su GitHub). Risultati del tutto identici li offre Free AI Detector, al quale abbiamo sottoposto 41 porzioni di testo ottenendo sempre la risposta attesa. I testi generati da ChatGPT sono stati giudicati dei fake con probabilità superiori al 99%. A fare leva sui medesimi principi anche DetectGPT, un’estensione per Google Chrome che di nuovo sostiene di riconoscere un testo generato da un’IA.
GPTZero invece esamina la complessità e la casualità del testo, facendo riferimento al principio di perplessità (perplexity). La perplessità è una misura della capacità di un modello linguistico di prevedere un campione di testo. “Una perplessità più bassa significa che il testo è facile da predire e che quindi suona più simile a una macchina. Gli esseri umani sono più imprevedibili e tendono a scrivere testi con una perplessità più alta”, spiega Michael Sheinman. Parallelamente, il tool confronta l’uniformità dei periodi, partendo dal presupposto che un’IA tenda a scriverne di lunghezza e intensità simile mentre l’uomo è in grado di accostare frasi più lineari e semplici a frasi più complesse e articolate. Occorre però prudenza, perché GPTZero è tutt’altro che infallibile.
Non è un caso che lo strumento sembra rivolgersi soprattutto al mondo dell’istruzione. Proprio ieri, il suo creatore, Edward Tian, ha annunciato di avere un nuovo modello che dovrebbe distinguere porzioni di testo scritte da umani da altre generate da AI, dicendo che sarebbe una funzionalità chiave richiesta dal mondo degli educatori e insegnanti.
Ad ogni modo la nostra prova, basata anche in questo caso su varie porzioni di testo in lingua inglese e di varia lunghezza, ha dato risultati corretti. Tian si dice consapevole della necessità di migliorare lo strumento di verifica, creato non tanto per contrastare ChatGPT quanto per ribadire la necessità che le IA siano più trasparenti. OpenAI, l’organizzazione dai cui laboratori è uscita ChatGPT, sostiene di lavorare con gli educatori al fine di trovare soluzioni utili per rendere riconoscibili i testi prodotti dall’IA, nell’ottica di aiutare insegnanti e studenti all’uso più idoneo dello strumento.
Nella grafica sopra abbiamo inserito alcune delle prove fatte. Cliccando su una scheda si può copiare il testo e incollarlo negli appositi campi dei tool di verifica e osservare il risultato.
Gli orientamenti dell’Europa e dell’Italia
Come abbiamo visto all’inizio, ChatGPT riesce a creare divisioni anche all’interno del mondo della scuola: c’è chi la guarda con sospetto e chi ritiene necessario fare entrare le IA nel patrimonio didattico. Sembrano essere di quest’ultimo avviso a Bruxelles, che sta pensando a come integrare queste tecnologie nella didattica; il nostro ministero dell’Istruzione e del Merito che ritiene più utile regolamentarne l’uso invece di vietarle; e, non da ultimo, il presidente dell’Associazione nazionale presidi Antonello Giannelli, convinto che ChatGPT sia uno strumento con il quale la scuola debba confrontarsi senza chiusure.
In particolare, ad aprile del 2022, la Commissione europea ha emanato degli orientamenti etici sull’uso delle IA e dei dati, per indirizzare gli educatori a farne uso nell’insegnamento. Raccomandazioni che si situano nel Piano d’azione per l’istruzione digitale (2021-2027) e che riguardano l’uso di tutte le IA perché, dice l’Ue, conoscerle e capire come funzionano ha molto a che fare con la necessità di una scuola in grado di diffondere cultura e competenze digitali.
Il motivo è presto detto: poiché ognuno, nel proprio quotidiano, fa uso di strumenti IA (app di navigazione, assistenti digitali, strumenti per la traduzione in tempo reale, …) è opportuno che educatori e docenti siano in grado di inserirli nei propri piani didattici per stimolare il ragionamento critico degli studenti e illustrare il loro uso etico. A ciò si aggiunge la necessità di un insegnamento che tenga conto dei principi delle IA, tra i quali gli approcci logici, quelli basati sulla conoscenza e i metodi di ricerca. Argomenti e linee di pensiero trasversali che si prestano a più materie scolastiche e che contribuiscono a formare lavoratori con competenze digitali di cui il mondo del lavoro ha sempre più bisogno.
Tornando in Italia vanno prese in esame le parole di Gianna Barbieri, direttore generale per i fondi strutturali per l’istruzione, l’edilizia scolastica e la scuola digitale del ministero dell’Istruzione e del merito. “È sicuramente opportuno regolamentare l’uso dell’intelligenza artificiale in classe, magari in maniera differente tra scuola primaria e secondaria, così come peraltro già si fa con gli smartphone o la semplice calcolatrice, ma costruire muri non ferma il vento, la scuola dovrà rispondere alla sfida lanciata dalle enormi potenzialità di questi strumenti”, ha dichiarato a Repubblica. Parole anche in questo caso di apertura che richiamano alla regolamentazione e non al divieto, perché la scuola deve sapersi adeguare alle potenzialità offerte dalle IA generative e discorsive.
La scuola digitale
Ethan Mollick, professore alla Wharton School dell’Università della Pennsylvania, include in ogni sua lezione elementi digitali e IA generative. La sua riflessione è la seguente: per un’IA produrre uno scritto di qualità è tutt’altro che semplice, quindi chiede ai suoi studenti di integrare con conoscenze e ragionamenti propri i risultati forniti da ChatGPT, indicando quali parti del testo sono state compilate dall’IA e quali invece sono frutto delle loro fatiche. Questo, secondo Mollick, aiuta gli studenti a sviluppare uno spirito critico e implica che conoscano l’argomento che stanno trattando meglio di quanto possa conoscerlo un insieme di algoritmi.
Anche i media che usano l’AI dovranno confrontarsi con alcune di queste questioni. Il sito di news tecnologiche Cnet ha pubblicato 77 articoli scritti da un’IA e, dopo una revisione interna, ha dovuto correggerne 41. Una situazione ambigua perché gli articoli sono stati redatti da una tecnologia di IA all’insaputa dei lettori ai quali, però, non sono sfuggite le imprecisioni e gli errori presenti. Al di là della poca trasparenza dimostrata da Cnet e al di là degli errori riscontrati nella stesura dei testi, alcuni hanno sottolineato come i testi pubblicati fossero un po’ troppo simili, o addirittura copiati, da altri concorrenti.