Skip to main content

03 Feb 2023

ChatGPT: davvero è così importante sapere se un testo è stato scritto da un essere umano?

Alberto Bartoli

Alberto Bartoli
Leggi gli altri articoli

Home Rubriche L'opinione

Nelle ultime settimane probabilmente avete sentito parlare di ChatGPT: un sistema basato su un’intelligenza artificiale, con il quale si interagisce via chat e dal quale si ottengono risposte difficilmente distinguibili da quelle che fornirebbe un essere umano. ChatGPT è in grado di fornire risposte lunghe e ben argomentate a pressoché qualsiasi domanda o richiesta scritta. È difficile rendersi pienamente conto dell’importanza di questa tecnologia senza aver visto esempi del suo uso. Se non avete mai visto ChatGPT all’opera, vi basti sapere che ha superato esami di legge e di economia in alcune università americane.

 

Cos’è ChatGPT? Come funziona?

 

Internamente, ChatGPT è composto da due moduli principali: un modulo per interpretare la richiesta dell’utente e un modulo per generare testo strutturalmente analogo a quello che genererebbe un essere umano. Questo secondo modulo è chiamato Large Language Model e consiste di 170 miliardi di parametri numerici che stimano la probabilità di trovare un certo vocabolo dopo una certa sequenza di altri vocaboli.
Il Large Language Model di ChatGPT si chiama GPT-3 ed è stato costruito analizzando una miriade di pagine web già esistenti, scritte principalmente in lingua inglese.
La costruzione di GPT-3 è stata completata circa un anno fa, pertanto la conoscenza codificata in GPT-3 non comprende, ad esempio, la vittoria dell’Argentina agli ultimi campionati mondiali di calcio.

 

Qual è l’impatto di questa intelligenza artificiale?

ChatGPT ha creato un grande interesse nei mezzi di comunicazione. Molte riflessioni si limitano a ribadire l’insostituibilità dell’essere umano o ad evidenziare i limiti di ChatGPT, ad esempio in termini di creatività. Questa prospettiva può essere fuorviante: i testi generati da ChatGPT sono di qualità, in senso lato, confrontabile a quella dei testi generati da moltissimi esseri umani. Moltissimi esseri umani non si renderanno conto che un testo generato da ChatGPT è stato generato da una macchina. È sulle implicazioni di questi dati di fatto che dobbiamo riflettere.
Tra non molto, chiunque avrà la possibilità di costruire molto rapidamente e a costo irrisorio testi ben argomentati in supporto di qualunque tesi desideri sostenere. Testi lunghi, sintatticamente corretti e diversi l’uno dall’altro. Testi, però, che possono contenere anche affermazioni oggettivamente false, quali ad esempio riferimenti a normative inesistenti, eventi storici mai accaduti, dati sperimentali non pertinenti e così via. Credo che sia molto difficile prevedere l’impatto di una tecnologia con queste caratteristiche.
I sistemi educativi, in particolare, saranno obbligati a tenere conto di questa tecnologia. Alcune istituzioni hanno già provveduto a proibire l’uso di ChatGPT, a causa del potenziale uso fraudolento da parte degli studenti e, più in generale, per il timore di suoi effetti negativi sull’apprendimento. L’uso di ChatGPT in ambito educativo deve certamente essere analizzato e regolamentato con molta attenzione.
Non possiamo però limitarci a proibirne l’uso: sarebbe come proibire l’uso delle calcolatrici da tavolo. Dobbiamo invece identificare i contesti e le modalità in cui usare questa nuova tecnologia sarà vantaggioso e inevitabile, in maniera simile a quanto abbiamo fatto con le calcolatrici da tavolo.

 

Quando l’IA può essere di aiuto

Dobbiamo anche renderci conto che questa necessità sarà presto presente in molti altri settori della nostra vita quotidiana, non solo in quello educativo. Dovremo infatti decidere in quali contesti il valore di un testo scritto risiede unicamente nel suo contenuto informativo e quando, invece, il testo ha valore in quanto sintesi di una attività svolta da un essere umano. Nel primo caso l’uso di tecnologie come ChatGPT non può e non deve essere bandito: non possiamo eliminare a priori scenari di collaborazione tra uomo e macchina così potenti.
Ad esempio, il condominio in cui ho un garage ha chiesto a un perito una relazione tecnica su come gestire le varie tipologie di automobili ibride, elettriche e così via. Pochi giorni fa ho letto questa relazione, lunga cinque o sei pagine: avrebbe potuto tranquillamente essere stata scritta da ChatGPT in grandissima parte, con un minimo controllo finale e qualche integrazione o modifica. Ciò non sarebbe stato eticamente o professionalmente scorretto. Il condominio desidera infatti informazioni accurate e complete, non è interessato a come queste informazioni sono state ottenute o scritte. È sufficiente che il perito ne abbia certificato l’accuratezza e la completezza.
Esiste già un caso reale di collaborazione tra essere umano e una sorta di “parente” di ChatGPT. Il sito web “GitHub Copilot” aiuta infatti i programmatori software a scrivere codice molto più rapidamente: il programmatore scrive qualche linea di codice e GitHub Copilot, addestrato su miliardi di linee di codice già esistente, suggerisce istantaneamente interi segmenti di codice con cui proseguire la scrittura, prevedendo cosa il programmatore ha intenzione di scrivere. Questo approccio è molto promettente ed è potenzialmente in grado di rendere lo sviluppo del software molto più efficiente.

 

Quando non dovremmo usare ChatGPT

D’altra parte, ci sono scenari nei quali il testo scritto deve necessariamente essere la sintesi di un’attività effettuata da un essere umano. Molte tipologie di attività scolastiche rientrano in questa categoria. Cosa accadrà quando sarà possibile generare il testo in maniera rapida ed economica senza aver svolto l’attività corrispondente? Anche in questo caso il problema non si limita all’ambito educativo.
Ad esempio, uno dei principali problemi nel mondo delle pubblicazioni scientifiche consiste nella difficoltà di trovare revisori in grado di valutare la qualità di un articolo sottomesso per la pubblicazione e, soprattutto, disposti a dedicare tempo ed energie alla valutazione. Revisori la cui identità è nota solo ai comitati editoriali e tenuta nascosta agli autori.
Cosa accadrà se qualche comitato editoriale inizierà a sostituire i revisori con ChatGPT?
Gli autori saranno soddisfatti di ricevere rapidamente revisioni favorevoli e ben strutturate. I comitati editoriali saranno altrettanto soddisfatti di ricevere molti contributi che potranno selezionare con un’analisi molto superficiale e giustificata a posteriori, in maniera fraudolenta, con ChatGPT.
Pochi anni fa ho contribuito a una ricerca in cui abbiamo usato uno degli “antenati” di ChatGPT per generare automaticamente revisioni di articoli scientifici. Revisioni che non entravano nel merito dell’articolo ma erano semplicemente una successione di frasi generiche sull’argomento dell’articolo stesso, scritte con lo stile tipico dei revisori scientifici. Abbiamo chiesto ad alcuni ricercatori un’opinione sulla qualità di queste revisioni, senza svelarne la loro origine, e in molti casi abbiamo ottenuto opinioni del tutto analoghe a quelle ottenute per revisioni reali.

A questo punto può sorgere una domanda interessante. O forse non tanto. L’articolo che avete appena letto è stato scritto da un essere umano o da una versione italiana di ChatGPT? Forse ChatGPT ha scritto una bozza in risposta a “scrivimi un testo di circa 4000 battute in stile giornalistico dal titolo …” e l’essere umano ha solo fatto un controllo e qualche modifica finale.
In realtà, sapere come è stato costruito questo articolo non è molto importante. Ciò che è importante è la qualità del suo contenuto. Credo che il vero problema che ci pone ChatGPT sia proprio questo: siamo in grado di leggere con attenzione, riflettendo sui dettagli e analizzando criticamente ogni affermazione? Ad esempio, è proprio vero che ChatGPT ha superato esami universitari? La ricerca sulle revisioni automatiche (e fraudolente) di articoli scientifici esiste veramente?

PS: tutto vero: “ChatGPT Goes to Law School”, “Would ChatGPT Get a Wharton MBA?”, “Exploring the potential of GPT-2 for generating fake reviews of research papers

Alberto Bartoli
Alberto Bartoli
Alberto Bartoli è professore associato all’Università di Trieste. È docente di Reti di Calcolatori e Cybersecurity. Nel 2015 ha ricevuto il riconoscimento di “docente dell’anno” dal Corso di Laurea in Ingegneria Elettronica e Informatica per i giudizi eccezionalmente positivi degli studenti. https://bartoli.inginf.units.it
DELLO STESSO AUTORE

© 2024 Edizioni Dedalo. Tutti i diritti riservati. P.IVA 02507120729