In un precedente articolo abbiamo discusso di come, di fronte allo sviluppo travolgente dell’intelligenza artificiale, ci si senta spesso “spaesati”. Allora avevamo “tifato” per Lee Se-dol, campione del gioco del Go, quando nel 2016 fu sconfitto da AlphaGo di Google, proprio come vent’anni prima avevamo parteggiato per Kasparov contro Deep Blue di IBM. In entrambi i casi, l’uomo misurava se stesso attraverso la macchina, cercando di capire dove si trovasse la frontiera dell’intelligenza.
Quella frontiera, com’è noto, era stata fissata nel 1950 dal celebre test di Turing, in cui una macchina “vince” se un interlocutore umano non riesce a distinguere se sta dialogando con una persona o con un programma. Per decenni il test è stato considerato una sorta di spartiacque culturale: se una macchina poteva “ingannare” un essere umano via testo, si poteva — provocatoriamente — parlare di intelligenza artificiale.
Oggi, però, con l’avvento dei modelli linguistici di grandi dimensioni (Large Language Models, LLM), il test di Turing non discrimina più. Chatbot come ChatGPT, Gemini o Claude superano facilmente la prova, ma questo non significa che “comprendano”. Imitare non equivale a capire: una macchina può produrre risposte coerenti o convincenti senza avere alcuna forma di consapevolezza, intenzionalità o coscienza — tutte qualità che tradizionalmente associamo all’intelligenza.
Il test di Turing misura solo la plausibilità linguistica, non la comprensione reale. E poiché ormai molti modelli lo superano, esso ha perso la sua funzione di confine. Da qui la necessità, come sottolinea un articolo su Nature, di definire nuovi criteri di valutazione dell’IA: robustezza, creatività, generalizzazione, affidabilità, trasparenza. L’intelligenza artificiale non deve più solo “apparire” intelligente: deve esserlo in modo utile e sicuro.
Che cos’è davvero intelligenza
Stabilire cosa sia “intelligenza” non è affatto banale. Non ne esiste una definizione univoca: si parla di intelligenza razionale (quella misurata dal QI), emotiva, biologica o adattiva. Da un punto di vista evolutivo, è intelligente ciò che sa adattarsi: anche le piante, immobili e silenziose, mostrano strategie di sopravvivenza sorprendenti. Dunque, l’intelligenza non coincide con la parola né con la coscienza.
Eppure, per secoli, gran parte della filosofia occidentale ha presupposto che “si pensa per mezzo delle parole”, e che senza linguaggio non ci sia pensiero. Le IA odierne mettono in crisi questa convinzione: conversano come umani, ma non pensano. Mostrano che si può generare linguaggio senza coscienza, come pappagalli stocastici, capaci di una mimesi cognitiva quasi perfetta ma priva di interiorità.
Questa constatazione segna una svolta concettuale: la definizione funzionalista di intelligenza (“è intelligente ciò che funziona”) sembra sostituire quella coscienziale. L’intelligenza, in questa nuova accezione, non è più proprietà di un soggetto pensante, ma di un sistema capace di produrre risultati utili. Si passa così da una concezione cognitiva e interiore a una comportamentale e utilitaristica.
Forma e sostanza del sapere
Un’analisi lucida di questo slittamento è proposta da Walter Quattrociocchi, che mette a confronto i motori di ricerca tradizionali e i modelli linguistici moderni per riflettere su come stia cambiando il nostro rapporto con la conoscenza.
I motori di ricerca come Google rispondevano al bisogno di orientamento in un mare di informazioni, basandosi sul PageRank: un sistema imperfetto ma ancora fondato sulla scelta umana. L’utente doveva cliccare, confrontare, valutare. Con gli LLM si entra invece in una nuova logica: il sapere non si filtra, si genera. Le risposte non derivano da fonti, ma da combinazioni statistiche di linguaggio plausibile. La priorità non è più la verità, ma la coerenza linguistica: ciò che suona giusto.
Questo genera un’illusione sottile: la retorica dell’“abilitazione”, secondo cui gli LLM permetterebbero a chiunque di accedere a competenze superiori. Ma l’abilitazione riguarda la produzione di linguaggio, non la comprensione. Si rischia così la delega cognitiva: chi non ha strumenti critici finisce per credere a ciò che la macchina dice, scambiando fluidità per competenza.
Da qui la “malattia” che Quattrociocchi chiama epistemia: una degenerazione del sapere in cui la forma (un testo ben scritto, un tono competente) sostituisce la sostanza (la verifica e il fondamento della conoscenza). Gli LLM non alterano tanto i contenuti, quanto il modo in cui li percepiamo: rendono indistinguibile ciò che è umano da ciò che non lo è. Anche i tentativi di smascherare un testo artificiale con un “AI detector” appaiono paradossali, un sistema statistico che tenta di svelarne un altro, senza basi epistemiche solide.
La “morte simbolica” del test di Turing?
Il test di Turing, da cui siamo partiti, perde così ogni valore discriminante non perché l’intelligenza artificiale sia diventata davvero intelligente, ma perché è diventata capace di simulare la conversazione umana con abilità retorica e contestuale. Ciò che il test misura — la capacità di imitare il linguaggio — non coincide più con ciò che intendiamo per intelligenza.
Questa consapevolezza impone un cambio di paradigma: la valutazione dell’IA non può più basarsi su un singolo test, ma su criteri multipli che includano affidabilità, robustezza, generalizzazione, trasparenza, etica. La valutazione dell’intelligenza artificiale diventa così una questione politica e normativa, non solo tecnica. Non basta chiedersi quanto umana sia la macchina: dobbiamo chiederci quanto sia affidabile, controllabile, responsabile.
Ridefinire l’intelligenza
Sembra dunque necessaria una nuova accezione del termine “intelligenza”. Almeno tre prospettive si confrontano: simulazione (ingegneristica), comprensione (filosofica) e co–evoluzione (sistemica). Questa terza via è forse la più promettente: riconoscere che l’intelligenza non è un attributo statico, ma un processo relazionale, in cui anche la macchina contribuisce a ridefinire l’umano.
In tal senso, il test di Turing non è morto: si è semplicemente trasformato nel test di fiducia pubblica e trasparenza sociale. Il vero discrimine, oggi, non è più tra chi pensa e chi simula, ma tra ciò che è affidabile e governabile e ciò che non lo è.
Dopo Kasparov e Lee Se-dol, non si tratta più di sapere chi vincerà tra uomo e macchina. La domanda, oggi, è se sapremo ancora riconoscere il valore umano della comprensione in un mondo dove la simulazione ha preso la parola. E forse la sfida più profonda dell’intelligenza artificiale non è quella di sembrare umana, ma di ricordarci, ogni giorno, che cosa significa esserlo.
Immagine di copertina: geralt – Pixabay.