Skip to main content

23 Gen 2026

L’IA e i 25 anni di Wikipedia

Home Rubriche L'opinione

Anche chi occasionalmente naviga le pagine di Wikipedia si sarà reso conto che, da qualche tempo, è comparso un logo dell’anniversario: la più grande enciclopedia online compie infatti quest’anno un quarto di secolo.

Un intervallo breve, ma allo stesso tempo enorme, se si considerano i tempi del web, dell’informatica. Un tempo per altro turbinoso, con tutte le difficoltà del caso nel mantenersi indipendente, con le critiche – in parte giuste – che le sono state mosse (anche in Italia), come avvenne oltre una decina di anni fa nel noto intervento del collettivo Wu Ming. Un tempo che però si è mostrato, come quasi sempre sa fare, galantuomo: Wikipedia ha resistito, non è perfetta (anzi), ma c’è.

I nuovi motori di ricerca basati sull’intelligenza artificiale

In un precedente articolo abbiamo accennato alla differenza epistemologica che, in un post su LinkedIn, Walter Quattrociocchi sottolineava, in relazione alla differenza tra i tradizionali motori di ricerca sul web che abbiamo di fatto usato fino a ieri e l’attuale tendenza a “infiltrare” – anzi: a filtrare – attraverso chatbot quegli stessi risultati di ricerca, come invece avviene oggi un po’ per tutti i motori (dall’onnipresente Google, fino ai meno noti come Brave). Non ripercorriamo qui la critica di Quattrociocchi, ma ci basti dire che lo slittamento, che per l’utente medio è al limite dell’impercettibile, costituisce un salto piuttosto importante nel modo di reperire informazioni sul web; se i motori di ricerca come Google rispondevano al bisogno di orientamento in un mare di informazioni, basandosi sul PageRank (un sistema imperfetto ma ancora fondato sulla scelta umana, in cui l’utente doveva cliccare, confrontare, valutare), con gli LLM si entra invece in una nuova logica: il sapere non si filtra, si genera. Le risposte non derivano da fonti, ma da combinazioni statistiche di linguaggio plausibile. La priorità non è più la verità, ma la coerenza linguistica.

Sempre più vediamo nascere – a livelli diversi – motori di ricerca che non sono più “ibridati” con chatbot e LLM, ma che proprio su questi si basano, come Atlas (il browser di OpenAI) e Grokipedia (della società che ha sviluppato l’IA Grok, che fa capo a Elon Musk).

La differenza tra i due c’è, ed è meno sottile di quanto possa sembrare a prima vista, anche se stanno su due gradini diversi dello stesso edificio, non su piani opposti.

 

Come funzionano Atlas e Grokipedia

Atlas è, per impostazione, uno strumento di accesso mediato alle fonti. Non genera direttamente “conoscenza” come oggetto autonomo, ma naviga i contenuti esistenti, li sintetizza, può (quando usato correttamente) mostrare da dove vengono le informazioni e infine mantiene una separazione, almeno concettuale, tra documenti e risposta. In altre parole, Atlas è più vicino a un motore di orientamento avanzato. Il risultato può essere fluido, certo, ma il sistema è ancora pensato come intermediario: dietro la risposta ci sono testi, pagine, fonti che è possibile – almeno in linea di principio – recuperare, contestare, confrontare. L’opacità resta (ranking, selezione, sintesi), ma non viene cancellata l’idea che la conoscenza stia fuori dal sistema.

Grokipedia, invece, nasce già come prodotto epistemico finito. Non accompagna l’utente verso le fonti, ma consegna una voce “enciclopedica” generata. Qui ovviamente il salto ontologico è più netto perché non c’è un percorso di costruzione visibile, quindi non c’è discussione, storia delle modifiche, conflitto (come invece avviene, per esempio, per Wikipedia), non c’è una comunità che negozia il significato (sempre “modello Wikipedia”) e di fatto la pagina è il risultato del modello.

Quindi Grokipedia non è una Wikipedia mediata da LLM, quanto piuttosto una simulazione dell’oggetto enciclopedia, privata però del suo processo costitutivo. È qui che l’epistemia – la “malattia” di cui nei suoi interventi Quattrociocchi parla – diventa strutturale: la forma enciclopedica (neutra, sicura, definitiva) viene mantenuta, ma svuotata del lavoro epistemico che la giustifica.

Insomma se Atlas sembra dire: “ti aiuto a guardare meglio”, Grokipedia dice invece: “ecco cosa devi sapere”. Entrambe poi hanno il problema “black box”, entrambe sono “opache” ma lo sono in modo diverso: Atlas è una black box di selezione e sintesi; Grokipedia è una black box di autorità. Ed è la seconda a essere più problematica. Perché quando l’output assume la forma di una voce enciclopedica, il lettore non è più portato a chiedersi come si sia arrivati lì. Il giudizio non è solo difficile: è scoraggiato dall’interfaccia stessa. Quindi la differenza c’è, è rilevante e ha senso sottolinearla: Atlas resta dentro una logica “pre-LLM” adattata a strumenti nuovi; Grokipedia è pienamente “post-LLM”, nel senso che tratta la conoscenza come testo plausibile stabilizzato. Non a caso, Wikipedia e Grokipedia non sono concorrenti: sono due risposte a concezioni incompatibili di cosa significhi sapere qualcosa.

 

Wikipedia e il processo di costruzione della conoscenza

Ma torniamo a Wikipedia e ai suoi 25 anni. Lo sappiamo, ma vale la pena ripeterlo: Wikipedia non è solo “un sito web con delle pagine” ma è piuttosto un processo epistemico collettivo dove la conoscenza non arriva già pronta, ma viene costruita attraverso fonti, discussioni, conflitti, compromessi e revisioni. Ogni modifica lascia una traccia. Ogni affermazione può essere contestata. Quando qualcosa è controverso, la controversia rimane visibile. Questo la rende lenta e imperfetta, ma nello stesso tempo rende esplicito un elemento fondamentale: la conoscenza è lavoro. E quel lavoro include “attrito”, verifica, disaccordo e revisione.

Il confronto tra i sistemi AI-LLM (Grokipedia, Atlas) con Wikipedia qui risulta illuminante perché mette in luce qualcosa che oggi diamo per scontato e che invece è rarissimo: la visibilità del lavoro epistemico. Wikipedia espone le cuciture, i conflitti, le revisioni, le guerre di fonti. Non protegge l’utente dall’incertezza, ma gliela mostra. Come accennato: è lenta, a volte poco soddisfacente, ma proprio per questo educa all’idea che sapere significhi anche saper sostenere un’affermazione, non solo formularla bene.

Come già accennato per i motori di ricerca e per la breve analisi condotta sin qui, Grokipedia, e più in generale i sistemi mediati da LLM, sono qualcosa di fondamentalmente diverso.

Confrontando Wikipedia e Grokipedia attraverso cornici come il giudizio morale, il linguaggio emotivo, la condanna e il conflitto, vediamo cambiamenti consistenti. Non rumore, ma modelli. La mediazione generativa tende a comprimere la complessità in narrazioni più leggibili e decisive. Quindi il significato dell’anniversario di Wikipedia non è nostalgico. È tecnico, culturale e politico. Wikipedia rimane uno dei pochi luoghi in cui la conoscenza è visibilmente un processo. I sistemi generativi rischiano di trasformarla in un prodotto fluido, senza attriti né storia. E la conclusione è semplice: se ci viene data una risposta perfetta, il lavoro della conoscenza non è scomparso. È stato semplicemente scaricato su di noi e quindi reso più facile da ignorare.

 

LLM: l’imitazione della conoscenza

Non si tratta di una critica “morale” agli LLM, ma di una diagnosi strutturale: come osserva Quattrociocchi, il salto non riguarda la quantità o l’accessibilità della conoscenza, bensì il regime epistemico entro cui essa viene prodotta e riconosciuta.

Gli LLM, invece, cambiano l’oggetto: non ti accompagnano verso il sapere, ma ti consegnano un enunciato che simula l’arrivo. È qui che la distinzione forma/sostanza smette di essere retorica e diventa operativa. La plausibilità linguistica non è solo un difetto collaterale: è il criterio interno di funzionamento del sistema. Non “può” ignorare la verità; semplicemente non la contempla come categoria.

La nozione di epistemia è efficace perché individua una condizione ambientale: quando la fluidità linguistica diventa scorciatoia cognitiva, il giudizio viene aggirato. Non si tratta di creare ignoranza, ma di renderla credibile, soprattutto dove il sapere è già fragile.

I sistemi generativi fanno l’opposto di ciò che abbiamo visto accadere per Wikipedia: comprimono il processo in un output. Non perché “vogliono” farlo, ma perché sono progettati così. Come sostiene Quattrociocchi qui non si tratta di filosofia, ma di architettura. Se l’interfaccia restituisce una frase finale, senza storia, senza attrito e senza responsabilità, il messaggio implicito è che il lavoro è finito, mentre in realtà il lavoro è stato scaricato sull’utente… solo che ora è più facile non farlo.

In questo senso, l’anniversario di Wikipedia è un promemoria. Ci ricorda che la conoscenza non è mai “liscia”. Se scorre senza attrito, senza possibilità di replica, senza tracce del disaccordo, allora probabilmente non è conoscenza che stiamo consumando, ma solo una sua imitazione ben scritta. E questo, oggi, è il vero discrimine tra il “prima” e il “dopo”.

Prima di chiudere, ancora una precisazione. Sarebbe fuorviante immaginare questo come un “vuoto culturale”, perché non lo è. Più precisamente: il vuoto culturale non è un’assenza, è il risultato di una saturazione economica. Non manca una visione; è che una visione alternativa viene sistematicamente resa impraticabile.

Se guardiamo la storia con un minimo di onestà, lo schema è ricorrente. Le tecnologie nascono spesso in contesti aperti, cooperativi, talvolta persino idealistici (si pensi alla storia di Linux). Poi, nel momento in cui diventano scalabili, entrano in un regime diverso: quello dell’estrazione di valore. È lì che i progetti diventano “zoppi”, non per un difetto intrinseco, ma perché vengono piegati a criteri che non sono epistemici né culturali, bensì finanziari, competitivi, temporali.

 

Il problema è il modello di business

Nel caso degli LLM, la black box non è un incidente collaterale: è una condizione di possibilità del modello di business perché se davvero si rendessero trasparenti le IA (a partire dai set di dati del training) si perderebbe l’asset. Se si rendesse il processo leggibile, si rallenterebbe l’esperienza utente. Se si introducesse “attrito epistemico”, si ridurrebbe l’illusione di competenza. Tutto ciò va contro le metriche che contano: adozione, “engagement” o coinvolgimento, lock-in.

In questo senso, la retorica dell’“IA responsabile”, dell’“IA trasparente”, dell’“IA spiegabile” funziona spesso come schermo discorsivo. Non è che le aziende ignorino il problema: lo conoscono bene. Semplicemente, non hanno alcun incentivo strutturale a risolverlo fino in fondo. Un’IA che mostra i propri limiti, che espone le proprie incertezze, che rinvia alle fonti e chiede tempo… è una pessima macchina per il mercato!

Qui entra in gioco un punto che mi pare cruciale e che nel discorso pubblico viene eluso: l’economia non è solo un vincolo esterno alla cultura, ma oggi è l’architetto delle forme cognitive. Decide come deve apparire una risposta, quanto deve essere rapida, quanto deve sembrare sicura. La “fluidità” non è una qualità epistemica: è una qualità commerciale.

Wikipedia è di nuovo un buon contro-esempio proprio perché non funziona economicamente nel senso classico. È lenta, non personalizzata, non ottimizzata per trattenerti. E infatti sopravvive ai margini del capitalismo digitale, non al suo centro. Non è un caso che nessun sistema generativo dominante adotti davvero il suo modello: sarebbe antieconomico.

Quindi, per concludere: molti progetti falliscono o restano monchi non perché manchi consapevolezza culturale, ma perché la cultura è subordinata a un’infrastruttura economica che premia l’opacità, la velocità e l’apparenza di competenza. Parlare di “vuoto culturale” ha senso solo se lo intendiamo così: come lo spazio lasciato libero dopo che l’economia ha già deciso cosa è praticabile e cosa no.

E forse il punto più amaro è questo: finché la conoscenza sarà trattata come un prodotto da consumare e non come un processo da attraversare, ogni tentativo di “IA epistemicamente sana” resterà marginale, sperimentale o confinato all’accademia. Non perché sia sbagliato, ma perché non rende abbastanza.

 

Immagine di copertina: Pxhere

Luciano Celi
Luciano Celi
Luciano Celi ha conseguito una laurea in Filosofia della Scienza, un master in giornalismo scientifico presso la SISSA di Trieste e un secondo master di I livello in tecnologie internet. Prima di vincere il concorso all'Istituto per i Processi Chimico-Fisici al CNR di Pisa, ha fondato con Daniele Gouthier una piccola casa editrice di divulgazione scientifica. Nel quinquennio 2012-2016 ha coordinato il comitato «Areaperta» (http://www.areaperta.pi.cnr.it), che si occupa delle iniziative di divulgazione scientifica per l'Area della Ricerca di Pisa ed è autore, insieme ad Anna Vaccarelli, della trasmissione radio «Aula 40» (http://radioaula40.cnr.it/). Nel giugno 2019 ha discusso la tesi di dottorato in Ingegneria Energetica.
DELLO STESSO AUTORE

© 2026 Edizioni Dedalo. Tutti i diritti riservati. P.IVA 02507120729