Skip to main content

25 Ott 2024

«Mi dispiace, non posso farlo». Quando l’intelligenza artificiale è da Nobel

Home Rubriche L'opinione

Umberto Eco, in una celebre pubblicazione, con la solita grande sensibilità e l’acume che lo distinguevano, rilevava atteggiamenti opposti sulla cultura di massa (del suo tempo – perché i tempi cambiano molto velocemente anche se certe distinzioni diventano paradigmatiche). Il libro del 1964, essendo un classico, si trova ancora e si intitola, senza giri di parole, Apocalittici e integrati. Con gli apocalittici potremmo identificare i detrattori e gli scettici (verso qualunque cosa), con gli integrati invece coloro che salutano la “novità” come foriera di aspetti positivi. Questa la distinzione “grezza” e detta in poche parole. Ovviamente la realtà è a grana fine e in mezzo a queste due categorie estreme ci sta tutto un mondo. Anzi: tutto sta lì in mezzo ed è difficile che qualcuno si collochi proprio nei due estremi.

Scusate il cappello, utile per commentare una delle notizie che – personalmente – ho trovato più interessanti e in un certo senso impressionanti degli ultimi tempi: il recente conferimento dei Nobel per la Fisica e la Chimica.

 

Alcune riflessioni sui premi Nobel della Fisica e della Chimica

Il primo è andato a Geoffrey Hinton e John Hopfield, pionieri dell’IA e delle reti neurali. Hinton ha contribuito alla creazione di un algoritmo chiamato backpropagation e di formazione, è bene ricordarlo, è uno psicologo (e mi pare nella storia del premio sia il primo “non” fisico ad aver preso un premio Nobel per la Fisica). L’algoritmo – di fatto una retroazione che modifica, “all’indietro” appunto, le configurazioni di pesi della rete neurale – è fondamentale nei modelli matematici che “imparano” dall’esperienza.

Di questo avevo fatto cenno in un articolo precedente, citando i libri di Labatut, uno dei quali si chiude proprio su questo “episodio” dell’autoapprendimento in giochi anche molto complessi come il Go, a cui si diede seguito con lo sviluppo di una versione potenziata di questi software di autoapprendimento “per sottrazione”, ovvero fornendo solo le regole del gioco – senza nessuna indicazione strategica e senza nessun “pregiudizio” legato all’esperienza umana – dicendo alla macchina di giocare (instancabilmente) contro sé stessa. In questo modo, applicando lo stesso concetto a molti giochi diversi, la macchina è stata in grado di diventare molto più potente e più “generale” di quanto non lo fosse la sua versione precedente, dedicata allo sviluppo di un singolo gioco.

Questo, peraltro, ci porta al premio Nobel per la Chimica che, sempre quest’anno, è stato assegnato proprio a Demis Hassabis (CEO di DeepMind) e John Jumper (ex senior researcher di DeepMind) per aver predetto la struttura di alcune proteine. Hassabis ha avuto il merito di aver reso “generale” l’intelligenza artificiale che aveva sconfitto nel gioco Go il campione mondiale umano. Per capire il senso di questo secondo Nobel serve però conoscere il contesto: dagli anni ’80, ogni due anni, i (bio-)chimici partecipano a CASP, competizione il cui obiettivo è predire la forma (tridimensionale) di una proteina a partire dalla sua sequenza di amminoacidi.

Nel dicembre 2018, CASP13 ha fatto notizia quando è stato vinto da AlphaFold, un programma di intelligenza artificiale creato proprio da DeepMind, l’azienda di Hassabis (rilevata poi da Google).

Qui, come si accennava, non si tratta di essere apocalittici o integrati. Si tratta, almeno per il momento, di prendere atto di quel che accade intorno a noi. E quello che accade fa piuttosto impressione. A questo si aggiunga il contesto sociale in cui viviamo e lo “scenario apocalittico”, ormai realtà, è servito.

 

Il capitalismo della sorveglianza

Qualcuno diceva che un pessimista è solo un ottimista meglio informato e quindi, un po’ preso da una certa inquietudine, tempo addietro acquistai e adesso sto leggendo Il capitalismo della sorveglianza di Shoshana Zuboff. Nelle prime cento pagine del poderoso saggio, che ne conta oltre 600, sembra di precipitare in uno scenario di distopica fantascienza, che però è realtà e anzi è in qualche modo storia recente. Una fantascienza che potremmo sommariamente identificare con quella della pellicola di oltre un ventennio fa, Minority Report, in cui la polizia era in grado di prevedere – e quindi prevenire – i reati.

La Zuboff, docente alla Harvard Business School dal 1981, identifica un preciso momento storico (la bolla delle “dot-com” che ha salutato l’inizio del nuovo millennio), un preciso luogo (la Silicon Valley) e una precisa azienda (Google) per narrare l’evoluzione e fare il punto sul periodo in cui ci troviamo. La bolla speculativa che colpì il settore informatico funzionò da catalizzatore di una “selezione naturale” per le molte imprese, start up e incubatori che vivevano, sopravvivevano o prosperavano in quei frangenti e da quelle parti.

Molte aziende anche quotate, di cui si immaginavano rosei futuri, in quel periodo chiusero definitivamente le saracinesche in pochi mesi. I fondatori di Google, Page e Brin, non è che fossero messi molto meglio. Diciamo che rispetto ai concorrenti si distinguevano perché trattavano diversamente i dati e usavano quelli che in gergo sono chiamati “briciole” o “scarti” – tutti quelli che in sostanza identificano il nostro comportamento davanti a un browser – come “suggerimenti” per migliorare il loro motore di ricerca e quindi anche l’esperienza d’uso dell’utente (user experience). Questo “surplus comportamentale”, a cui è dedicato il capitolo terzo del libro, è ciò che ha fatto la differenza e quindi la sopravvivenza prima e la prosperità poi dell’azienda di Mountain View. Ma qual è stato il “segnale”?

 

Il nome da nubile di Carol Brady

«Un mattino, appena arrivato in ufficio, il data logs team scoprì che una frase era arrivata in vetta alle query di ricerca: “Il nome da nubile di Carol Brady”. Qual era il motivo di quell’improvviso interesse per un personaggio televisivo degli anni ’70? Amit Patel, data scientist e membro del logs team, ricostruì l’accaduto […]. Il team si mise all’opera per risolvere l’enigma. Per prima cosa scoprirono che il pattern delle query aveva prodotto cinque picchi differenti, ognuna dopo 48 minuti dopo lo scoccare di un’ora. Capirono così che era dovuto alla messa in onda del popolare programma televisivo Chi vuol essere milionario? I picchi riflettevano i diversi fusi orari nei quali era andato in onda il programma, con quello conclusivo corrispondente alle Hawaii»[1].

Di fatto lo schema comportamentale della ricerca su Google si ripeteva a causa della messa in onda del programma e questo accese la lampadina nella mente del team e persino i due fondatori rimasero sbalorditi dalla chiarezza del potere predittivo della ricerca. Patel raccontò al «New York Times» che «era come usare per la prima volta un microscopio elettronico o un barometro in grado di misurare ogni singolo momento», ma il giornale scrisse anche di come i dirigenti di Google fossero restii ad affrontare l’argomento su come potesse essere commercializzato il loro enorme archivio di query.

Insomma, la trasformazione ebbe luogo e Google – inizialmente per necessità di sopravvivenza e poi per mero profitto – trasferì senza colpo ferire la “destinazione d’uso” della sua enorme base di dati sul comportamento degli utenti in rete, dapprima usata per migliorare l’esperienza di questi ultimi, a soli fini commerciali. Google, dice la Zuboff, registrò molti brevetti in quegli anni, come se lo stato di emergenza avesse portato a un’esplosione di scoperte e di accorgimenti tecnici in grado di supportare le innovazioni e la ricerca legati a questo nuovo interesse, quello del surplus comportamentale.

In altre parole: «Google non avrebbe più estratto i dati comportamentali per migliorare il servizio offerto dagli utenti, ma per leggere le loro menti e far combaciare gli ads [abbreviazione per “advertising”, pubblicità, n.d.r.] ai loro interessi, dedotti dalle tracce collaterali lasciate dal loro comportamento online. Con l’accesso senza precedenti di Google ai dati comportamentali, sarebbe stato possibile sapere che cosa un determinato individuo stesse pensando, provando e facendo in un determinato luogo e momento»[2].

Inquietante, ma di sicuro successo: Google ha cambiato il corso della storia. Ingegneri e scienziati furono i primi a orchestrare la “sinfonia della sorveglianza” – come ancora racconta Zuboff – integrando strumenti come i cookie, metodi di analisi avanzati e algoritmi, seguendo una nuova logica che trasformava il monitoraggio e l’appropriazione dei dati comportamentali nelle fondamenta di un nuovo modello di mercato.

Nel 2001, Google testò i suoi sistemi per sfruttare il surplus comportamentale e vide i suoi guadagni crescere rapidamente a 86 milioni di dollari, un aumento superiore al 400% rispetto all’anno precedente, segnando il primo vero profitto dell’azienda. Entro il 2002, i ricavi iniziarono a crescere vertiginosamente, dimostrando il successo della combinazione tra surplus comportamentale e brevetti. Gli introiti raggiunsero i 347 milioni di dollari nel 2002, 1,5 miliardi nel 2003 e 3,5 miliardi nel 2004, l’anno della quotazione in Borsa dell’azienda. In meno di quattro anni, la scoperta del surplus comportamentale portò a un incredibile aumento dei guadagni: del 3590%.

A questo punto ci si chiederà: ma cosa c’entra tutto questo con l’intelligenza artificiale? Beh, Google ha acquisito DeepMind a cui appartiene proprio AlphaFold (quella delle strutture proteiche…). Google – come OpenAI, Microsoft e altre – ha un suo programma di sviluppo di intelligenza artificiale (Gemini) e il business comportamentale, lo abbiamo visto, è già realtà. Si scommette (poco, alla fine siamo anche parecchio prevedibili come individui…) e si vendono i comportamenti futuri, esattamente come i futures, che sono una delle massime espressioni della finanza.

Non è che ancora una volta la promessa di affrancamento dell’umanità dalle fatiche (prima fisiche – con l’avvento dei robot e delle macchine in generale – adesso in una qualche misura intellettuali), si sta trasformando in una specie di distopico incubo sempre e solo in nome del denaro? Non è che in nome del denaro un giorno un puntino rosso ci fisserà e ci dirà: «Mi dispiace purtroppo non posso farlo»?

 

La zampa di scimmia

Anche chi si occupa professionalmente di IA, come Nello Cristianini, non fa mistero delle proprie perplessità. Pur mostrandosi (nei propri libri e nei propri interventi pubblici) piuttosto sorpreso (e anche positivamente sorpreso) dell’evoluzione in questo settore e capace di ricostruirne la genesi secondo la teoria del comportamento emergente, Cristianini da esperto ci mette in guardia dai pericoli… come se quelli descritti finora non bastassero. E, per farlo, usa un racconto post-vittoriano di William W. Jacobs, quello della zampa di scimmia.

Nel racconto i coniugi White entrano in possesso di un amuleto, una zampa di scimmia mummificata, in grado di esaudire tre desideri. Decidono di esprimere il loro primo desiderio, nonostante fossero a conoscenza del tragico destino del precedente proprietario, che si era tolto la vita dopo aver usato l’amuleto per due desideri. Essendo in difficoltà economiche, chiedono di ricevere duecento sterline. Il giorno successivo, ricevono la drammatica notizia della morte del figlio in un incidente sul lavoro, con il risarcimento fissato proprio a duecento sterline. Sconvolti, cercano di rimediare e desiderano che il figlio torni in vita. Poco dopo, sentono bussare insistentemente alla porta. La signora White, colma di speranza, corre ad aprire, convinta che sia il figlio tornato dal cimitero. Il signor White, temendo che si tratti di un orrore – forse il figlio sfregiato o un morto vivente – cerca di fermarla, ma alla fine decide di usare il terzo desiderio per annullare il secondo. Quando aprono la porta, trovano la strada deserta, e mentre la signora White si abbandona alla disperazione, il marito si sente sollevato per aver evitato un trauma ancora più grande. Fine della storia.

Il timore, in sostanza, è quello di una scorciatoia (non a caso titolo di uno dei libri di Cristianini) che, definito un obiettivo, non tenga in debito conto, direttamente o indirettamente, le esigenze etiche che l’intelligenza artificiale per sua natura non possiede. Insomma: se ne vedranno ancora delle belle, ma bisogna fare molta attenzione perché il momento è molto delicato.

 

Riferimenti bibliografici

1 – S. Zuboff, Il capitalismo della sorveglianza. Il futuro dell’umanità nell’era dei nuovi poteri, Luiss University Press, Roma 2019, p. 85.

2 – Idibem, cit., p. 88.

 

Luciano Celi
Luciano Celi
Luciano Celi ha conseguito una laurea in Filosofia della Scienza, un master in giornalismo scientifico presso la SISSA di Trieste e un secondo master di I livello in tecnologie internet. Prima di vincere il concorso all'Istituto per i Processi Chimico-Fisici al CNR di Pisa, ha fondato con Daniele Gouthier una piccola casa editrice di divulgazione scientifica. Nel quinquennio 2012-2016 ha coordinato il comitato «Areaperta» (http://www.areaperta.pi.cnr.it), che si occupa delle iniziative di divulgazione scientifica per l'Area della Ricerca di Pisa ed è autore, insieme ad Anna Vaccarelli, della trasmissione radio «Aula 40» (http://radioaula40.cnr.it/). Nel giugno 2019 ha discusso la tesi di dottorato in Ingegneria Energetica.
DELLO STESSO AUTORE

© 2025 Edizioni Dedalo. Tutti i diritti riservati. P.IVA 02507120729