Sapere Scienza

Sapere Scienza

Macchine che imparano a parlare come fanno i bambini

3 Aprile 2019

La comprensione del linguaggio e il suo utilizzo da parte dell'intelligenza artificiale sta divenendo un ambito in cui impiegare sempre più risorse: le nuove tecnologie, dalla ricerca in rete all'utilizzo di assistenti vocali come Alexa e Siri, fino ad arrivare alla domotica, necessitano di caratteristiche sempre più sofisticate. I ricercatori del MIT, in un articolo presentato durante la Empirical Methods in Natural Language Processing conference (conferenza riguardante i metodi empirici nell'elaborazione del linguaggio naturale), hanno descritto un nuovo metodo per insegnare alle macchine un linguaggio, prendendo spunto dal modo in cui i bambini imparano a parlare.

 

I parser e come una macchina può imparare a parlare

 

Imparare un linguaggio, nel mondo delle macchine, è un compito affidato ai parser sintattici e semantici. Cosa sono? Il parser è un programma che esegue un parsing, ossia un processo che analizza un flusso continuo di dati in ingresso - degli input forniti, ad esempio, tramite un file o una tastiera - in modo da determinare la sua struttura grazie a una data grammatica formale, una struttura astratta che descrive un linguaggio formale in modo preciso. Un linguaggio formale è un sistema di regole che delineano matematicamente un insieme di sequenze finite di simboli di un alfabeto finito. Come accennato, questi tipi di sistemi sono "allenati" su frasi annotate da umani che descrivono la struttura e il significato che si cela dietro le parole. Questo processo di raccolta delle annotazioni può risultare dispendioso in termini di tempo e difficile per linguaggi poco comuni. Inoltre i dati in entrata sono spesso discutibili poiché possono non riflettere il reale modo in cui le persone si esprimono. Effettivamente, se ci pensate, la lingua parlata è molto diversa dalla lingua scritta e da quella "ufficiale", descritta nei libri di grammatica.

 

banner articoli sapere4

 

Lo sviluppo del linguaggio nei bambini e la ricerca del MIT

 

I bambini sviluppano il linguaggio osservando l'ambiente che li circonda, ascoltando le persone che sono con loro e "unendo i puntini", ossia collegando ciò che vedono e ciò che ascoltano. Tra le altre cose, questo processo di apprendimento aiuta i più piccoli a stabilire l'ordine delle parole, ad esempio dove si trovano soggetto e verbo in una frase. I ricercatori del MIT hanno quindi progettato un parser che riesca a imparare attraverso l'osservazione, proprio come fanno i bambini. Per imparare la struttura del linguaggio, il parser osserva dei video sottotitolati, senza altre informazioni, e associa le parole agli oggetti e alle azioni registrate. Il parser potrà, quindi, utilizzare ciò che ha imparato sulla struttura del linguaggio per prevedere in maniera accurata il significato di una nuova frase, senza il supporto del video.
È un approccio che ha bisogno di poca supervisione, in quanto richiede un numero limitato di dati per il training e imita il modo in cui i bambini osservano il mondo che li circonda e sviluppano il linguaggio, senza che nessuno fornisca un contesto diretto. Secondo gli scienziati, questo metodo potrebbe aumentare le tipologie di dati e ridurre gli sforzi necessari per allenare un parser. Poche annotazioni dirette possono essere combinate con molti video sottotitolati, più facili come input, per migliorare le prestazioni dell'intelligenza artificiale in questo specifico ambito.

 

Il prossimo passo: imparare il linguaggio attraverso altri sensi

 

In futuro un parser così progettato potrebbe essere usato per migliorare l'interazione naturale tra esseri umani e robot: questi ultimi potrebbero osservare costantemente l'ambiente per rinforzare la comprensione dei comandi orali, incluse le frasi non completamente corrette grammaticalmente o poco chiare. Il coautore della ricerca, Andrei Barbu, ricercatore presso il Computer Science and Artificial Intelligence Laboratory (CSAIL) e il Center for Brains, Minds, and Machines (CBMM) all'interno del McGovern Institute del MIT, ha spiegato: "La gente parla con frasi incomplete, pensieri che si avvicendano e un linguaggio confuso. Tu vuoi un robot nella tua casa che si adatti al tuo particolare modo di parlare...e capisca cosa vuoi dire". Stefanie Tellex, professoressa di computer science presso la Brown University, la cui ricerca è focalizzata nell'aiutare i robot a utilizzare il linguaggio naturale per comunicare con gli esseri umani, ha dichiarato in un articolo del MIT News: "Questa ricerca è esattamente la giusta direzione per l'elaborazione del linguaggio naturale. Per interpretare un linguaggio realistico, abbiamo bisogno di rappresentazioni semantiche, ma non è fattibile renderle disponibili nel tempo del training. Invece, questo lavoro cattura le rappresentazioni della struttura composizionale adoperando il contesto dei video sottotitolati. Questo è l'articolo che stavo aspettando!".
Il passo successivo sarà superare l'osservazione passiva con l'interazione attraverso altre forme di percezione, altri sensi oltre alla semplice vista. Candance Ross, laureata presso il Department of Electrical Engineering and Computer Science e il CSAIL, ricercatrice del CBMM e prima autrice del lavoro, ha affermato: "I bambini interagiscono con l'ambiente mentre imparano. La nostra idea è avere un modello che adopererà anche la percezione per imparare".

 

Ritorniamo a parlare dell'apprendimento umano nell'articolo di Giovanni M. Di Liberto, "Un approccio moderno per le neuroscienze del linguaggio", che potrete acquistare e leggere singolarmente o nel numero di febbraio 2019 di Sapere.

 

Credits immagine di copertina: MIT News

copertina   luglio-agosto 2019

  COMPRA IL NUMERO

 
  ABBONATI

 
  SOMMARIO

 
  EDITORIALE

bannerCnrXSapere 0

iscriviti copia

clark

Questo sito utilizza cookie, anche di terze parti, per migliorare la tua esperienza di navigazione. Se vuoi saperne di più consulta l'informativa estesa. Cliccando su ok acconsenti all'uso dei cookie.