Le piccole increspature di una lente a contatto o le imperfezioni di un bicchiere di vetro. Queste sono caratteristiche dei materiali difficili da cogliere, persino in ambienti molto illuminati. I ricercatori del MIT-Massachusetts Institute of Technology hanno trovato il modo di vedere l’invisibile al buio, distinguere particolarità o interi oggetti trasparenti, quasi impossibili da decifrare, in condizioni di mancanza di luce. Come hanno fatto e a cosa serve una tecnica come questa? Capiamolo insieme.
Le piccole increspature di una lente a contatto o le imperfezioni di un bicchiere di vetro. Queste sono caratteristiche dei materiali difficili da cogliere, persino in ambienti molto illuminati. I ricercatori del MIT-Massachusetts Institute of Technology hanno trovato il modo di vedere l’invisibile al buio, distinguere particolarità o interi oggetti trasparenti, quasi impossibili da decifrare, in condizioni di mancanza di luce. Come hanno fatto e a cosa serve una tecnica come questa? Capiamolo insieme.
A cosa serve vedere oggetti trasparenti al buio?
I risultati raggiunti dagli studiosi sono stati pubblicati su Physical Review Letters e descrivono come reti neurali profonde possano essere impiegate per illuminare oggetti trasparenti, come tessuti biologici e cellule, in immagini ottenute con poca luce. George Barbastathis, professore di ingegneria meccanica presso il MIT e autore dell’articolo, ha spiegato: “In laboratorio, se si colpiscono le cellule biologiche con la luce le si brucia, e non rimane alcuna immagine da realizzare. Quando si tratta di imaging con raggi X, se si espone un paziente a queste radiazioni, si aumenta il rischio che la persona possa sviluppare un tumore. Ciò che stiamo facendo è poter ottenere la stessa qualità di immagini diagnostiche ma con un’esposizione minore del paziente. E in biologia si può ridurre il danno sui campioni biologici quando li si vuole raccogliere”.
Come insegnare a un’intelligenza artificiale a scorgere l’invisibile
Per raggiungere l’obiettivo, i ricercatori hanno ricostruito immagini di oggetti trasparenti a partire da figure che li ritraevano, raccolte in condizioni di buio quasi completo. Per farlo hanno impiegato una rete neurale profonda, una tecnica di machine learning in cui un computer (o meglio, un algoritmo) viene “allenato” ad associare determinati input con specifici output, in questo caso immagini scure e sgranate di oggetti trasparenti e gli oggetti stessi.
Facciamo un passo indietro. Come funzionano le reti neurali? Le reti neurali sono schemi computazionali progettati per imitare il modo in cui i neuroni del nostro cervello elaborano complessi dati in entrata. Una rete neurale lavora per “strati” successivi di manipolazioni matematiche: ogni livello computazionale calcola la probabilità di un certo output, basato sull’input iniziale.
Nel comunicato del MIT c’è un utile esempio per comprendere meglio come agisce un’intelligenza artificiale, quello dell’immagine di un cane. Data la suddetta immagine, una rete neurale potrebbe identificare caratteristiche che ricordano un animale, successivamente più specificamente un cane, e alla fine un beagle. Una rete neurale profonda include molti più livelli di calcolo dettagliati tra input e output e può essere allenata. Come? I ricercatori possono fornirle centinaia o migliaia di immagini non solo di cani ma di altri animali, oggetti e persone, corredate con le etichette corrette. Dandole abbastanza informazioni da cui imparare, la rete neurale dovrebbe essere in grado di classificare correttamente nuove immagini.
Applicazioni dell’AI in medicina e astronomia
Gli studiosi hanno allenato l’algoritmo in modo tale che potesse riconoscere più di 10.000 incisioni simili a vetro trasparente, basate su immagini estremamente sgranate di questi disegni schematici, raccolte in condizioni di illuminazione minima, con circa un fotone per pixel, ossia molta meno luce di quella che una fotocamera riesce a registrare in una stanza buia e sigillata. I ricercatori hanno quindi fornito al calcolatore una nuova immagine sgranata, non inclusa nell’insieme di dati usati per il training, e hanno dimostrato che la macchina aveva imparato a ricostruire l’oggetto trasparente nascosto dall’oscurità.
Alexandre Goy, coautore del lavoro apparso su Physical Review Letters, ha commentato: “Abbiamo mostrato che il deep learning può rivelare oggetti invisibili al buio. Questo risultato è di importanza pratica per la diagnostica per immagini in medicina, affinché sia diminuita l’esposizione dei pazienti a radiazioni pericolose, e per l’imaging in astronomia”.
Si parla ancora di macchine nell’articolo di Maurizio Garbati, “Darwin, selezione naturale e robotica evolutiva”, che potrete acquistare e leggere singolarmente o con il numero di giugno 2015 di Sapere.
Credits immagine: foto di Pexels da Pixabay