Intelligenza artificiale, al Mit i computer imparano ad "ascoltare"
TecnologiaRicercatori del Massachusetts Institute of Technology insegnano alle macchine a riconoscere luoghi e oggetti attraverso i suoni. La novità sarà presentata alla conferenza annuale sui sistemi di elaborazione delle informazioni neurali di Barcellona
Insegnare il senso dell’udito alle macchine. Potrebbe essere questa la nuova frontiera dell’intelligenza artificiale. I ricercatori del Mit (l’Istituto di tecnologia del Massachusets) sono stati in grado di far riconoscere ai computer luoghi e oggetti semplicemente attraverso i suoni. Dal 5 fino al 10 dicembre si terrà a Barcellona la Conferenza annuale sui sistemi di elaborazione delle informazioni neurali: sarà lì che le novità sviluppate dal team americano verranno presentate in maniera ufficiale.
L’addestramento delle macchine – Il sito del Mit ha fornito alcune anticipazioni. Il sistema sul quale hanno lavorato i ricercatori ha sfruttato la tecnologia delle reti neurali, ovvero un circuito artificiale sul modello del cervello umano in grado di apprendere attraverso l’addestramento. I sistemi di riconoscimento attuali, invece, sono il risultato di un processo di apprendimento. I computer attingono cioè a una mole ingente di dati, ma serve sempre un input esterno da parte dell’uomo perché correlino immagini e suoni. Il sistema progettato al Mit, invece, è stato sviluppato per superare i suoi predecessori e rendere le macchine sempre più autonome. Come? Affiancando due computer, ognuno dotato di rete neurale: uno utilizzato per elaborare le immagini, l’altro i suoni, affinché le associazioni diventino automatiche, senza bisogno dell’intervento umano.
Prima di tutto il suono - In fase di applicazione si è deciso di dare come input iniziale il suono, più facile da gestire dalle macchine, per risalire a immagini o situazioni specifiche. Il sistema sviluppato dal Mit consentirebbe un'associazione automatica e autonoma con un solo input esterno, quello sonoro e non un continuo intervento umano per ogni immagine processata. A differenza dei comandi vocali, gli input dati alle macchine sono suoni naturali o di ambiente riferiti ad uno specifico contesto, come il rumore delle onde o gli applausi del pubblico. Le prestazioni del computer hanno raggiunto livelli molto simili a quelle umane: su un campione composto da dieci tipi di suoni, si è registrata un’accuratezza di categorizzazione del 92%, che è scesa al 74% con un campione di 50 suoni. L’uomo, invece, ha in media un'accuratezza rispettivamente del 96 e dell'81%.
I campi di applicazione – Nel riconoscimento delle immagini erano già stati fatti passi importanti grazie allo sviluppo dell’intelligenza artificiale. Basti pensare, ad esempio, all’algoritmo che su Facebook consente il riconoscimento automatico dei volti sulle foto postate. Il senso dell’udito, invece, rappresenta una novità assoluta. La capacità delle macchine di “ascoltare” e associare i suoni ad un preciso significato potrebbe spalancare le porte a un campo ricco di applicazioni. Se si pensa al settore dei dispositivi mobili, gli smartphone potrebbero imparare a “silenziarsi” da soli quando un utente si trova in riunione. Non solo. Nel campo automobilistico, il sistema elettronico di bordo potrebbe far accostare automaticamente il veicolo sentendo, ad esempio, le sirene di un’ambulanza.