I rischi dell'intelligenza artificiale, l'allarme di 26 esperti

Tecnologia
Lo studio è frutto di un summit di inizio 2017 (Foto: Archivio Getty Images)
gettyimages-intelligenza_artificiale_720

Lo studio sottolinea le potenzialità della tecnologia ma mette anche in guardia dai pericoli. Perché i software potrebbero trasformare droni e e vetture autonome in armi

Elon Musk e Jack Ma hanno già espresso le loro preoccupazioni sul futuro dell'intelligenza artificiale. Adesso un rapporto firmato da 26 esperti del settore rilancia i rischi: robot, vetture a guida autonoma e droni potrebbero trasformarsi in armi a causa di attacchi hacker.

AI arma di attacco e di difesa

Dire che l'intelligenza artificiale è esposta a rischi non è una novità: più gli strumenti sono digitali, più si espande la cosiddetta "superficie d'attacco", cioè quella esposta a offensive esterne. Il documento (redatto tra gli altri da ricercatori di Yale e Stanford) sottolinea però l'urgenza del problema e indica l'intelligenza artificiale non solo come bersaglio ma anche come strumento d'attacco. Il documento descrive i software evoluti come un'opportunità: la tecnologia sta "migliorando le proprie capacità". Tanto che "prima raggiungerà e poi supererà quelle umane in molti settori, come già abbiamo visto in giochi come gli scacchi, negli investimenti finanziari e nella guida delle auto". Ma durante questo percorso, non mancheranno le deviazioni: l'intelligenza artificiale potrebbe essere usata anche come ariete per sfondare le cyber-barriere. Qual è la soluzione? Lottare ad armi pari, coinvolgendo l'AI come strumento di difesa. Tradotto: la battaglia sarà sempre più "macchina contro macchina".

Le previsioni sono già realtà

Lo studio sottolinea però che l'uomo non potrà mai affidarsi completamente a un software. Serve affiancare l'adozione di nuove tecnologie con la formulazione di regole e indirizzi politici con i quali gestire l'intelligenza artificiale. Serve, in una parola, "prevenire" attacchi e coinvolgere anche gli utenti in modo da istruirli sull'utilizzo, sulle potenzialità e sulle controindicazioni dell'AI. Il tema non è infatti solo una sicurezza digitale, ma, scrivono i ricercatori, c'è in ballo anche l'incolumità fisica (a repentaglio se gli hacker si impadronissero di droni o si mettessero al volante di vetture driverless) e la stabilità politica (a causa di crescente sorveglianza e utilizzo di software per manipolare l'informazione). Il rapporto, pubblicato solo a febbraio del 2018, è stato scritto circa un anno fa. E contiene ipotesi che sono già state confermate dalla realtà, come dimostra l'uso di bot per influenzare il voto tramite i social network.

Tecnologia: I più letti