I rischi dell'intelligenza artificiale, l'allarme di 26 esperti
TecnologiaLo studio sottolinea le potenzialità della tecnologia ma mette anche in guardia dai pericoli. Perché i software potrebbero trasformare droni e e vetture autonome in armi
Elon Musk e Jack Ma hanno già espresso le loro preoccupazioni sul futuro dell'intelligenza artificiale. Adesso un rapporto firmato da 26 esperti del settore rilancia i rischi: robot, vetture a guida autonoma e droni potrebbero trasformarsi in armi a causa di attacchi hacker.
AI arma di attacco e di difesa
Dire che l'intelligenza artificiale è esposta a rischi non è una novità: più gli strumenti sono digitali, più si espande la cosiddetta "superficie d'attacco", cioè quella esposta a offensive esterne. Il documento (redatto tra gli altri da ricercatori di Yale e Stanford) sottolinea però l'urgenza del problema e indica l'intelligenza artificiale non solo come bersaglio ma anche come strumento d'attacco. Il documento descrive i software evoluti come un'opportunità: la tecnologia sta "migliorando le proprie capacità". Tanto che "prima raggiungerà e poi supererà quelle umane in molti settori, come già abbiamo visto in giochi come gli scacchi, negli investimenti finanziari e nella guida delle auto". Ma durante questo percorso, non mancheranno le deviazioni: l'intelligenza artificiale potrebbe essere usata anche come ariete per sfondare le cyber-barriere. Qual è la soluzione? Lottare ad armi pari, coinvolgendo l'AI come strumento di difesa. Tradotto: la battaglia sarà sempre più "macchina contro macchina".
Le previsioni sono già realtà
Lo studio sottolinea però che l'uomo non potrà mai affidarsi completamente a un software. Serve affiancare l'adozione di nuove tecnologie con la formulazione di regole e indirizzi politici con i quali gestire l'intelligenza artificiale. Serve, in una parola, "prevenire" attacchi e coinvolgere anche gli utenti in modo da istruirli sull'utilizzo, sulle potenzialità e sulle controindicazioni dell'AI. Il tema non è infatti solo una sicurezza digitale, ma, scrivono i ricercatori, c'è in ballo anche l'incolumità fisica (a repentaglio se gli hacker si impadronissero di droni o si mettessero al volante di vetture driverless) e la stabilità politica (a causa di crescente sorveglianza e utilizzo di software per manipolare l'informazione). Il rapporto, pubblicato solo a febbraio del 2018, è stato scritto circa un anno fa. E contiene ipotesi che sono già state confermate dalla realtà, come dimostra l'uso di bot per influenzare il voto tramite i social network.