Intelligenza artificiale, allarme esperti. Chiedono regole: “Mitigare rischio estinzione”
Tecnologia“Mitigare il rischio di estinzione” posto dall'intelligenza artificiale "dovrebbe essere una priorità insieme ad altri rischi sociali come le pandemie e le guerre nucleari”, si legge in una lettera aperta firmata da più di 350 manager e diffusa dalla no profit Center for AI Safety. Tra i firmatari ci sono Sam Altman, ad del produttore di ChatGPT OpenAI; Demis Hassabis, amministratore delegato di Google DeepMind; Dario Amodei di Anthropic; Geoffrey Hinton, un cosiddetto padrino dell'Ia
L'intelligenza artificiale potrebbe portare all'estinzione dell'umanità e dovrebbe essere considerata una minaccia, un rischio sociale come le pandemie e le guerre nucleari. È questo l’allarme lanciato da alcuni esperti del settore, in una lettera aperta firmata da più di 350 manager e diffusa dalla no profit Center for AI Safety.
L’appello degli esperti sull’Ai
“Mitigare il rischio di estinzione” posto dall'intelligenza artificiale "dovrebbe essere una priorità insieme ad altri rischi sociali come le pandemie e le guerre nucleari”, si legge nella lettera. Tra i firmatari ci sono Sam Altman, ad del produttore di ChatGPT OpenAI; Demis Hassabis, amministratore delegato di Google DeepMind; e Dario Amodei di Anthropic. A sostenere l’appello anche Geoffrey Hinton, un cosiddetto padrino dell'Ia.
vedi anche
Nvidia annuncia super computer con chip per intelligenza artificiale
"Necessità di porre limiti e vincoli"
"L'uso estensivo dell'intelligenza artificiale da un lato sta portando a una vera rivoluzione e dall'altro sta ponendo seri problemi", ha commentato Luca Simoncini, esperto di tecnologie dell'informazione, ex docente di Ingegneria dell'informazione all'Università di Pisa ed ex direttore dell'Istituto di tecnologie dell'informazione del Consiglio Nazionale delle Ricerche. Anche lui è tra i firmatari della dichiarazione. Ha spiegato che a dettare l'allerta lanciata dal Center for AI Safety è stata l'urgenza di regole in un settore pervasivo come l'intelligenza artificiale. "L'intelligenza artificiale è così pervasiva da avere un forte impatto in molti settori della vita sociale (pensiamo solo al rischio di produzione di fake news o al controllo delle auto autonome), come su aspetti economici, finanziari, politici, educativi ed etici. È evidente che nessuno può opporsi se una tecnologia emergente è usata per scopi benefici, per esempio in campo biomedico o farmacologico", ha detto. Di conseguenza, se parlare di rischio di estinzione dell'umanità può sembrare un'iperbole, secondo Simoncini la dichiarazione del Cias ricorda il manifesto nel quale Bertrand Russell e Albert Einstein nel 1955 denunciavano i rischi delle armi nucleari. Il caso dell'intelligenza artificiale è diverso, dicono gli sperti, ma il punto è che servono regole chiare e una presa di coscienza. "Spesso ci si dimentica che questi sistemi sono fallibili", ha osservato Simoncini, e le grandi aziende attive nel settore "basano le loro attività solo sulla prevalenza tecnologica, non si sono poste il problema di una regolamentazione". Per esempio, ha aggiunto, nel caso dei Chatbot come ChatGpt "utilizzarli dovrebbe essere inteso come un aiuto, non come la sostituzione delle capacità umane da parte di un sistema di intelligenza artificiale". Si dovrebbe pensare fin da adesso "alla necessità di porre limiti e vincoli", ha concluso Simoncini.
vedi anche
Antibiotico contro batterio scoperto con l'intelligenza artificiale
"Potrebbe generare effetti secondari imprevisti"
Tra i firmatari della lettera c’è anche il fisico Roberto Battiston, dell'Università di Trento. Servono regole per gestire algoritmi potenti come quelli dell'intelligenza artificiale e per evitare effetti imprevisti, ha spiegato. "Questo tipo di algoritmi di intelligenza artificiale generativa – ha detto Battiston – si sono rivelati molto potenti nell'interfacciare le persone utilizzando i dati presenti sul web e il linguaggio naturale, così potenti che potrebbero generare effetti secondari imprevisti. Nessuno oggi sa realmente quali potrebbero essere questi effetti, positivi o negativi: servono tempo e sperimentazione per realizzare regole e norme che permettano di gestire l'efficacia di questa tecnologia proteggendoci dai relativi pericoli. Non si tratta della minaccia di una super intelligenza che possa sopraffare l'umanità, ma delle conseguenze del modo con cui gli esseri umani si abitueranno a utilizzare questi algoritmi nel loro lavoro e nella vita quotidiana della società". Pensiamo ad esempio, ha aggiunto, "alla possibile interferenza sui processi elettorali, alla diffusione di notizie false, alla creazione di canali di notizie che rispondono a precisi interessi di disinformazione". Per questo, ha osservato, "occorre prepararsi a gestire queste situazioni".
vedi anche
Usa, foto di un falso attacco al Pentagono generata con l'IA
“Maggiore la probabilità di rischi da altre cause, come il cambiamento climatico”
Non è tra i firmatari della lettera aperta, invece, Luca Trevisan, professore ordinario di Informatica alla Bocconi, che da tempo si occupa di intelligenza artificiale. Più che l'estinzione del genere umano, l'Intelligenza artificiale potrebbe comportare rischi meno catastrofici ma più concreti e vicini nel tempo, dei quali bisogna essere consapevoli e che vanno gestiti, ha spiegato. Commentando l'allerta, ha osservato che "nasce alla confluenza di due idee che negli ultimi anni hanno cominciato a circolare nel mondo accademico e filosofico. Secondo la prima bisognerebbe preoccuparsi di più di rischi che potrebbero portare all'estinzione dell'umanità e la seconda ritiene che il progresso dell'Intelligenza artificiale potrebbe essere fra questi. È un rischio che, per quanto improbabile, merita che se ne parli di più". "In linea di principio – ha aggiunto – è giusto avere un orizzonte più ampio delle nostre preoccupazioni, che consideri i rischi su un lungo periodo ma, facendo una considerazione puramente statistica, è maggiore la probabilità di rischi da altre cause, come il cambiamento climatico". Ancora a proposito dell'allerta: “Enfatizzare i rischi remoti e meno probabili rischia di distogliere l'attenzione da rischi più concreti", come la facile produzione di fake news e cambiamenti nel mondo del lavoro che potrebbero portare a instabilità sociali. "Nel breve termine potremmo trovarci ad avere un impatto sociale ed economico molto forte di queste tecnologie, e questa è una cosa che va governata" e per questo, ha detto l'esperto, "dovremmo specificare gli obiettivi e considerare che, nel realizzarli, si potrebbero creare conseguenze impreviste". Servono quindi "regole" ed è "necessario governare il cambiamento". Certamente, "ogni cambiamento tecnologico può generare ricchezza, ma questa sarà distribuita su tutta la società o andrà solo alle grandi imprese? E in caso di conseguenze negative, chi pagherà? Questi non sono problemi tecnologici, ma politici, e sarebbe bene che la politica se ne occupasse. Se dovessi fare un appello lo farei in questa direzione", ha concluso Trevisan.