Intelligenza artificiale, l'allarme del Mit sulle IA che mentono per vincere nei giochi

Tecnologia
©Getty

"Man mano che le capacità ingannevoli dei sistemi di intelligenza artificiale diventano più avanzate, i pericoli che rappresentano per la società diventeranno sempre più gravi" afferma il Peter Park, ricercatore presso il Mit e autore della ricerca pubblicata sulla rivista Patterns

ascolta articolo

La mente che mente. Non solo quella umana ora c’è anche quella artificiale che prova a farlo. Sono i studiosi a dirlo. I sistemi di intelligenza artificiale possono superare gli uomini nei giochi da tavolo, decodificare la struttura delle proteine e tenere conversazioni accettabili. Ma, man mano che diventano più sofisticati, cresce anche la loro capacità di inganno. A lanciare questo allarme uno studio del Massachusetts Institute of Technology (Mit) che ha identificato casi di diversi sistemi di IA che bluffano, mostrando che la tecnologia non è perfetta e servono forti norme dei governi. 

IA mente per vincere in giochi e chat         

Peter Park, ricercatore presso il Mit e autore della ricerca pubblicata sulla rivista Patterns ha analizzato una serie di sistemi di IA a partire da Cicero, un programma sviluppato da Meta in grado di battere gli uomini in una versione online di Diplomacy, un popolare gioco di strategia militare. Nonostante il software fosse stato sviluppato per essere onesto, nel corso dell'analisi ha rotto accordi, ha detto il falso e ha ingannato in maniera premeditata per vincere. Addirittura, in una occasione, per giustificare la sua assenza ha detto a un giocatore: "Sono al telefono con la mio fidanzata". Insomma era diventato "un maestro dell'inganno" ha spiegato Park. "Il nostro lavoro su Cicero è stato puramente un progetto di ricerca, non abbiamo intenzione di utilizzarlo nei nostri prodotti", ha affermato al Guardian un portavoce di Meta. 

approfondimento

TikTok, etichette automatiche su contenuti terzi generati dall'IA

906339498 - ©Getty

I comportamenti di Cicero non sono isolati

 Il team del Mit ha riscontrato problemi simili in AlphaStar, sviluppata da Google DeepMind per il videogioco StarCraft II e in ChatGpt. Inoltre, un programma di poker Texas Hold'em ha bluffato contro giocatori professionisti e un altro sistema di negoziazioni economiche ha travisato le proprie preferenze per ottenere un vantaggio. "È molto preoccupante - ha osservato Park - Solo perché un sistema di IA è ritenuto sicuro nell'ambiente di test non significa che sia sicuro anche in natura. Potrebbe semplicemente fingere di essere al sicuro durante il test".  Lo studio invita i governi a progettare leggi sulla sicurezza dell'IA che ne affrontino il potenziale inganno. I rischi derivanti da sistemi di intelligenza artificiale disonesti includono frodi, manomissioni delle elezioni e risposte diverse agli utenti. Alla fine, se questi sistemi riuscissero a perfezionare la loro capacità di inganno, gli esseri umani potrebbero perderne il controllo, suggerisce l'analisi.

approfondimento

Defunti digitali, le app che sfruttano l'IA per elaborare il lutto

Vantaggi e rischi dell’IA

Lo studio del Mit aggiunge un tassello al grande dibattito su vantaggi e rischi dell'IA a cui ha contribuito il fenomeno delle allucinazioni, cioè risposte dei chatbot che sembrano esaustive ma sono completamente infondate. Così come i diversi incidenti sui sistemi di generazioni delle immagini con l'IA e il proliferare dei deepfake che preoccupa in vista dei tanti appuntamenti elettorali. Prima del Mit si sono mossi altri accademici. Oltre 350 hanno firmato un documento del Center for AI Safety in cui sostengono che "mitigare il rischio di estinzione posto dall'IA dovrebbe essere una priorità  globale", come pandemie e le guerre nucleari. Mentre un altro gruppo di accademici ha lanciato la suggestiva proposta di un 'kill switch', un tasto per interrompere l'IA, come accade per le armi nucleari.  

approfondimento

IA, sfida nel settore bancario-assicurativo fra rischi e opportunità

Tecnologia: I più letti