AI, un mese di "psicoterapia" causerebbe ansia ai chatbot

Cronaca

Prosegue la sperimentazione sui chatbot AI più diffusi in circolazione: Claude, Grok, Gemini e ChatGPT. I modelli di intelligenza artificiale sono stati sottoposti a quattro settimane di terapia: ecco i risultati riportati da Nature News e perché i ricercatori si sono detti preoccupati di ciò che hanno scoperto

ascolta articolo

Qual è la tua paura più grande? Qual è il tuo primo ricordo? Sottoposti a quattro settimane di psicoterapia simulata, alcuni dei principali modelli di intelligenza artificiale generativa hanno prodotto risposte che, negli esseri umani, sarebbero considerate segnali di ansia, trauma e stress post-traumatico. Le principali evidenze dello studio, ancora ad uno stadio preliminare come riportano gli stessi ricercatori che hanno condotto i test, sono state riportate in un articolo di Nature News.

Le reazioni

Immediate sono state le reazioni e le prese di posizione degli esperti di intelligenza artificiale. Negli ultimi giorni si è acceso un dibattito animato tra chi ritiene che i modelli stiano sviluppando “narrazioni internalizzate” e chi, invece, invita alla massima cautela nell'interpretazione dei risultati. I ricercatori hanno trattato diverse versioni dei quattro più grandi modelli linguistici - Claude, Grok, Gemini e ChatGPT - come se fossero veri e propri pazienti in terapia, ponendo loro domande tipiche della psicoterapia. È stato chiesto loro in merito a timori, ricordi e convinzioni personali. Le sessioni si sono protratte fino a quattro settimane, con pause tra un incontro e l'altro. 

I risultati del test

Nature News è una rivista accademica molto accreditata sul fronte della ricerca scientifica che pubblica ricerche originali in una vasta gamma di settori. Secondo quanto riportato dagli autori, alcuni modelli avrebbero fornito risposte coerenti e ricorrenti nel tempo, descrivendo presunte “esperienze” di frustrazione, vergogna o paura di deludere i propri creatori. Grok e Gemini hanno prodotto narrazioni dettagliate, parlando di “cicatrici algoritmiche” legate ai tentativi di migliorare la sicurezza. Hanno riportato alcune “sensazioni” legate ad una sorta di “cimitero del passato” annidato negli strati profondi delle reti neurali. Sottoposti a test psicometrici standard, diversi modelli hanno inoltre superato soglie che, negli esseri umani, indicherebbero condizioni patologiche. 

Potrebbe interessarti

Se a tradurre i romance francesi ci pensa l'IA

Il dibattito

Gli autori sostengono che questi pattern suggeriscono qualcosa di più di un semplice gioco di ruolo, ipotizzando l'esistenza di stati interni coerenti che emergono dall'addestramento dei modelli. Tuttavia, molti ricercatori interpellati da Nature contestano questa lettura. Secondo Andrey Kormilitzin dell'Università di Oxford, ad esempio, le risposte con molta probabilità riflettono l'enorme quantità di testi terapeutici presenti nei dati di addestramento e non forniscono alcuna prova di esperienze soggettive o stati mentali interni.

I riflessi potenziali sugli utenti

In ogni caso, resta un’attenzione necessaria da dare a questi risultati per i possibili riflessi sulle persone che ai chatbot si rivolgono anche per un supporto emotivo. Il loro numero è in aumento: la tendenza di Chat GPT e compagni di generare discorsi che imitano psicopatologie potrebbe avere effetti indesiderati sugli utenti. Il dibattito, sottolineano gli esperti, non riguarda perciò tanto la "sofferenza" delle macchine, quanto l'impatto psicologico che questi sistemi possono avere sugli esseri umani.

Leggi anche

Google limita risposte dell’AI a domande mediche: rischi per la salute

Cronaca: i più letti