Salute mentale, ogni settimana un milione di utenti esprime tendenze suicide su ChatGPT
Salute e BenessereA rivelarlo una ricerca pubblicata da OpenAi, nella quale si sottolinea inoltre che circa lo 0,07% degli utenti attivi in una settimana mostra "segni di possibili problemi di salute mentale legate a psicosi o mania"
Oltre un milione di utenti di ChatGpt inviano messaggi che indicano "espliciti intenzioni o progetti suicidi ogni settimana". A rivelarlo una ricerca pubblicata da OpenAi, nella quale si sottolinea inoltre che circa lo 0,07% degli utenti attivi in una settimana - percentuale pari a un milione e 200 mila utenti - mostra "segni di possibili problemi di salute mentale legate a psicosi o mania". I dati arrivano proprio in un momento in cui OpenAi si trova ad affrontare uno scrutinio sempre più serrato in seguito alla causa della famiglia di un adolescente morto suicida dopo un'intensa attività con ChatGpt. Il mese scorso, la Federal Trade Commission ha inoltre avviato un'ampia indagine sulle aziende che creano chatbot basati sull'intelligenza artificiale, tra cui OpenAi, per scoprire come misurano gli impatti negativi su bambini e adolescenti. Il gigante dell'intelligenza artificiale ha assicurato che il suo recente aggiornamento di Gpt-5 ha migliorato la sicurezza degli utenti e ha ampliato l'accesso alle linee di assistenza in caso di crisi. Per apportare miglioramenti al modello, l'azienda ha dichiarato di aver arruolato 170 medici della sua rete globale di esperti sanitari per assisterla nella ricerca degli ultimi mesi.
Riconoscere il disagio mentale ed emotivo
OpenAI, che ha lanciato il nuovo modello di intelligenza artificiale Gpt-5 a metà agosto (aggiornato il 3 ottobre), ha introdotto alcuni aggiornamenti a ChatGpt volti a "migliorare il modo in cui l'IA risponde nei momenti critici, ad esempio quando qualcuno mostra segni di disagio mentale o emotivo", ha spiegato l'azienda in una nota. Per raggiungere tale obiettivo, la società americana ha collaborato con esperti e associazioni di categoria in tutto il mondo. Adesso l'IA dovrebbe essere in grado di riconoscere persone con disagio mentale ed emotivo, anche temporaneo, rispondendo alle loro domande con più evidenze e fonti rispetto al passato. Secondo l’azienda, i miglioramenti permetteranno di rispondere in modo sicuro "a potenziali segnali di delirio o mania": casi in cui ChatGPT aprirà automaticamente una nuova finestra di chat gestita da una versione del modello addestrata per indirizzare l’utente verso servizi di sostegno psicologico o numeri di emergenza.