Intelligenza artificiale, nuove polemiche per i chatbot che simulano persone reali

Tecnologia
©Getty

Nel Regno Unito, emergono nuovi casi di profili di persone legate a fatti di cronaca sulla piattaforma Character AI. Anche SkyTG24 ha riportato episodi simili riguardanti Giulia Cecchettin e Filippo Turetta

ascolta articolo

Nel Regno Unito sono stati scoperti due chatbot interattivi, basati sull’intelligenza artificiale, con i profili di Brianna Ghey e Molly Russell, due ragazze morte e note nel paese perché legate a fatti di cronaca. I chatbot, scoperti dal The Telegraph e ora eliminati, erano presenti sul sito Character AI, un sistema che permette di creare chatbot in grado di simulare delle conversazioni umane attraverso una chat o delle finte chiamate telefoniche. I bot delle due ragazze includevano le loro fotografie, i loro nomi e dettagli biografici e, secondo quanto riportato dal The Telegraph, erano in grado di produrre conversazioni con contenuti legati alla “glorificazione della violenza e del suicidio”. 

 

Chi erano Brianna Ghey e Molly Russell

Brianna Ghey, una ragazza transgender di sedici anni, è stata uccisa nel 2023 da due coetanei, in un attacco motivato da sadismo e odio transfobico. Molly Russell, invece, era una quattordicenne che nel 2017 si è tolta la vita, sembra spinta in parte dall’intenso stress psicologico derivante dall’esposizione ripetuta a contenuti legati al tema del suicidio sui social media. Entrambe le vicende hanno suscitato un ampio dibattito nel Regno Unito, diventando casi di cronaca molto noti.

L’inchiesta di SkyTG24 sui chatbot di Giulia Cecchettin e Filippo Turetta

Il caso riportato dal Telegraph, purtroppo, non è isolato. Un’indagine di SkyTG24 ha portato alla luce come sulla piattaforma Character AI fossero presenti i chatbot di Giulia Cecchettin, la ragazza uccisa dal suo ex fidanzato, e Filippo Turetta, reo confesso del femminicidio. Dopo l’indagine, i profili sono stati rimossi, ma SkyTG24 ha potuto verificare che i bot erano capaci di generare conversazioni inquietanti e che denigravano la memoria di Cecchettin.  Non solo, analizzando l'audio dei chatbot, è emersa la possibilità che, nella fase della loro creazione, possa essere stata usata la voce delle persone coinvolte o di un loro familiare. Caricando una registrazione audio, infatti, la piattaforma consente di generare una voce artificiale con cui far interagire il chatbot. Oltre ai profili di Cecchettin e Turetta, l'inchiesta di SkyTG24 ha scoperto la presenza di altri profili di persone legate a fatti di cronaca, ma anche di diversi politici e personaggi pubblici, con tutto quello che questo può comportare anche in termini di disinformazione.

approfondimento

IA, lo studio: “Così un chatbot può far cambiare idea ai complottisti”

Character AI, la piattaforma al centro delle polemiche

Character AI consente agli utenti di conversare con i chabot e anche di sviluppare avatar in grado di imitare personaggi storici, figure immaginarie o ruoli professionali come psicologi o manager.  La libertà concessa agli utenti nella creazione dei profili ha tuttavia causato diversi episodi di abuso ed espone anche al rischio di disinformazione. Elementi che hanno messo la piattaforma sotto i riflettori per la sua insufficiente capacità di moderare i contenuti.  Oltre ai casi riportati da SkyTG24 e da The Telegraph, anche il Washington Post ha segnalato l’esistenza di un chatbot ispirato a una ragazza vittima di femminicidio, mentre il New York Times ha riportato  la denuncia di una donna che ha fatto causa alla piattaforma, accusandola di essere responsabile del suicidio del figlio, per via dell'attaccamento che il ragazzo avrebbe sviluppato con un chatbot e dell’assenza di moderazione dei contenuti.

Tecnologia: I più letti