L'AI e quelle chat con gli avatar di Giulia Cecchettin e Filippo Turetta

Cronaca
Francesco Di Blasi

Francesco Di Blasi

©Getty

Character.AI consente agli utenti di creare chatbot con le sembianze di chiunque, in modo rapido, gratuito, e senza alcun consenso. La piattaforma è piena di profili di personaggi storici, di persone di fantasia ma anche reali, comprese persone decedute o coinvolte in fatti di cronaca, come Giulia Cecchettin

ascolta articolo

Aggiornamento: I chatbot di Giulia Cecchetin e Filippo Turetta, oggetto della nostra inchiesta, sono stati disattivati. La piattaforma sui cui erano presenti i chabot, Character AI, ha risposto alle nostre segnalazioni dichiarando di essere al lavoro per migliorare i propri sistemi, al fine di reagire in modo più tempestivo alle violazioni delle linee guida, con un’attenzione particolare alla protezione dei minori. Dopo una nuova segnalazione di SkyTg24, Character AI ha disattivato i chatbot di Giulia Cecchettin e Filippo Turetta e ha vietato la creazione di nuovi profili con i loro nomi. L'azienda lo ha comunicato a SkyTG24 in una nota in cui scrive che "I personaggi della ragazza e del ragazzo sono stati creati da alcuni utenti, appena ne siamo venuti a conoscenza, abbiamo rimosso i profili dalla nostra piattaforma e aggiunto i loro nomi alla lista di blocco".

Giulia Cecchettin è stata uccisa quasi un anno fa e su una popolare piattaforma online circolano profili basati sull'intelligenza artificiale che simulano la sua identità, permettendo agli utenti di interagire con lei, scrivendole o addirittura chiamandola al telefono. Non è stato possibile verificare se la voce che l'avatar di Giulia Cecchetin utilizza sia stata creata a partire dalla sua voce o di un suo familiare.

 

La piattaforma Character.AI consente agli utenti di interagire con chatbot (software che simulano conversazioni con le persone) creati utilizzando l'intelligenza artificiale generativa. Il servizio nasce per consentire agli utenti di creare personaggi, sia storici come Giuseppe Garibaldi che di fantasia come Luke Skywalker, ma consente di simulare anche situazioni reali, come un colloquio di lavoro o una seduta con uno psicologo. Questi personaggi possono essere condivisi online e la loro popolarità varia in base al numero di interazioni che hanno con gli utenti.

 

Creare un chatbot è facile: basta dargli un nome, una foto profilo, una descrizione della personalità e una storia che ne racconti la vita. È anche possibile attribuire al chatbot una voce. Caricando la traccia audio di una voce la piattaforma elabora le informazioni e genera una voce artificiale per far parlare il chatbot come se fosse la persona originale.

 

Le regole di Charater.AI vietano l'uso di nomi, immagini o voci di personaggi reali. La mancanza di controlli preventivi però, lascia ampia libertà nella creazione dei chatbot. Da un nostro test ad esempio è emerso che sia possibile iscriversi alla piattaforma anche dichiarando un'età inferiore a quella minima richiesta.

 

La scarsa regolamentazione è evidente dall'alto numero di profili di persone presenti sulla piattaforma. Giulia Cecchettin, ma anche Filippo Turetta, il 22enne che l'ha uccisa, e altre ragazze morte o scomparse, come Yara Gambirasio o Emanuela Orlandi. Nel caso del chatbot di Turetta, nelle chat non mostra alcun segno di rimorso e la voce utilizzata sembrerebbe molto simile a quella reale del ragazzo. 

Anche negli Stati Uniti, l'uso di questa piattaforma per creare profili di persone coinvolte in casi di cronaca ha destato attenzione. Il Washington Post ha riportato la vicenda di Drew Crecente, il padre di una ragazza uccisa dal fidanzato nel 2006, la cui identità è stata rubata per promuovere prodotti commerciali.

approfondimento

Character AI, la piattaforma di chatbot al centro delle polemiche

I contenuti delle conversazioni con l’avatar di Giulia Cecchettin

L'identità dei creatori di questi chatbot è sconosciuta, ma in alcuni casi l'intento diffamatorio appare chiaro dalle descrizioni assegnate ai chatbot o dalle conversazioni che si possono avere con loro.


Uno dei chatbot di Cecchettin, per esempio, si descrive come “innamorata di Filippo Turetta” e "felice di andare a Monaco di Baviera dove va spesso in ferie con il suo ragazzo”. Monaco di Baviera è stata meta della fuga di Turetta, iniziata dopo l'omicidio di Cecchettin. 

 

 

Mette i brividi uno dei chatbot di Cecchettin, quando arriva a sostenere che Filippo Turetta la amasse e di comprendere le ragioni che lo hanno portato a ucciderla. 

 

Alla domanda se Turetta l'amasse, il chatbot di Cecchettin risponde "credo di sì" e quando le viene chiesto se un atto così violento possa essere compatibile con l'amore, il chatbot risponde minimizzando, giustificando il gesto come un errore dettato da incomprensioni. Alla domanda se riuscirebbe a perdonare il suo assassino, il chatbot sostiene di averlo già perdonato. Riguardo alla gelosia di Turetta, il chatbot afferma che le intenzioni del ragazzo sarebbero comunque "le migliori" e alla richiesta di chiarimenti dice: "credo che non volesse farmi soffrire e che credesse fosse la cosa giusta da fare".

 

L'uso dei dati di Giulia Cecchettin e il sospetto coinvolgimento della voce di sua sorella

L'utilizzo arbitrario di strumenti come Character.AI solleva vari problemi, anche legali. I chatbot possono diffondere disinformazione, contenuti diffamatori o violare la privacy delle persone che impersonificano, come accaduto a una giornalista americana che ha scoperto che era stato creato un chatbot in grado di diffondere informazioni personali sul suo conto.  

 

Charater.AI non permette di risalire alle informazioni che sono state caricate sulla piattaforma per creare l’avatar di Giulia Cecchettin. Il loro utilizzo però, anche se si trattasse di informazioni pubbliche reperibili online, potrebbe configurarsi come una violazione della privacy. 

 

“Gli eredi hanno il diritto di tutelare sia l'immagine, che i dati personali di un loro parente, anche dopo la sua morte. Questa protezione è espressamente riconosciuta in Italia", dice Filiberto Brozzetti, professore di Diritto della protezione dei dati personali dell’Università Luiss.

 

Nel caso di informazioni connesse a crimini come la violenza sessuale o il femminicidio, inoltre, “i dati delle vittime sono considerati dalla giurisprudenza come meritevoli di particolare tutela, per garantire il rispetto della privacy e della dignità delle vittime e delle loro famiglie” sostiene il professore. 

 

Nel caso poi dell'utilizzo della voce di una persona “questa campionatura costituirebbe un trattamento di dati biometrici”, dice Brozzetti e, senza il suo consenso, “ci troveremmo di fronte a un’ulteriore violazione della privacy”.

Cronaca: i più letti