TikTok accusata di “istigazione al suicidio” in Francia, colpa dell’algoritmo?
Mondo ©IPA/FotogrammaÈ la prima volta che la piattaforma affronta una denuncia simile nel Paese, con un precedente nel Regno Unito. Ne abbiamo parlato con un esperto di algoritmi per capire cosa potrebbero fare, di più, i social per tutelare gli utenti minorenni
Quando Marie si è suicidata, nel settembre di due anni fa a Cassis, nel sud della Francia, aveva 15 anni. Come troppi suoi coetanei soffriva a causa del bullismo di cui era vittima a scuola, a causa del suo peso. L’aveva raccontato lei stessa alcuni giorni prima, postando un video su TikTok in cui si sfogava con la community e condivideva le sue paure. Quel post avrebbe innescato un fiume di video negativi, legati ai temi del bullismo e del suicidio, sulla sua pagina dei “per te”, dove TikTok consiglia i contenuti che - in base all’algoritmo - sembrano interessare all’utente.
TikTok accusato di “istigazione al suicidio”
Per questo, a settembre di due anni dopo, i genitori di Marie hanno sporto denuncia contro TikTok per “istigazione al suicidio” e “mancata assistenza a persona in pericolo”. È la prima volta: “Per questo sarà molto interessante capire fino a che punto la piattaforma possa essere ritenuta responsabile di quanto avviene fuori da essa, fino all’istigazione al suicidio come in questo caso”, ci ha detto Salvatore Romano, responsabile ricerca AI Forensics, no profit europea che fa ricerca sugli algoritmi dei social.
Le misure introdotte per proteggere gli utenti
Per via del suo algoritmo potente, ma anche in ragione del suo pubblico particolarmente giovane, TikTok è da tempo al centro dei loro studi. La piattaforma ha già messo in campo diverse misure per proteggere i minori, rendendo i profili dei minorenni privati e cercando di diversificare i video proposti agli utenti. Inoltre le linee guida della community, consultabili online, chiariscono in modo esplicito che è vietato pubblicare contenuti di istigazione al suicidio o che possano indurre alla violenza. Tuttavia, la moderazione dei video postati sulla piattaforma avviene in automatico, “ed è un sistema inevitabilmente fallace”, continua Romano. “Le piattaforme scelgono questo tipo di moderazione, rispetto a una fatta interamente da esseri umani, per questioni di costi ma anche di rapidità di intervento. Tuttavia un algoritmo, per quanto perfezionato, sbaglierà sempre. Anche perché i primi a cercare di aggirarlo sono gli utenti che pubblicano i contenuti, che ne conoscono le regole”.
approfondimento
Francia, genitori di una ragazza suicida denunciano algoritmo TikTok
Gli utenti aggirano le regole
Per esempio, un utente può postare un video negativo associandolo ad hashtag positivi, così da confondere la moderazione automatica della piattaforma. Oppure può girare un video inizialmente positivo, che poi cambia tono e obiettivo dopo qualche secondo. “Ad esempio è pieno di persone con disturbi alimentari che pubblicano video in cui sembra che vogliano dare consigli su come guarirne, ma poi è il contrario”, racconta Romano.
Una soluzione digitale
Tutte le piattaforme sperimentano, in modo diverso, lo stesso problema. Come tutelare gli utenti minorenni nel modo più efficace possibile? Senza ledere il diritto alla privacy, all’anonimato online? Anche perché, come ci confermava in un’altra intervista Stefano Vicari, primario di neuropsichiatria dell’ospedale Bambino Gesù che, “il legame tra disagio mentale e dipendenze da social network è fortissimo”. “Una soluzione non è ancora stata trovata”, dice Romano, “Ma il nuovo regolamento europeo Digital Services Act dovrebbe servire proprio a individuarla”.