Ad annunciarlo è stato il commissario europeo al mercato interno Thierry Breton. Sotto la lente della Commissione ci sono gli obblighi relativi alla valutazione dei rischi, gli algoritmi e la trasparenza della piattaforma anche in tema di pubblicità. La risposta dell'azienda: "Lavoriamo per la sicurezza dei giovani. Siamo lieti di avere ora l'opportunità di spiegare in dettaglio questo lavoro alla Commissione"
La Commissione Europea ha avviato un procedimento formale per valutare se TikTok possa aver violato il Digital Services Act (Dsa) in ambiti legati alla tutela dei minori, alla trasparenza della pubblicità, all'accesso ai dati per i ricercatori, nonché alla gestione del rischio di design che creano dipendenza e contenuti dannosi. Lo ha annunciato il commissario europeo al mercato interno Thierry Breton su X: "Oggi apriamo un'indagine su TikTok per sospetta violazione della trasparenza e degli obblighi di tutela dei minori”. Il commissario ha quindi elencato i punti per rafforzare la sicurezza digitale: “Design avvincente e limiti di tempo sullo schermo. Effetto tana del coniglio. Verifica dell'età. Impostazioni sulla privacy predefinite".
L’indagine
Un rapporto di valutazione dei rischi inviato da TikTok nel settembre 2023 e le risposte del social alle richieste formali di informazioni della Commissione su contenuti illegali, tutela dei minori e accesso ai dati sono stati alla base dell’indagine preliminare condotta finora. Alla luce di quanto emerso dall’analisi, la Commissione ha quindi deciso di avviare un procedimento formale contro TikTok ai sensi della Dsa.
leggi anche
TikTok, centro elettorale in vista delle elezioni nell'Unione europea
I lavori della Commissione
L'indagine avrà modo di chiarire se sono stati rispettati tutti gli obblighi relativi alla valutazione e alla mitigazione dei rischi relativi all’utilizzo di TikTok, compresi i sistemi algoritmici che potrebbero stimolare dipendenze comportamentali (ad esempio gli "effetti tana del coniglio", come ha anticipato Breton). Tale valutazione è necessaria per contrastare i rischi potenziali per l'esercizio del diritto fondamentale al benessere fisico e mentale della persona, al rispetto dei diritti del minore, nonché il suo impatto sui processi di radicalizzazione. Verranno poi valutate le misure di mitigazione messe in atto, in particolare gli strumenti di verifica dell'età utilizzati da TikTok per impedire l'accesso dei minori a contenuti inappropriati. Sarà valutato poi il rispetto degli obblighi della legge sui servizi digitali di mettere in atto misure adeguate e proporzionate per garantire un elevato livello di privacy, sicurezza e protezione per i minori. Particolare attenzione anche sull’obbligo di rendere accessibile, consultabile e affidabile un archivio per gli annunci pubblicitari presenti sul social, nonché aumentare la trasparenza della piattaforma.
leggi anche
New York fa causa a TikTok, Facebook e YouTube: “Danneggiano giovani"
TikTok: “Lavoriamo per la sicurezza dei giovani”
All’annuncio della Commissione ha fatto seguito la risposta di TikTok tramite un suo portavoce. "TikTok ha introdotto funzioni e impostazioni innovative per proteggere gli adolescenti e impedire ai minori di 13 anni di accedere alla piattaforma, una questione di cui si sta occupando l'intero settore”, hanno fatto sapere dall’azienda. “Continueremo a collaborare con esperti e player del settore per garantire la sicurezza dei giovani su TikTok e siamo lieti di avere ora l'opportunità di spiegare in dettaglio questo lavoro alla Commissione".