Social Network e minori, Ue: “Sistemi controllo per età Facebook e Instagram inefficaci"
TecnologiaSecondo i dati sono circa il 10-12% i bambini sotto i 13 anni accede a Instagram e/o Facebook. "Non concordiamo con Ue - fa sapere Meta con una nota -. Verifiche età su Facebook e Instagram funzionano. Continuiamo a investire in tecnologie per individuare e rimuovere gli utenti che non raggiungono l'età minima richiesta e la prossima settimana condivideremo ulteriori informazioni su nuovi strumenti in fase di implementazione"
La Commissione europea ha accertato in via preliminare che Instagram e Facebook, di proprietà di Meta, hanno violato la legge sui servizi digitali (Dsa) per non aver identificato, valutato e mitigato con la dovuta diligenza i rischi legati all'accesso ai servizi da parte di minori di età inferiore ai 13 anni. Nonostante Meta fissi a 13 anni il limite minimo di accesso ai due social, le misure per far rispettare tale restrizione risultano inefficaci, secondo l'esecutivo Ue. Se confermate, le violazioni potrebbero portare a sanzioni fino a un massimo del 6% del fatturato annuo. "Non concordiamo con questi risultati preliminari - dichiara un portavoce Meta -. Siamo chiari sul fatto che Instagram e Facebook sono destinati a persone di età pari o superiore a 13 anni e disponiamo di misure per rilevare e rimuovere gli account di chiunque sia al di sotto di tale età. Continuiamo a investire in tecnologie per individuare e rimuovere gli utenti che non raggiungono l'età minima richiesta e la prossima settimana condivideremo ulteriori informazioni su nuovi strumenti in fase di implementazione".
L'indagine
L'indagine ha evidenziato che i minori possono facilmente eludere i blocchi inserendo date di nascita false al momento della registrazione, senza che vi siano controlli efficaci per verificare la correttezza della data di nascita autodichiarata. Criticità sono emerse anche per gli strumenti di segnalazione. Il modulo per indicare la presenza di under 13 è considerato "difficile da usare", richiedendo fino a sette clic per l'accesso, e spesso non porta a un follow-up adeguato, permettendo ai minori segnalati di continuare a utilizzare il servizio. Inoltre, Meta "sembra aver ignorato le prove scientifiche, facilmente disponibili, che indicano che i bambini più piccoli sono più vulnerabili ai potenziali danni causati da servizi come Facebook e Instagram".
Valutazione rischio "incompleta e arbitraria"
La Commissione contesta a Meta una valutazione del rischio "incompleta e arbitraria", che ignorerebbe dati secondo cui circa il 10-12% dei minori di 13 anni nell'Unione accede a Instagram o Facebook. Bruxelles chiede ora a Meta di modificare le metodologie di valutazione e rafforzare le misure per prevenire, individuare ed escludere i minori di età inferiore ai 13 anni dal loro servizio, garantendo elevati standard di privacy e sicurezza. Meta ha ora la possibilità di esaminare i fascicoli e rispondere per iscritto. L'indagine, avviata dalla Commissione nel 16 maggio 2024, prosegue inoltre su altri fronti, inclusi i rischi di dipendenza legati al design delle interfacce e i cosiddetti effetti "rabbit hole".
Vedi anche
Divieto social a minori, von der Leyen: “Pronta app per verifica età"
"Azioni concrete per proteggere i minori"
"Le stesse condizioni generali di Meta indicano che i loro servizi non sono destinati a minori di età inferiore ai 13 anni - ha dichiarato la vice presidente della Commissione Ue per la sovranità tecnologica Henna Virkkunen a commento delle conclusioni preliminari. -. Tuttavia, i nostri risultati preliminari mostrano che Instagram e Facebook stanno facendo ben poco per impedire ai bambini al di sotto di questa età di accedere ai loro servizi. Il Dsa richiede alle piattaforme di far rispettare le proprie regole: i termini e le condizioni non dovrebbero essere semplici dichiarazioni scritte, ma piuttosto la base per un'azione concreta volta a proteggere gli utenti, compresi i bambini".
Vedi anche
Social e minori: l’Europa sceglie di non scegliere sull’età minima
Cosa può fare Meta?
Nell'esercizio del diritto di difesa, Instagram e Facebook hanno ora la possibilità di esaminare i documenti contenuti nei fascicoli d'indagine della Commissione e di rispondere per iscritto alle conclusioni preliminari. Le piattaforme possono adottare misure per porre rimedio alle violazioni, in linea con le linee guida del Dsa del 2025 sulla protezione dei minori. Parallelamente, verrà consultato il Comitato europeo per i servizi digitali (Ebsd). Se le conclusioni della Commissione verranno confermate, verrà emessa una decisione di non conformità, che può comportare l'applicazione di una sanzione pecuniaria proporzionata all'infrazione, che non potrà superare il 6% del fatturato annuo globale del fornitore. La Commissione può anche imporre il pagamento di sanzioni periodiche per obbligare la piattaforma a conformarsi.
Vedi anche
Quando i tuoi figli chattano con l'Ai di cosa parlano? Te lo dice Meta
App Ue disponibile entro fine 2026
In questo contesto, la Commissione ha adottato una raccomandazione con cui esorta gli Stati membri ad accelerare l'introduzione dell'app dell'Ue per la verifica dell'età e a renderla disponibile entro la fine dell'anno. Sicura, protetta e rispettosa della privacy, rappresenta un passo fondamentale per proteggere i minori dai contenuti online dannosi e inappropriati. Gli Stati membri possono implementare la verifica dell'età dell'Ue come app autonoma o integrarla nel portafoglio digitale europeo. La raccomandazione specifica inoltre le azioni che gli Stati membri dovrebbero intraprendere per garantire la rapida disponibilità e l'interoperabilità della soluzione di verifica dell'età dell'Ue. "Una verifica dell'età efficace e rispettosa della privacy è il prossimo tassello del puzzle che stiamo per completare, mentre lavoriamo per creare uno spazio online in cui i nostri bambini siano al sicuro e abbiano la possibilità di utilizzarlo in modo positivo e responsabile senza limitare i diritti degli adulti" ha dichiarato la vice presidente della Commissione Ue, Henna Virkkunen.