Digital service act, arriva in tutta l’Ue la stretta sul web per tutelare i minori
Da sabato 17 febbraio sarà in vigore in tutta l’Unione europea il regolamento che contiene norme più stringenti per le piattaforme, con l’intento di proteggere tutti gli utenti e in particolare i più giovani. Per questi ultimi il Dsa impone di "garantire un elevato livello di privacy, sicurezza e incolumità" introducendo strumenti come la verifica dell'età e il controllo parentale e vieta qualsiasi tipo di pubblicità mirata nei confronti dei bambini
- Privacy, sicurezza, controllo dell’età e parentale. Da sabato 17 febbraio sarà in vigore in tutta l’Unione europea il Digital service act, il regolamento approvato nel 2022 che contiene norme più stringenti per le piattaforme del web - dai motori di ricerca ai social -, alcune dedicate in modo specifico alla tutela dei minori
- A oggi le regole europee per la privacy stabiliscono che per utilizzare un servizio online è necessario esprimere il consenso al trattamento dei dati, sulla base del Gdpr. In Italia il limite minimo invalicabile d’età per poterlo fare è 13 anni, per i più giovani serve l’autorizzazione dei genitori ed è responsabilità della piattaforma verificare che questo avvenga
- Il Digital Service Act stabilisce che le piattaforme web debbano "garantire un elevato livello di privacy, sicurezza e incolumità dei minori", introducendo strumenti come la verifica dell'età e il controllo parentale o "volti ad aiutare i minori a segnalare abusi o ottenere sostegno". Viene inoltre vietato qualsiasi tipo di pubblicità mirata nei confronti dei bambini
- Inoltre, dice il Digital Service Act, "se un servizio intermediario è principalmente destinato a minori o è utilizzato in prevalenza da questi, il prestatore di tale servizio intermediario spiega in modo comprensibile per i minori le condizioni e le restrizioni che si applicano all’utilizzo del servizio"
- Più in generale, con lo sguardo rivolto a tutti gli utenti, il Dsa stabilisce che la moderazione deve essere più affidabile per contrastare i contenuti illegali, i bot e le fake news
- Previsti sistemi di 'notifica e risposta' per la rimozione diretta dei contenuti illegali o nocivi, la responsabilità legale nei confronti degli utenti sarà a capo delle piattaforme
- Basta termini e condizioni lunghi e oscuri: le indicazioni di utilizzo devono essere semplici e concise in tutte le lingue dei Ventisette. Anche l'uso degli algoritmi deve essere più trasparente: le piattaforme devono etichettare chiaramente gli annunci pubblicitari
- Gli utenti devono avere la possibilità di rinunciare alla profilazione ed è vietato qualsiasi tipo di pubblicità basata su dati sensibili come l'origine razziale o etnica, l'orientamento sessuale o le opinioni politiche
- Le piattaforme sono chiamate a presentare piani annuali di valutazione del rischio per affrontare qualsiasi minaccia che possono rappresentare per la società, compresa la salute pubblica, e quella fisica e mentale anche dei minori. Vale anche per l'uso di servizi di intelligenza artificiale come ChatGpt
- Chi non rispetta le regole rischia di incappare in multe fino al 6% del suo giro d'affari annuo e, in caso di recidiva, nel divieto di operare sul suolo europeo