L’organizzazione ha analizzato i tweet rivolti nel 2017 a 778 politiche e giornaliste britanniche e Usa: 1 su 14, in totale 1,1 milioni, pubblicati a un ritmo di 1 ogni 30 secondi, sono “problematici” o apertamente "offensivi"
Amnesty International torna a occuparsi del tema delle molestie alle donne su Twitter. In un nuovo studio, l’organizzazione ha analizzato - grazie all'intelligenza artificiale di Element AI - i tweet rivolti nel 2017 a 778 politiche e giornaliste britanniche e statunitensi. Il risultato è che il 7,1 per cento dei messaggi è stato etichettato come “problematico” o apertamente "offensivo". E se la percentuale non fosse abbastanza chiara per spiegare il fenomeno, ecco altri numeri: i tweet sotto accusa sono 1 su 14, in totale 1,1 milioni di post, pubblicati a un ritmo di uno ogni 30 secondi. Una pioggia di insulti che, spiega Amnesty, condiziona la presenza social delle interessate, che tendono a limitare le interazione o abbandonare la piattaforma. “In un momento decisivo, in cui le donne di tutto il mondo si stanno unendo per amplificare la loro voce attraverso i social media, l'incapacità di Twitter di applicare coerentemente e in modo trasparente i propri standard per combattere la violenza e gli abusi” spinge le utenti “verso una cultura del silenzio”, attacca l’organizzazione.
Lo studio: 1,1 milioni di tweet problematici o offensivi
Secondo Amnesty, lo studio è il più ampio mai realizzato sui social-abusi nei confronti delle donne. Ha coinvolto membri del Parlamento britannico e del Congresso degli Stati Uniti e giornaliste di testate come Daily Mail, New York Times, Guardian e Sun. Sono stati definiti “problematici” i tweet con “contenuti offensivi o ostili, specialmente se ripetuti in più occasioni, che però non potevano essere definiti chiaramente ‘abuso’”. I post “offensivi”, invece, sono quelli che “violano le regole di Twitter, inclusi contenuti che promuovono violenze o minacce personali sulla base di razza, etnia, origine nazionale, orientamento sessuale, genere, identità di genere, religione, età, disabilità o malattia grave”. Un sottoinsieme dei tweet etichettati è stato elaborato, utilizzando il software di apprendimento automatico di Element AI, per estrapolare l'analisi di 14,5 milioni di tweet che menzionavano le 778 donne durante il 2017. L'estrapolazione dell'elemento AI ha svelato che il 7,1 per cento dei tweet inviati alle donne era problematico o offensivo, pari a 1,1 milioni di messaggi nel 2017.
Donne di colore le più colpite
Amnesty fa notare che il fenomeno potrebbe essere ancora più ampio. I tweet riferiti al 2017, infatti, sono stati raccolti da marzo 2018 e quindi alcuni, nel frattempo, potrebbero essere stati cancellati o spariti perché creati da account disattivati. “Inoltre abbiamo scoperto che, sebbene l'abuso sia rivolto alle donne di tutto lo spettro politico, quelle di colore hanno maggiori probabilità di essere colpite. Se Twitter non è capace di reprimere questo problema, significa che contribuisce a silenziare voci già emarginate”, si legge nel rapporto.
La difesa di Twitter
Non è la prima volta che Amnesty si scaglia contro Twitter. In un rapporto di inizio 2018, ad esempio, l’aveva definito un ambiente “tossico” per le donne. Twitter ora ha risposto ribadendo il suo impegno per evitare conversazione che inquinino il social network, non solo per la protezione degli utenti ma anche per la sopravvivenza della piattaforma stessa. La società ha sottolineato l'uso di “una combinazione di machine learning e revisione umana per giudicare le segnalazioni di abusi” e “l'importanza del contesto” per arrivare a una valutazione accurata. Ha anche aggiunto che servirebbe una definizione più precisa di "problematico", per evitare che contorni troppo sfumati finiscano con il ledere "la libertà di espressione".