La moderazione non sarà più effettuata da persone in carne ed ossa ma in forma automatica: si tratta di una novità per il social network. I team umani si focalizzeranno su contenuti più pericolosi
Importante cambio di politica in casa Twitter: con l'obiettivo dichiarato di ridurre al minimo i contenuti offensivi all'interno della piattaforma, il sito di microblogging fa sapere che sanzionerà automaticamente alcuni profili, senza passare attraverso un moderatore in carne e ossa.
Un algoritmo per scovare i molestatori – L'annuncio è stato dato mercoledì 1° marzo. Fino ad oggi, la moderazione dei contenuti del social network era stata sempre effettuata “a mano”, cosa che poteva spiegare anche alcune lentezze del passato. Ora invece un algoritmo si occuperà di scandagliare i contenuti dei tweet scovando in automatico gli utenti più problematici, senza il bisogno che siano per forza segnalati da alti internauti.
<blockquote class="twitter-tweet" data-lang="it"><p lang="en" dir="ltr">Our Latest Update on Safety <a href="https://t.co/tIPi0Gkwn2">https://t.co/tIPi0Gkwn2</a></p>— Twitter Safety (@TwitterSafety) <a href="https://twitter.com/TwitterSafety/status/836939202382069761">1 marzo 2017</a></blockquote>
<script async src="//platform.twitter.com/widgets.js" charset="utf-8"></script>
Come funziona l'algoritmo? – Il programma si basa su diversi criteri, in parte sconosciuti, tra i quali ovviamente il genere di parole utilizzate o, ad esempio, i comportamenti tipici del molestatore, come ad esempio “menzionare a più riprese altre persone senza alcuna sollecitazione da parte loro”. Se l'utente sarà etichettato come l'autore di un abuso sarà sanzionato. E la visibilità dei suoi cinguettii verrà limitata per un periodo di tempo non meglio specificato: non appariranno più tra i risultati delle ricerche e neppure tra le notifiche degli altri utenti con cui vorrebbe interagire, né sarà possibile ritweettarli.
L'ultima parola agli esseri umani – Una sanzione all'apparenza leggera, anche se Twitter lascia l'ultima parola ai suoi team di moderatori, che possono anche decidere di sospendere il molestatore in questione. Team che continueranno a esaminare sì i contenuti segnalati dagli altri utenti, ma che grazie all'aiuto dell'algoritmo – questa è la speranza in casa Twitter – potranno concentrarsi sui casi più gravi come le minacce di morte e altri contenuti violenti come l'apologia di terrorismo.
Novità in arrivo – Poche settimane fa Twitter aveva già introdotto modifiche in questo senso, e nei prossimi giorni arriveranno altre novità, tra cui nuove opzioni di filtro alle notifiche e aggiornamenti alla funzionalità "Mute", per mettere a tacere determinate parole chiave o intere conversazioni.
L'errore è dietro l'angolo – Un sistema come quello basato sull'algoritmo, però, rischia di non essere infallibile e di sanzionare utenti che in realtà non hanno fatto nulla. O peggio, rischia di introdurre un nuovo tipo di censura. Questo lo sa anche Twitter, che chiosa: “Poiché questi strumenti sono nuovi, a volte faremo degli errori. Ma sappiate che stiamo lavorando attivamente per migliorare, giorno dopo giorno".