Facebook, le regole su cosa far vedere agli utenti su sesso e violenza

3' di lettura

Il Guardian ha svelato per la prima volta le linee guida con cui il social network spiega ai moderatori come agire di fronte ad alcuni tipi di contenuti come quelli pornografici o inneggianti al terrorismo. Ma una fonte spiega: “Non sono in grado di controllare tutto”

Il quotidiano britannico "The Guardian" ha rivelato per la prima volta le regole e le linee guida segrete di Facebook. Dopo una lunga inchiesta il giornale è entrato in possesso di un centinaio di manuali (ribattezzati “Facebook Files”) con le regole da rispettare e su come moderare argomenti come violenza, razzismo, terrorismo, odio e pornografia. Una fonte del quotidiano sostiene che "Facebook non è in grado di controllare i suoi contenuti, è cresciuto troppo in fretta, raggiungendo dimensioni enormi". Difficile per esempio reagire in casi come il cosiddetto "revenge porn" (la diffusione online per vendetta di immagini intime e personali per danneggiare l'ex partner): in molte situazioni occorre decidere se l'immagine è appropriata in meno di 10 secondi, vista la mole di lavoro per i moderatori.

Il lungo elenco di regole

I documenti svelati rappresentano un lungo elenco di regole a uso interno per i moderatori del social. Viene spiegato ai dipendenti come comportarsi di fronte a contenuti violenti, sessuali, pornografici, inneggianti al terrorismo o a contenuti fake. Le linee guida indicano cosa è suscettibile di segnalazione, cosa può rimanere e cosa va rimosso. Le regole sono state introdotte circa un anno fa dopo le polemiche innescate dalla rimozione della famosa foto della bambina vietnamita in fuga da un bombardamento con napalm, in quanto nuda e minorenne.

Le linee guida per i moderatori

I criteri emersi dall’inchiesta del Guardian mostrano quanto la scelta possa essere arbitraria. Gli abusi sui minori se non sono di tipo sessuale (ad esempio un atto di bullismo) vanno eliminati solo se costituiscono esaltazione della violenza o sadismo. I video che mostrano morti violente non devono essere rimossi in tutti i casi, ma solo in alcuni. Basta segnalarli come urtanti, perché potenzialmente potrebbero addirittura essere utili per un’indagine, una ricerca scientifica o per creare una coscienza collettiva (come nel caso di crimini di guerra). Indulgenza anche in alcuni casi di foto di abusi su animali. Le immagini degli aborti invece possono essere pubblicate a patto che non contengano nudità. Infine chi ha più di centomila follower ha una protezione diversa degli altri in quanto "figura pubblica”: una minaccia a Donald Trump ad esempio è da cancellare subito.

Facebook non commenta

Facebook non ha rilasciato specifici commenti sul report del Guardian. “Tenere al sicuro le persone è la cosa più importante che facciamo”, ha detto il capo del Global Policy Management della società. “Stiamo lavorando duramente per rendere Facebook più sicura possibile, permettendo la libertà di parola”. In questo senso, un esempio controverso riportato dal Guardian è la politica per cui Facebook permette alle persone in live-streaming di parlare di argomenti autodistruttivi perché “non può censurare o punire gli stati di angoscia”.

Leggi tutto