Guardian: bug di Facebook ha rivelato a terroristi identità moderatori

Tecnologia
L'identità di mille moderatori di Facebook sarebbe stata diffusa inavvertitamente a causa di un bug nel software (foto: Getty Images)

Poche ore dopo l'annuncio del social network di nuove misure contro i gruppi che diffondono messaggi legati all'Isis e ad Al Qaeda, la notizia di una falla che avrebbe messo a rischio l'identità di alcuni controllori

Facebook sfida al terrorismo ricorrendo all'Intelligenza artificiale e chiedendo l'aiuto degli utenti. Tuttavia, secondo quanto rivelato dal "Guardian", i dati personali dei moderatori del social network, a causa di un bug nel software, sarebbero stati esposti a utenti sospettati di terrorismo.

"Secondo la nostra inchiesta sono state visibili solo piccole frazioni di nomi e non abbiamo mai avuto prove di minacce a coloro che sono stati colpiti", si difende però la società di Mark Zuckerberg, spiegando di aver risolto il 'bug' scoperto a novembre del 2016.

 

 

Un bug e i possibili rischi per i moderatori

Secondo quanto riportato dal "Guardian", il bug nel software di moderazione sarebbe stato scoperto alla fine dello scorso anno. La falla nel sistema avrebbe coinvolto circa mille lavoratori di 22 dipartimenti diversi di Facebook, i cui dati personali sarebbero stati inavvertitamente divulgati.

In pratica, a causa dell’errore, i nomi dei moderatori sarebbero comparsi nel registro delle attività dei gruppi i cui amministratori erano stati rimossi per aver violato i termini di servizio di Facebook. Per questa ragione sono rimasti comunque a disposizione dei restanti possessori delle pagine incriminate.

Una buona fetta dei moderatori coinvolti, 40 persone, lavorava nella sede di Dublino, proprio all’interno dell’unità di lotta al terrorismo. Ed è probabile, secondo il quotidiano britannico, che sei di loro siano stati individuati da potenziali terroristi. Uno in particolare, un cittadino irlandese di origine irachena, si sarebbe deciso a lasciare l’Irlanda per cinque mesi. L’uomo, infatti, era intervenuto su una pagina che sosteneva Hamas e conteneva utenti vicini alle idee dell’Isis.

Sette membri di questo gruppo avrebbero visto il profilo del moderatore irlandese, costringendolo a lasciare Dublino perché rimanere sarebbe stato troppo pericoloso. COme detto, Facebook ha smentito che ci siano state minacce nei confronti dipropri dipendenti.

 

Facebook: abbiamo bisogna dell'aiuto degli utenti

Nelle ore precedenti allo scoop del Guardian, Facebook aveva  ribadito che "il terrorismo non avrà posto sul social network". "Abbiamo team che valutano le informazioni riferite a post che sostengono il terrorismo: cerchiamo di rimuovere questi ultimi il più velocemente possibile. Nei casi rari in cui ci accorgiamo che la minaccia è imminente, mettiamo a conoscenza di questa le forze dell'ordine". Per far questo, Zuckerberg chiede la collaborazione degli utenti. "E' un sistema questo, che confida sulla gente, e sulla sua disponibilità a dirci dei contenuti terroristici che vedono. Questa cosa funziona proporzionalmente alle informazioni che riceviamo".

 

 

 

Il ruolo dell'intelligenza artificiale

In particolare, attraverso una nota firmata da Monika Bickert, direttrice delle politiche di gestione globale, e Brian Fishman, direttore delle politiche antiterrorismo, Facebook ha lanciato la propria sfida al terrorismo anche grazie al ruolo che potrebbe avere l'intelligenza artificiale.

E indicato cinque punti principali. Il primo è il confronto delle immagini, utilizzando standard di sicurezza in grado di rimuovere automaticamente il contenuto quando qualcuno cerca di caricare la foto o il video di una persona identificata come terrorista. C'è poi la questione dei messaggi con contenuti terroristici: per evitare la loro diffusione, Facebook ha messo in campo software in grado di riconoscere i testi confrontandoli con quelli già ritenuti terroristici in precedenza. Si tratta, ad esempio, di preghiere o azioni di supporto a organizzazioni terroristiche, che l'Ia sarebbe in grado di riconoscere e bloccare.

Il contrasto ai gruppi che supportano il terrore

Il terzo strumento è quello della rimozione di gruppi volti all'apologia del terrorismo. “Abbiamo imparato da studi sui terroristi – si legge nel documento – che questi tendono a radicalizzarsi e ad operare in gruppo. Un trend offline che si riflette anche in rete”. La soluzione è quella di un'identificazione delle pagine, gruppi, post o profili di supporto al terrorismo e l'uso di un algoritmo per disabilitare l'account che li ha prodotti. Quarto strumento consente, tra l'altro, di individuare i soggetti recidivi: coloro che sono già stati segnalati per offese ripetute e che l'Ia provvederà a rimuovere definitivamente dal sistema.

Infine, Facebook ha messo a punto una piattaforma di collaborazione fra le varie app di Facebook, tra cui WhatsApp e Instagram, che allarghi il raggio di azione e di segnalazione contro gli utenti che diffondono messaggi non consoni allo spirito del social network. L'ultima precisazione di Bickert e Fishman è quella sulla necessità che l'azione dell'Ia sia affiancata da una collaborazione fra gli utenti per una più completa segnalazione dei casi sospetti.

 

Tecnologia: I più letti