Facebook, media: possibile caso simile a Cambridge Analytica
CronacaSecondo il settimanale New Scientist, si sarebbe verificata un'altra fuga di dati, che coinvolgerebbe tre milioni di utenti. Intanto la società di Zuckerberg ha annunciato che nei primi tre mesi del 2018 sono stati disattivati 583 milioni di account falsi
Facebook starebbe indagando su una 'fuga' di dati simile a quella svelata dal caso Cambridge Analytica. Lo sostiene un'inchiesta del settimanale New Scientist: la mole di informazioni sarebbe significativa, anche se inferiore al precedente scandalo. In questo caso si tratterebbe di tre milioni di utenti coinvolti: a differenza del caso di Cambridge Analytica, tuttavia, i creatori dell'app in questione non avebbero condiviso volontariamente con terze parti le informazioni.
L'app è tra le oltre duecento sospese da Facebook nelle scorse settimane.
La società di Mark Zuckerberg ha intanto annunciato che nel primo trimestre del 2018 sono stati disattivati dal social network 583 milioni di account falsi. Rimossi anche 1,9 milioni di contenuti legati alla propaganda terroristica dell'Isis e di gruppi affiliati.
La nuova app in questione
Protagonista dell'inchiesta del New Scientist è ancora una volta un'applicazione utilizzata con scopi di ricerca dall’università di Cambridge. La porta d’accesso ai dati sarebbe in questo caso "myPersonality", che Facebook aveva già provveduto a sospendere lo scorso 7 aprile. Secondo la ricostruzione di New Scientist, l'app funzionava allo stesso modo di "thisisyourdigitallife", da cui la società Cambridge Analytica aveva ottenuto i dati personali di oltre 50 milioni di utenti per creare profili psicologici da usare in campagne di marketing. Anche "myPersonality" poneva agli utenti una serie di domande, incluse alcune intime. I ricercatori responsabili del progetto, David Stillwell e Michal Kosinski, raccoglievano i dati e li rendevano anonimi, per poi metterli a disposizione della comunità scientifica e di alcune imprese. Sei milioni di utenti avrebbero compilato il test e circa la metà avrebbe accettato di condividere i contenuti del proprio profilo.
Un sistema di protezione dei dati non sufficiente
A differenza dello scandalo Cambridge Analytica, in realtà, Stillwell e Kosinski non avrebbero condiviso volontariamente le informazioni con enti terzi. Anzi, nel 2013 avrebbero detto no proprio a un interessamento della società fondata da Robert Mercer. Il problema starebbe però in un sistema di protezione dei dati tutt'altro che blindato. Alle informazioni raccolte hanno avuto accesso 280 persone e 150 istituzioni, tra accademici e aziende registrate (tra le quali Facebook, Google, Microsoft e Yahoo). Ma si sospetta che la lista sia molto più lunga. Perché le credenziali di uno degli account autorizzati (con nome e password di accesso) sono state condivise sulla piattaforma GitHub, un servizio utilizzato dagli sviluppatori di software. Chiunque, in teoria, avrebbe potuto utilizzarle.
Ritorna Aleksandr Kogan
Esisterebbe poi un legame con Aleksandr Kogan, il ricercatore dell'università di Cambridge che realizzò l'applicazione "thisisyourdigitallife": compare fino al 2014 come un collaboratore del progetto "MyPersonality". Facebook avrebbe confermato a Business Insider l'apertura di un'indagine interna. Se "MyPersonality" non collaborerà, sarà definitivamente esclusa dal social. La società di Menlo Park prova così a prevenire una nuova ondata di accuse, dopo essere stata ritenuta responsabile, seppur non attivamente, della massiccia raccolta di dati effettuata da Cambridge Analytica.
La stretta sui profili falsi
Nel frattempo Facebook ha pubblicato il primo rapporto sull'applicazione degli Standard della comunità. Sono 583 milioni gli account falsi disattivati nel primo trimestre di quest'anno: la maggior parte sono stati bloccati entro pochi minuti dalla loro creazione. Rimossi 837 milioni di contenuti di spam: tra questi 21 milioni erano contenuti di nudo di adulti o pornografici. L'applicazione degli Standard copre sei aree: violenza esplicita, nudo, atti sessuali, propaganda terroristica, incitamento all'odio, spam e account falsi. L'azienda ha dichiarato che c'è comunque ancora "molto lavoro da fare per prevenire gli abusi" anche perché "l'intelligenza artificiale, pur essendo una tecnologia promettente, è ancora molto lontana dall'essere efficace per molti contenuti”. Per questo è stata confermata la volontà di portare a 20 mila il numero di revisori umani e ingegneri entro la fine dell'anno.