Così YouTube seduce il pubblico con video estremi. Le inchieste in Germania e Stati Uniti

Mondo

Nicola Bruno

IL CODICE YOUTUBE - Stati Uniti, Regno Unito e India: ecco tutte le volte che gli algoritmi del social sono stati criticati: dalla politica all’intrattenimento, ai contenuti scientifici e a quelli rivolti ai bambini

Razzismo, complotti, falsa scienza, estremismo politico. Negli ultimi mesi diverse inchieste giornalistiche e ricerche accademiche hanno puntato il dito contro YouTube. Dal Regno Unito alla Germania, passando per gli Stati Uniti e l’Italia (l'inchiesta di SkyTG24), molti osservatori hanno evidenziato come gli algoritmi di Google suggeriscono contenuti poco affidabili e controversi, pur di tenere il più possibile gli utenti “attaccati” al sito.
Il tutto proprio mentre cresce la popolarità di YouTube in tutto il mondo: secondo una recente indagine del Pew Research Center, YouTube si sta affermando come una delle principali fonti di informazione per i giovani.

“Il grande radicalizzatore”

Una delle accuse più forti è arrivata dalle colonne del New York Times a firma della studiosa Zeynep Tufekci che ha definito YouTube “il grande radicalizzatore” dei nostri tempi. Tufekci è partita dalla campagna per le presidenziali del 2016, quando in associazione ai video di Trump, YouTube suggeriva spesso contenuti dei “suprematisti” bianchi o dei negazionisti dell’Olocausto. La studiosa ha utilizzato una efficace metafora per descrivere questo meccanismo: “YouTube ha creato un ristorante che serve cibo pieno di zuccheri e grassi, riempiendo subito i nostri piatti appena finiamo un pasto. Con il passare del tempo, i nostri gusti si adattano e andiamo alla ricerca di cibi con sempre più zuccheri e grassi, che il ristorante ci fornisce diligentemente. Quando viene accusato dagli esperti di salute o dai cittadini preoccupati, i responsabili del ristorante rispondono che loro servono solo quello che la gente vuole”.

Le elezioni Usa 2016: "YouTube ha distorto la realtà"

Una lunga inchiesta del Guardian, realizzata con il supporto di Guillaume Chaslot e del software YouTube Explore, ha analizzato un database di 8.000 video relativi alla campagna per le presidenziali Usa del 2016, facendo emergere come YouTube abbia "distorto la realtà", spingendo gli utenti a guardare contenuti estremisti e complottisti, quasi sempre in direzione anti-Clinton. Secondo i dati elaborati dai reporter del Guardian, questo sbilanciamento è stato considerevole: i video raccomandati pro-Trump erano 6 volte più presenti rispetto a quelli pro-Clinton.

Inchiesta The Guardian su YouTube

I complotti sulle sparatorie

Non solo politica. YouTube è finito sotto accusa in diversi casi di cronaca recente. In occasione del massacro al Mandalay Bay Hotel di Las Vegas del 2017, YouTube ha dato molta visibilità a video complottistici, secondo cui la sparatoria era stata tutta una messa in scena, creata per promuovere la campagna contro l’uso delle armi. Lo stesso si è ripetuto in seguito alla strage di Parkland, quando uno dei video più popolari nella sezione Trending di YouTube prendeva di mira un sopravvissuto, presentandolo come un finto “attore”: il filmato ha raccolto oltre 200.000 visualizzazioni prima di essere rimosso da Google.

Razzismo in Germania

La tendenza di YouTube a suggerire video estremi emerge anche nelle versioni in lingua diverse dall’inglese. All’indomani delle manifestazioni della scorsa estate a Chemnitz, nella Germania del Nord, YouTube ha dato ampia visibilità a informazioni false anti-immigrati, di chiara provenienza di estrema destra. Analizzando i video maggiormente suggeriti da YouTube, il ricercatore Ray Serrato ha poi ricostruito l’esistenza di un network di contenuti di estrema destra, in molti casi fortemente razzisti.
Un lungo studio del Data&Society Institute ha portato allo scoperto l’esistenza di un “network alternativo” su YouTube negli Stati Uniti che spinge in maniera evidente su posizioni dei “suprematisti bianchi”.

False notizie su celebrità in India

L’alta reattività in occasione di eventi di attualità è una delle chiavi di successo per generare molte visualizzazioni su YouTube. Con risultati che possono essere a dir poco controversi, come si è visto in occasione della scomparsa dell’attrice di Bollywood Sridevi, quando i primi 10 video suggeriti da YouTube nella sezione “trending” contenevano tutti false informazioni sulla vita della personalità.

Screenshot YouTube India morte Sridevi

Falsa scienza

Come visto nella nostra inchiesta con i vaccini, YouTube è anche una cassa di risonanza di contenuti anti-scientifici. Ad esempio, cercando “is the earth flat or round”, il 90% dei risultati sono a favore delle teorie secondo cui la terra è piatta. “L’intelligenza artificiale di YouTube è ottimizzata per massimizzare il tempo speso online e i click - spiega Guillaume Chaslot di AlgoTransparency - La combinazione di questi due fattori viene definita engagement. Se i contenuti “la terra è piatta” fanno spendere più tempo su YouTube rispetto a quelli “la terra è rotonda”, l’intelligenza artificiale di YouTube spingerà maggiormente i primi contenuti rispetto ai secondi”.

“Contenuti spazzatura” per i bambini

Molte inchieste, poi, hanno messo in luce i limiti di YouTube sui contenuti per bambini, sia nel sito normale che in quello dedicato (YouTube Kids). Il ricercatore inglese James Bridle ha passato in rassegna diversi canali da milioni di visualizzazioni che sono specializzati in contenuti fatti apposta per tenere incollati i bambini il più a lungo su YouTube: il genere più noto è quello delle “surprise eggs”, uova da aprire lentamente per poi condividere la sorpresa trovata, ma ci sono decine di variazioni con contenuti bizzarri e di scarsa qualità.

Un riscontro simile l’ha avuto anche il New York Times, analizzando i contenuti suggeriti nell’app specifica YouTube Kids: anche qui si trovano video “inquietanti” con personaggi molto noti, come Peppa Pig che ingerisce la candeggina, Mickey Mouse in un lago di sangue dopo un incidente o uno dei Paw Patrol che muore. A marzo 2018, una lunga inchiesta di Wired Uk ha sottolineato l’esistenza di video con contenuti violenti e poco adatti ai minori.

Screenshot di un video controverso destinato ai bambini poi rimosso da YouTube

Isis e terrorismo: la risposta di Google

YouTube è stata a lungo sfruttata dall’Isis per diffondere contenuti violenti indirizzati ai giovani occidentali, anche in Italia. Negli ultimi mesi, però, le cose sono cambiate: come rivelato da una recente indagine, nel 2018 è decisamente diminuito il numero di contenuti relativi all’Isis o al-Qaeda su YouTube. Questo declino è stato possibile anche grazie alla strategia messa a punto da Google che prevede non soltanto una maggiore moderazione dei contenuti, ma anche l’utilizzo di tecniche mirate. Ad esempio, se un utente comincia a vedere molti contenuti relativi a Isis, nelle pubblicità troverà suggerimenti di messaggi che li mettono in dubbio. Insomma un approccio intelligente, che dimostra che quando Google vuole, riesce a trovare una soluzione ai problemi dei propri servizi.

Mondo: I più letti

Arriva sempre primo

Ricevi le notizie più importanti di politica, mondo, cronaca, spettacolo, le analisi e gli aggiornamenti. Per accettare le notifiche devi dare il consenso.

Hai attivato le notifiche di sky tg24