YouTube e video estremi: l’algoritmo migliora, ma non su tutti i temi

Tecnologia

Nicola Bruno

youtube_getty

Secondo un nuovo studio dell’Università di Berkeley, diminuisce il numero di video controversi consigliati su argomenti come l’11 Settembre o il “terrapiattismo”. Ma restano ancora problemi sui cambiamenti climatici e la politica

Fino a poco tempo fa su YouTube la facevano da padrone le teorie del complotto sugli attentati dell’11 settembre e la “terra piatta”. Negli ultimi mesi qualcosa è cambiato in meglio, come dimostra un nuovo studio condotto da ricercatori dell’Università di Berkeley che hanno analizzato 8 milioni di video raccomandati dagli algoritmi di YouTube in un periodo di più di 15 mesi.

YouTube è stata particolarmente efficace nel ridurre il numero di video controversi suggeriti su temi come il “terrapiattismo” o gli attentati dell’11 settembre, grazie a una serie di misure annunciate lo scorso gennaio 2019.

Ma, secondo i ricercatori di Berkeley gli stessi risultati non sono ancora visibili su altri temi al centro del dibattito pubblico, come la crisi climatica, su cui continuano ad essere spinti molti contenuti disinformativi e teorie del complotto. Lo stesso vale per le notizie infondate su personalità politiche come Donald Trump o del mondo business come Elon Musk.

40% di video controversi suggeriti dall’algoritmo

Lo studio dell’Università di Berkeley è uno dei più estesi mai realizzati sul tema dei video consigliati da YouTube. Alla ricerca ha collaborato anche Guillaume Chaslot, ex dipendente di Google che con il progetto AlgoTransparency è diventato una delle voci più critiche di YouTube. Il team di ricerca ha selezionato i video raccomandati sui 1000 canali più popolari su YouTube a carattere informativo. È stato poi creato un algoritmo per identificare in maniera automatica se un video suggerito potesse essere categorizzato come complottistico oppure no, su una scala da 0 a 1 in base alla descrizione, i commenti e la trascrizione del parlato. I risultati dimostrano una forte diminuzione dei video controversi raccomandati dall’algoritmo, diminuiti di circa il 40% rispetto a un anno fa.

I nodi da risolvere

Secondo i ricercatori resta, però, problematica la scelta di intervenire solo su alcuni argomenti (11 settembre, terrapiattismo) e non su altri (cambiamenti climatici e complotti vari). “Se hai la capacità di ridurre quasi a zero alcuni contenuti, potresti fare lo stesso anche su altri temi. Google dice di non potere, ma in realtà non vuole”, ha raccontato al New York Times Hany Farid, docente all’Università di California, Berkeley e autore dello studio.

L’algoritmo radicale

Negli ultimi anni diverse inchieste - tra cui anche una condotta da SkyTG24 - hanno evidenziato il potere “radicalizzante” degli algoritmi di YouTube che, pur di aumentare il tempo speso dagli utenti sulla propria piattaforma, in alcuni casi hanno fatto da megafono a contenuti sempre più estremi e imbarazzanti. 

Secondo i dati di Google, il 70% del tempo speso su YouTube è dovuto alla visione dei video suggeriti dagli algoritmi nella sezione “Prossimi video”. Il problema, però, è che molti di questi suggerimenti proponevano contenuti disinformati e teorie del complotto. Ad esempio, in seguito al crollo del Ponte Morandi, YouTube suggeriva con maggiore frequenza video secondo cui non si sarebbe trattato di un cedimento strutturale, ma di una esplosione indotta dall’uomo. O ancora, su ricerca a tema salute, spingeva in particolare modo video no-vax o con dubbie terapie naturali per combattere il cancro. 

Nei giorni scorsi, gli algoritmi di YouTube sono finiti sotto accusa nel Regno Unito in seguito alla pubblicazione del report State of Hate 2020. Quando Yvette Cooper, esponente dei Labour a capo della commissione Affari interni ha fatto una ricerca su YouTube con il nome di uno dei gruppi di estrema destra citati nel report, gli algoritmi di YouTube le hanno automaticamente suggerito altri video neo-nazi. “YouTube è diventata un’arma di radicalizzazione”, ha denunciato l’esponente politica. 

La posizione di Youtube

Dopo le tante inchieste sul tema, a gennaio 2019 YouTube ha pubblicamente riconosciuto di avere un problema sui video suggeriti dal proprio algoritmo e di voler mettere in campo una serie di azioni. A giugno 2019 sono arrivati i primi dati incoraggiati: il tempo speso su contenuti “borderline” è sceso a Maggio 2019 del 70%, poi a Giugno 2019 del 50%.

“Nell’ultimo anno abbiamo lanciato 30 diversi cambiamenti per ridurre le raccomandazioni di contenuti borderline o informazioni pericolose”. Oltre a migliorare il proprio algoritmo di raccomandazione, su alcuni video controversi YouTube ha anche introdotto un box con informazioni riprese da Wikipedia.

Tecnologia: I più letti