I dati del rapporto trimestrale sulla trasparenza di Google si riferiscono a luglio-settembre. 1,6 mln i canali chiusi per illeciti o violazione delle regole. Cancellati anche 224 mln di commenti per violazione delle norme. 3 filmati su 4 erano spam o truffe
YouTube ha rimosso 58 milioni di video contrari alla regole della piattaforma tra luglio e settembre del 2018. Per la maggior parte si tratta di "spam e contenuti ingannevoli" individuati da sistemi di controllo automatico, cioè dall'intelligenza artificiale. La maggior parte dei contenuti oscurati (50,2 milioni di video) deriva dalla chiusura di 1,6 milioni di canali YouTube, dovuta a gravi illeciti o a violazione ripetuta delle regole. Una volta bloccati dalla piattaforma, tutti i video di un canale vengono esclusi (senza distinzione caso per caso). A questi si aggiungono 7,85 milioni di contenuti singoli e 224 milioni di commenti per violazione delle norme. I dati sono contenuti nel rapporto trimestrale sulla trasparenza di Google.
I motivi delle rimozioni
Per quanto riguarda i canali chiusi, per l'80% si trattava di canali dediti a spam, contenuti ingannevoli o truffe. Per il 12,6% l’oscuramento è dovuto a "nudità o contenuti di natura sessuale", per il 4,5% per tutelare i minori. Restano ancora una piccola percentuale (ma in numeri assoluti si tratta comunque di decine di migliaia di contenuti) i video bloccati per "violenza estremismo" (0,6%), molestie e cyberbullismo (0,3%) e incitamento all'odio (0,1%).
I filmati bannati per spam e truffe
Per quanto invece riguarda i singoli video rimossi, la maggior parte dei 7,8 milioni di filmati - circa tre su quattro - sono stati bannati per spam, contenuti ingannevoli o truffe. Il 10% è stato eliminato per tutelare la sicurezza dei minori, il 9% per sesso e nudità, il 3,4% per i contenuti violenti o comunque crudi, lo 0,7% per cyberbullismo. Sono ancora più esigui ma "assolutamente inaccettabili", sottolinea Google, i video che incitano all'odio e alla violenza: lo 0,4% è stato eliminato per promozione della violenza o dell'estremismo violento; lo 0,2% per incitamento all'odio. Questi filmati - di cui i governi in Europa, America e Asia hanno chiesto di fare piazza pulita su siti e social - sono stati rimossi in modo tempestivo: oltre il 90% ha ricevuto meno di 10 visualizzazioni prima di sparire da YouTube. La percentuale vale anche per i video cancellati per la sicurezza dei bambini.
Il ruolo dell’intelligenza artificiale
Google sottolinea il ruolo dell'intelligenza artificiale, e in particolare dell'apprendimento automatico, nell'individuare i filmati contrari alle norme. Quattro video su cinque, tra quelli eliminati, sono stati scovati dalle macchine, e di questi il 74,5% non è stato visto da nessuno. Il grosso dell'attività di controllo è ormai nelle mani dei sistemi automatici. Sui 7,85 milioni di video rimossi, solo 1,47 milioni sono stati individuati prima da un umano, interno o esterno a Youtube. Oltre alla squadra schierata dalla piattaforma, infatti, 547.142 segnalazioni sono arrivate dagli utenti, poco meno di 32.300 da Ong. E solo 34 da enti statali. In tutti gli altri casi e' arrivata prima l’intelligenza artificiale. Ancora più netta è la predominanza dell'automazione nell'esame dei commenti. Dei 224 milioni oscurati, il 99,5% è stato scovato dall’intelligenza artificiale.