YouTube, arriva un’etichetta per segnalare i contenuti realistici generati dall’IA
Tecnologia ©AnsaLa piattaforma ha deciso di imporre ai creator di indicare i video realizzati anche grazie all’intelligenza artificiale e che potrebbero indurre in errore gli utenti. Da tempo le grandi compagnie si interrogano e lavorano a metodi per identificare simili contenuti realistici, con approcci che potrebbero presentare sia opportunità che problemi da risolvere
I creator di YouTube devono ora identificare con un’etichetta i contenuti realistici che sono stati generati dall’intelligenza artificiale. Ad annunciare la novità è stata la stessa piattaforma, tramite un post sul suo blog, spiegando come l’intervento riguarda quei contenuti che gli utenti potrebbero facilmente interpretare come eventi, scene, luoghi e persone reali. Non sarà invece necessario identificare i contenuti evidentemente irrealistici - per esempio i cartoni animati - anche se generati da un’IA. Una mossa che arriva in un periodo in cui - sottolinea la Cnn - gli esperti di sicurezza online hanno sollevato l’allarme su come la proliferazione di contenuti generati dall’intelligenza artificiale possa indurre in errore gli utenti: un tema particolarmente sensibile, a maggior ragione in un anno in cui sono previsti diversi importanti appuntamenti elettorali, tra cui il rinnovo del Parlamento europeo e le elezioni presidenziali negli Stati Uniti. La novità introdotta da YouTube si aggiunge agli sforzi messi in campo anche da altre piattaforme, che discutono e sperimentano iniziative su come rendere visibili i prodotti generati o modificati dall’intelligenza artificiale. E da qualche tempo ricercatori ed esperti si interrogano sulle potenzialità e limiti dei possibili approcci.
L’etichetta sui contenuti IA: in quali casi apparirà e le sanzioni
Nel post sul suo blog, YouTube ha specificato alcuni esempi per i quali diventa necessario apporre l’etichetta: usare l’aspetto di una persona realistica, alterando sinteticamente il contenuto per sostituire il volto o generando sinteticamente la voce di una persona per narrare il video; oppure alterare le immagini di un evento realmente accaduto o un luogo esistente, come mostrare un vero palazzo in fiamme o modificare l’aspetto di una vera città. Infine, l’etichetta dovrà essere applicata anche ai video nei quali l’IA genera degli eventi realistici, come ad esempio un tornado che si dirige verso una città realmente esistente. Nella maggior parte dei casi, l’etichetta apparirà nella descrizione espansa dei contenuti, ma su temi sensibili quali la salute, le notizie, le elezioni o la finanza apparirà un’etichetta più evidente sul video stesso. Non sarà invece necessario inserire un marchio sui contenuti evidentemente "irrealistici" - come i cartoni animati - e nemmeno nei casi in cui l’IA è stata utilizzata per generare script o idee per i contenuti. E neanche nei casi in cui le modifiche operate con l’intelligenza artificiale siano limitate a filtri di bellezza, aggiustamento dei colori o effetti speciali come i blur o lo stile vintage. Secondo quanto fatto sapere da YouTube, le etichette inizieranno ad apparire nelle prossime settimane prima nell’app per smartphone, e dopo su desktop e televisione. I creator che non utilizzeranno ripetutamente la nuova etichetta su contenuti che dovrebbero averla - riporta ancora la Cnn - potrebbero andare incontro a sanzioni quali la rimozione dei contenuti o la sospensione dal YouTube’s Partner Program, lo strumento attraverso il quale i creator possono monetizzare i loro video.
leggi anche
AI, Elon Musk rende pubblico il codice sorgente del software Grok
Gli sforzi per identificare i contenuti generati dall’IA
La novità introdotta da YouTube si aggiunge ad altri sforzi messi in campo da diverse compagnie per rendere identificabili i contenuti generati o modificati con l’intelligenza artificiali. Tra queste c’è Meta, la compagnia che controlla Instagram, Facebook e WhatsApp , che a febbraio ha annunciato l’inserimento di etichette sulle immagini generate dall’intelligenza artificiale. Meta ha fatto sapere sul suo blog che inserirà nei contenuti creati con Meta AI un marker evidente sulle immagini e un watermark (una sorta di filigrana digitale che certifica la realizzazione del contenuto con l’intelligenza artificiale) nel file dell’immagine. Nel prossimo futuro inoltre - riporta Wired - la società di Mark Zuckerberg etichetterà anche le immagini generate da strumenti di altre aziende che a loro volta inseriscono watermark. Secondo Andy Parsons, direttore senior per la Content Authenticity Initiative presso Adobe citato dal New York Times, c’è un “senso di urgenza condiviso” nel rafforzare la fiducia nei contenuti digitali. Anche Google - che controlla YouTube - ha annunciato l’intenzione di lavorare per sviluppare credenziali condivise per i contenuti digitali alterati o prodotti con l’intelligenza artificiale. Se Meta ha annunciato di promuovere etichette standardizzate per identificare i contenuti alterati o generati dall’intelligenza artificiale, Google ha fatto sapere che analizzerà come incorporare credenziali digitali nei propri prodotti e servizi. La stessa Google si è unita al comitato direttivo della Coalition for Content Provenance and Authenticity (C2PA), e anche OpenAI a inizio febbraio ha fatto sapere che i suoi tool di IA per la generazione di immagini presto incorporeranno i watermarks previsti dallo standard di C2PA.
Meta intanto è al lavoro per supportare i metodi di watermarking in fase di sviluppo nel contesto della C2PA, a cui partecipano anche altre grandi società come Adobe e Microsoft.
leggi anche
AI, in Spagna l'influencer virtuale Alba Renai diventa conduttrice
Sfide e opportunità delle etichette sui contenuti
La questione watermark è però complessa. Come sottolineato da un recente paper pubblicato dalla Brookings Institution, organizzazione di ricerca no-profit, i watermark rischiano di non essere completamente resistenti agli attacchi di malintenzionati. I ricercatori della Duke University hanno scoperto come sia possibile effettuare piccole e impercettibili modifiche ai pixel per ingannare alcuni detector dei watermark, mentre per quanto riguarda i contenuti audio e video non ci sono ancora approcci esplorati a sufficienza. Problemi di cui - per esempio - sembra essere al corrente Meta che nel suo annuncio a febbraio ha sottolineato: “Se le compagnie stanno iniziando a inserire i segnali nei loro generatori d’immagini, lo stesso non è ancora avvenuto allo stesso livello nei tool di IA che creano audio e video, e dunque non siamo ancora in grado di identificare ed etichettare i contenuti di altre società”. Nel post viene inoltre sottolineato come “le persone e le organizzazioni che cercano attivamente di ingannare il pubblico con contenuti generati dall’intelligenza artificiale cercheranno sempre di aggirare i controlli, e dovremo continuare a lavorare per restare un passo avanti”.
Etichettare le immagini generate dall’IA e inserire un watermark è “un passo nella giusta direzione, ma presenta delle sfide”, dice invece a Wired Sam Gregory, responsabile di programma dell'organizzazione no-profit Witness: "L'unico modo in cui un sistema del genere sarà efficace è che veda la partecipazione di un ampio gruppo di strumenti e piattaforme generative”.
leggi anche
Apple tratta con Google per portare l'IA generativa sull'iPhone
Il progetto AI4TRUST
L’Intelligenza artificiale, comunque, può essere usata anche con l’intento di contrastare la diffusione di contenuti fake: è il caso di AI4TRUST, progetto finanziato dall’Unione europea e di cui Sky TG24 è partner. Il progetto mira a contrastare la disinformazione, sfruttando gli strumenti che l’intelligenza artificiale può mettere a disposizione, realizzando soluzioni ibride che combinino l’IA e le capacità umane per mitigare gli effetti della disinformazione online.