Meta: etichetta sui contenuti Instagram e Facebook creati con l'intelligenza artificiale

Tecnologia
©IPA/Fotogramma

La società che controlla i due social amplia la gamma di immagini e video sui quali verrà apposta un’etichetta per segnalare l’utilizzo dell’Ia. I contenuti segnalati come falsi dai fact-checkers saranno abbassati nel feed, ma Crowd Tangle verrà chiuso

ascolta articolo

Dopo YouTube, anche Facebook e Instagram decidono di segnalare al pubblico i contenuti generati o modificati con l’intelligenza artificiale a partire da maggio. La decisione è stata confermata da Meta - dopo un primo annuncio arrivato a febbraio - che in un post sul suo blog ha spiegato che “inseriremo un’etichetta su una più ampia gamma di video, immagini e audio”. Il precedente approccio di Meta prevedeva l’etichettatura dei soli video creati o alterati con l’IA che mostravano una persona dire qualcosa che in realtà non aveva detto. Adesso, si spiega nel post, l’etichetta “Made with AI” verrà applicata a una più vasta gamma di contenuti - includendo anche foto e audio - compresi quelli che sembrano mostrare una persona fare qualcosa, che in realtà non ha fatto. La conferma della novità arriva a poche settimane dalle elezioni europee e a pochi mesi dalle presidenziali statunitensi e si è resa necessaria, secondo Meta, anche per via dell’evoluzione nella generazione e alterazione di contenuti con l’uso dell’intelligenza artificiale. L’etichetta “Made with AI” verrà utilizzata a partire da maggio sia sui contenuti identificati da Meta sia su quelli dichiarati dagli utenti nel momento in cui vengono caricati. La società ha tuttavia chiarito che i contenuti generati o modificati con l’IA - a meno che non violino altre regole della community - saranno lasciati sulle piattaforme.

La scelta di chiudere CrowdTangle 

Intanto però Meta ha deciso - come riportato anche da Le Monde e dal Wall Street Journal - di dismettere CrowdTangle, un importante tool utilizzato da ricercatori e giornalisti che permette di analizzare i contenuti social virali e monitorare la disinformazione. Scelta che ha sollevato polemiche e perplessità perché ritenuta da analisti "un grave passo indietro nella trasparenza della piattaforma”. Meta ha inoltre annunciato nei giorni scorsi che, in caso di contenuti che presentino un rischio particolarmente alto di ingannare il pubblico su temi importanti, potrebbe essere aggiunta un’etichetta più evidente per fornire alle persone più informazioni e contesto. Se un contenuto viene segnalato come falso o alterato dai fact-checkers indipendenti che lavorano con Meta, questo verrà abbassato nel feed delle piattaforme così che meno persone lo vedano e verrà posta un’etichetta con ulteriori informazioni.

leggi anche

YouTube, arriva etichetta per i contenuti realistici generati dall’IA

Le linee guida Ue in vista delle elezioni

Le decisioni prese in materia di intelligenza artificiale da Meta - che controlla tra gli altri Instagram e Facebook - seguono quelle arrivate da Youtube, e si inseriscono nello stesso frangente in cui l’Unione europea ha pubblicato le linee guida per le piattaforme in vista delle prossime elezioni. Tra le misure indicate, ce ne sono anche alcune specifiche per la mitigazione dei potenziali rischi dell’intelligenza artificiale generativa, anche per contrastare la creazione e diffusione di contenuti di disinformazione. Le grandi piattaforme online e i motori di ricerca dovrebbero tra le altre cose segnalare chiaramente contenuti generati dall’intelligenza artificiale. Nel comunicato stampa, la Commissione ricorda che ai sensi della Dsa le piattaforme hanno “l’obbligo di mitigare i rischi legati alle elezioni, salvaguardando allo stesso tempo i diritti fondamentali tra cui quello della libertà d’espressione”.

leggi anche

Disinformazione ed elezioni, arrivano linee guida Ue: cosa prevedono

Il rapido sviluppo dei modelli di IA generativa

Nella lotta contro la disinformazione, anche creata e diffusa dall’intelligenza artificiale (che a sua volta può diventare però un importante strumento di contrasto alla misinformazione, come nel caso del progetto di ricerca AI4TRUST), si discute anche sulla capacità umana di identificare i contenuti generati dall’IA. Gli sviluppi tecnologici stanno rendendo sempre più difficile questo compito. “Sta per scadere il tempo in cui saremo in grado di fare una identificazione ‘manuale’”, ha spiegato al Guardian Mike Speirs, che guida il lavoro della consultancy Faculty - attiva nel settore dell’IA - nella lotta alla disinformazione.“ Ci sono diverse tecniche ‘manuali’ per identificare contenuti fake, da errori nelle parole ai segni sulla pelle. Osservare le mani è un metodo classico, e anche gli occhi. Ma già adesso richiede molto tempo, e non è un’attività che si può davvero ampliare. E il tempo sta finendo, i modelli stanno diventando sempre migliori”. Intanto la Coalition for Content Provenance and Authenticity (C2PA) sta lavorando alla realizzazione di watermark (una sorta di filigrana digitale) ed etichette standardizzate. Questi tipi di soluzioni possono aiutare, ma secondo Mike Speirs potrebbero anche creare un falso senso di sicurezza: “Se le persone si abituano a vedere immagini generate dall’IA con un watermark, questo significa che implicitamente si fideranno di ogni immagine che ne è privo?”.

leggi anche

Disinformazione e IA generativa, white paper: a che punto siamo

Tecnologia: I più letti