IA, perché Meta ha deciso di modificare l’etichetta sui contenuti di Instagram e Facebook

Tecnologia
Tommaso Spotti

Tommaso Spotti

©IPA/Fotogramma

La società che controlla i due social network ha deciso di cambiare la dicitura “Made with AI” con quella “AI info”. La scelta è arrivata anche dopo le osservazioni di alcuni fotografi, secondo cui venivano contrassegnate anche immagini reali con minimi ritocchi. Intanto il tema dei watermark - le filigrane digitali che permettono di identificare i contenuti generati o modificati dall’IA - continua a essere al centro dell'attenzione

ascolta articolo

Meta - la società che controlla tra gli altri i social Instagram e Facebook - ha deciso di sostituire l'etichetta "Made with AI" applicata finora ai contenuti generati o manipolati con l’intelligenza artificiale. A prenderne il posto è la dicitura "AI info”. L’annuncio è arrivato direttamente da Meta, che nei giorni scorsi ha aggiornato il post sul suo blog. risalente ad aprile in cui viene enunciato l’approccio della società all’utilizzo delle etichette sui contenuti di IA. Sull’etichetta di Meta c’erano state osservazioni di alcuni fotografi, secondo cui la società avrebbe contrassegnato le loro immagini come IA, pur non essendo state realizzate con l'intelligenza artificiale. Il tema delle etichette e dei watermark - una sorta di filigrana digitale - è stata spesso oggetto di attenzione negli ultimi mesi, sia per la decisione di molte grandi aziende di farvi ricorso sia per alcune critiche mosse a questo tipo di strumenti.

 

La spiegazione di Meta

Meta, nel suo aggiornamento, ha spiegato che “in precedenza abbiamo annunciato un nuovo approccio per etichettare i contenuti generati dall’IA. Parte importante di questo approccio si basa sugli indicatori standard dell’industria che altre società includono nei contenuti creati con i loro tool, che ci aiuta a determinare quando questi sono stati generati utilizzando l’intelligenza artificiale”. Tuttavia, specifica Meta, “le nostre etichette basate su questi indicatori non sono sempre allineate con le aspettative delle persone, e non forniscono sempre un sufficiente contesto". Per esempio, ad "alcuni contenuti che includono piccole modifiche fatte usando l’IA come i tool di ritocco" veniva perciò applicata l’etichetta "Made with AI”. La società ha quindi deciso di sostituire “Made with AI” con “AI info” sulle proprie app. L'etichetta se cliccata - sottolinea l’Ansa - non offre informazioni sulla foto specifica ma spiega semplicemente che il contenuto potrebbe essere stato generato dall'IA e che è quindi da considerare come tale e non frutto di un contesto veritiero.

Perché Meta ha deciso di cambiare

Meta aveva deciso di affidarsi agli standard del settore per determinare quando l'intelligenza artificiale generativa viene utilizzata per creare un'immagine, ma poco dopo sono iniziate le prime osservazioni. Alcuni fotografi avevano infatti notato che Facebook e Instagram applicavano il badge su immagini che non erano state effettivamente create con l’IA: secondo i test condotti dal sito PetaPixel, le foto modificate con lo strumento di riempimento generativo di Adobe in Photoshop - comunque mai nominato nel nuovo annuncio di Meta - attivavano l'etichetta, anche se la modifica riguardava parti impercettibili di una foto reale. In ogni caso la nuova etichetta - secondo TechCrunch - non risolve il problema delle foto completamente generate dall’IA e che sfuggono ai sistemi di verifica.

 

leggi anche

IA, case discografiche fanno causa a start-up per violazione copyright

Le etichette e i watermark sui contenuti IA

In ogni caso, Meta non è l’unica società che ha deciso di utilizzare gli standard industriali per identificare ed etichettare i contenuti modificati o generati con l’utilizzo dell’intelligenza artificiale. A maggio TikTok ha annunciato l’applicazione di etichette sui contenuti IA, avvalendosi di un accordo con la Coalition for Content Provenance and Authenticity. Il social utilizza quindi un watermark, cioè una sorta di filigrana digitale, sviluppata dalla C2PA: si tratta di una coalizione di società tech - tra cui figurano Adobe, Google, Microsoft, OpenAI e molte altre - che si pone l’obiettivo di sviluppare soluzioni standardizzate per certificare la provenienza dei contenuti digitali, al fine di contrastare la diffusione di informazioni false o manipolate online. Affinché questo tipo di sistema funzioni, comunque, è necessario che sia il tool di intelligenza artificiale che genera il contenuto sia la piattaforma che lo distribuisce utilizzino lo stesso standard del settore.
Sebbene i watermark possano certamente essere strumenti utili per identificare i contenuti generati o manipolati con l’intelligenza artificiale - e di conseguenza contrastare la disinformazione così prodotta - questi non sono stati esenti da critiche. Un paper pubblicato dalla Brookings Institution, organizzazione di ricerca no-profit, i watermark rischiano di non essere completamente resistenti agli attacchi di malintenzionati. I ricercatori della Duke University hanno scoperto come sia possibile effettuare piccole e impercettibili modifiche ai pixel per ingannare alcuni detector dei watermark, mentre per quanto riguarda i contenuti audio e video non ci sono ancora approcci esplorati a sufficienza. 

leggi anche

L’AI tra pregiudizi e disinformazione: parla Gina Neff

Il caso di AudioSeal e i watermark

Ancora più particolare è il caso di un altro strumento sviluppato da Meta, cioè AudioSeal. Si tratta di un tool capace di inserire watermark in audio generati dall’intelligenza artificiale, così che possano essere identificati online. Secondo una revisione pubblicata sul MIT Technology Review , è il primo strumento che riesce a identificare quali parti di un podcast di un’ora potrebbero essere state generate dall’IA. Per Hady Elsahar, ricercatore di Meta, questo strumento potrebbe non solo aiutare a contrastare la diffusione della disinformazione ma anche quello delle truffe fatte usando tool per la clonazione delle voci. Tuttavia, sottolinea ancora la revisione, ci sono anche dei problemi: tra questi, i watermark per i contenuti generati dall’IA tendono a essere facili da manomettere. Claire Leibowicz, responsabile di IA e integrità dei media presso la no-profit Partnership on AI, si è detta “scettica” sulla possibilità che “qualunque watermark sia resistente alla rimozione o falsificazione” da parte di attori malintenzionati. E anche per questo l’esperta si è detta non convinta che questi strumenti possano aumentare la fiducia del pubblico nelle informazioni che leggono o sentono, sebbene i watermark sia una soluzione popolare nel settore tech.

Tra sicurezza e attacchi alla filigrana

Tornando ad AudioSeal, Elsahar ha fatto sapere che il suo team ha raggiunto una precisione tra il 90 e il 100% nell’individuare i watermark, risultati molto migliori che nei precedenti tentativi di imporre una filigrana sugli audio. Per adesso, comunque, Meta non intende applicare i watermark agli audio generati dai suoi tool di IA. Tuttavia, i ricercatori di Meta hanno testato differenti attacchi per rimuovere i watermark e hanno scoperto che più sono le informazioni rese pubbliche sull’algoritmo di watermarking, più è alta la sua vulnerabilità. E il sistema a oggi richiede che le persone aggiungano volontariamente la filigrana ai loro file audio. Questo, secondo il professore di informatica della University of Chicago Ben Zhao, pone delle importanti limitazioni al tool: “Quando gli attori malintenzionati hanno qualche livello di accesso al detector del watermark, questo è piuttosto fragile”. 

 

leggi anche

Intelligenza artificiale, l'allarme del Mit sulle IA che mentono

L’intelligenza artificiale può essere utilizza anche per combattere la disinformazione: è il caso di AI4TRUST, un progetto finanziato dall'Unione Europea a cui partecipa anche Sky TG24 e di cui questo articolo fa parte.

Tecnologia: I più letti