Le piattaforme di social media e le compagnie high-tech saranno obbligate a sopprimere contenuti nocivi creati con l'uso dell'IA, come immagini intime deep fake e incitamento all'odio, secondo il nuovo regolamento sulla cybersicurezza introdotto dal governo federale. Una serie di misure per rispondere a "nuovi ed emergenti danni"
In Australia piattaforme di social media e le compagnie high-tech saranno obbligate a sopprimere contenuti nocivi creati con l'uso dell'intelligenza artificiale, come immagini intime deep fake e incitamento all'odio, secondo il nuovo regolamento sulla cybersicurezza introdotto dal governo federale. La ministra delle Comunicazioni, Michelle Rowland, ha infatti annunciato una serie di misure per rispondere a "nuovi ed emergenti danni", esprimendo "significativa preoccupazione per i servizi generativi IA, ampiamente disponibili, usati per creare immagini, video e testi offensivi o pericolosi". Aggiornamenti delle linee guida già in atto, le cosiddette Basic Online Safety Expectation (Bose), richiedono alle compagnie high-tech di assicurare che gli algoritmi che dettano cosa gli utenti vedono online, non diffondano contenuti a sfondo razzista, sessista o omofobico.
"Fare di più per prevenire i danni"
Parlando al National Press Club, la ministra ha anche espresso preoccupazione per i contenuti antisemitici e islamofobici che vengono pubblicati sulla piattaforma X. "È chiaro che il settore può e deve fare di più per prevenire danni che non sono esplicitamente indicati nelle linee guida… Negli ultimi due anni, è diventato sempre più difficile distinguere fra immagini generate dalla IA e immagini genuine", ha detto. "Mentre questa tecnologia ha un potenziale enorme come strumento positivo, la vediamo anche usata per creare immagini concepite per umiliare imbarazzare, offendere e anche abusare di altri", ha aggiunto.