Tecnologia

L’Ai può essere "complice" di un killer se risponde alle sue domande?

Beatrice Subissi

©Getty

Umanizzare l’intelligenza artificiale alimenta un’illusione che oscura la pericolosa incapacità dei sistemi di cogliere le reali intenzioni umane. Come dimostra il caso della strage di Tallahassee, i filtri di sicurezza falliscono quando i malintenzionati frammentano i loro piani criminali in prompt singolarmente innocui. Questa falla nel sistema solleva urgenti dilemmi etici sulla responsabilità delle Big Tech nel prevenire tragedie reali

PUOI CONTINUARE A LEGGERE L'ARTICOLO:
Se sei già cliente sky TV

Sky TG24 Insider

è offerto da

Sky Extra

Tutti gli articoli di Sky TG24 Insider e Sky Sport Insider

Approfondimenti, opinioni e punti di vista autorevoli

La newsletter esclusiva di Sky TG24 Insider e Sky Sport Insider

Attivalo Ora
Oppure
NON SEI ANCORA CLIENTE SKY TV
Abbonati a Sky TG24 Insider
4
50 al mese
per 3 mesi, poi 9€ al mese

Tutti gli articoli di Sky TG24 Insider

Approfondimenti, opinioni e punti di vista autorevoli

La newsletter esclusiva di Sky TG24 Insider

Abbonati
Nessun vincolo, disdici quando vuoi
visa mastercard amex
Vuoi saperne di più? Leggi le FAQ