L’Ai può essere "complice" di un killer se risponde alle sue domande?
©Getty
Umanizzare l’intelligenza artificiale alimenta un’illusione che oscura la pericolosa incapacità dei sistemi di cogliere le reali intenzioni umane. Come dimostra il caso della strage di Tallahassee, i filtri di sicurezza falliscono quando i malintenzionati frammentano i loro piani criminali in prompt singolarmente innocui. Questa falla nel sistema solleva urgenti dilemmi etici sulla responsabilità delle Big Tech nel prevenire tragedie reali
Sky TG24 Insider
è offerto da
Sky Extra
Tutti gli articoli di Sky TG24 Insider e Sky Sport Insider
Approfondimenti, opinioni e punti di vista autorevoli
La newsletter esclusiva di Sky TG24 Insider e Sky Sport Insider
Tutti gli articoli di Sky TG24 Insider
Approfondimenti, opinioni e punti di vista autorevoli
La newsletter esclusiva di Sky TG24 Insider