Le nuove regole europee prevodono una serie di obblighi per fornitori e sviluppatori di sistemi di IA, in base ai diversi livelli di rischio identificati. Saranno applicabili a due anni dall'entrata in vigore, con l'eccezione dei divieti (che scatteranno dopo sei mesi) dei controlli sui sistemi di Intelligenza artificiale per finalità generali, compresa la governance (12 mesi), e degli obblighi per i sistemi ad alto rischio (36 mesi)
Via libera definitivo all'unanimità del Consiglio europeo all'AI Act, la legge europea sull'intelligenza artificiale che disciplina lo sviluppo, l'immissione sul mercato e l'uso dei sistemi di intelligenza artificiale (IA) nell’Unione. La legge, la prima al mondo in materia, detta una serie di obblighi a fornitori e sviluppatori di sistemi di IA in base ai diversi livelli di rischio identificati. Le nuove regole saranno applicabili a due anni dall'entrata in vigore, con l'eccezione dei divieti, che scatteranno dopo sei mesi, dei controlli sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e degli obblighi per i sistemi ad alto rischio (36 mesi).
Parte della strategia digitale dell'Ue
L’AI Act rappresenta la normativa più avanzata al mondo in materia di intelligenza artificiale ed è parte integrante della strategia digitale dell’Unione Europea che mira a promuovere l’innovazione e la competitività nel settore dell’IA, garantendo contemporaneamente la protezione dei consumatori, dei lavoratori e dei cittadini. Presentata dalla Commissione Europea il 21 aprile 2021 con l’obiettivo di creare un quadro normativo armonizzato e proporzionato IA, si basa sul principio che l’IA deve essere sviluppata e utilizzata in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei
vedi anche
Intelligenza artificiale a scuola, il 65% degli studenti usa ChatGPT
La legislazione
La legislazione segue un approccio basato sul rischio: maggiore è il rischio di causare danni alla società, più severe saranno le regole. La nuova legge mira a promuovere lo sviluppo e l’adozione di sistemi di IA sicuri e affidabili nel mercato unico dell’Ue da parte di attori pubblici e privati. Nello stesso tempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’Ue e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa. La legge sull’IA si applica solo ad ambiti soggetti al diritto dell’Ue e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.
vedi anche
Intelligenza artificiale, Italia tra gli ultimi in Europa
Controllo e sanzioni
Per garantire una corretta applicazione, vengono istituiti diversi organi di governo: un ufficio IA all'interno della Commissione per far rispettare le regole comuni in tutta l'Ue; un panel scientifico di esperti indipendenti a supporto delle attività di contrasto; un comitato per l'IA con rappresentanti degli Stati membri per consigliare e assistere la Commissione e gli Stati membri nell'applicazione coerente ed efficace della legge sull'IA; un forum consultivo per le parti interessate per fornire competenze tecniche al comitato AI e alla Commissione. Le sanzioni per le violazioni della legge sull'IA sono fissate in percentuale del fatturato annuo globale dell'azienda colpevole nell'anno finanziario precedente o in un importo predeterminato, a seconda di quale sia il più elevato.
vedi anche
Intelligenza artificiale, l'allarme del Mit sulle IA che mentono
Diverse realtà lavorano per sviluppare strumenti di AI detection e più in generale per sfruttare l’intelligenza artificiale per combattere la disinformazione, come nel caso di AI4TRUST, un progetto finanziato dall'Unione Europea a cui partecipa anche SkyTG24.