ChatGPT, incontro tra Garante Privacy e OpenAI: rassicurazioni sul chatbot

Tecnologia

Intanto la società americana ha pubblicato una lettera aperta sul suo blog in cui "si impegna a mantenere l'intelligenza artificiale sicura e vantaggiosa. Riconosciamo che, come qualsiasi altra tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli"

ascolta articolo

Si è svolto ieri sera l'incontro, in video conferenza, tra Garante della Privacy e OpenAI, società che sviluppa il chatbot ChatGpt. All'incontro - a cui ha preso parte in apertura anche Sam Altman, amministratore delegato di OpenAI - erano presenti il Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), Che Chang, Deputy General Counsel della società statunitense, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel.

L'incontro

OpenAI, pur ribadendo di essere convinta di rispettare le norme in tema di protezione dei dati personali, ha tuttavia confermato la volontà di collaborare con l'Autorità italiana con l'obiettivo di arrivare ad una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT. L'Autorità da parte sua ha sottolineato come non vi sia alcuna intenzione di porre un freno allo sviluppo dell'AI e dell'innovazione tecnologica e ha ribadito l'importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei. OpenAI si è impegnata a rafforzare la trasparenza nell'uso dei dati personali degli interessati, i meccanismi esistenti per l'esercizio dei diritti e le garanzie per i minori e ad inviare al Garante entro oggi un documento che indichi le misure che rispondano alle richieste dell'Autorità. Il Garante si riserva di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.

OpenAI: "Non usiamo ChatGpt per profilazione"

Intanto la società americana ha pubblicato una lettera aperta sul suo blog in cui "si impegna a mantenere l'intelligenza artificiale sicura e vantaggiosa. Riconosciamo che, come qualsiasi altra tecnologia, questi strumenti comportano rischi reali, quindi lavoriamo per garantire che la sicurezza sia integrata nel nostro sistema a tutti i livelli". Nel merito di come utilizza i dati degli utenti, OpenAI precisa: "Non utilizziamo i dati per vendere i nostri servizi, pubblicità o profilare le persone. Li usiamo invece per rendere i nostri modelli più utili. ChatGpt, ad esempio, migliora con le conversazioni che, di volta in volta, intrattiene con gli utenti". La lettera, dal titolo "Il nostro approccio alla sicurezza dell'AI", spiega in che modo viene protetta la privacy degli utenti, anche minori, e come riduce il rischio di risposte errate, le cosiddette 'allucinazioni'. Per azzerare il rischio di generare contenuti che danneggiano i bambini, quando un utente carica materiale pedopornografico negli strumenti di creazione o lettura di immagini, il sistema di Open AI lo blocca e lo segnala al National Center for Missing and Exploited Children. "Prima di rilasciare qualsiasi nuovo sistema, conduciamo test rigorosi, coinvolgiamo esperti esterni, lavoriamo per migliorare il comportamento del modello e costruiamo ampi sistemi di sicurezza e monitoraggio. Ad esempio, dopo aver terminato lo sviluppo del nostro ultimo modello, Gpt-4, abbiamo trascorso più di 6 mesi per renderlo più sicuro e allineato, prima di rilasciarlo pubblicamente". 

leggi anche

ChatGpt, OpenAI sospende il servizio in Italia

ChatGPT al vaglio anche in altri Paesi

Anche altri Paesi hanno acceso un faro sul software di Intelligenza artificiale ChatGpt. Il Canada - riporta l'Afp - ha annunciato di aver aperto un'indagine dell'Office of the Privacy Commissioner su OpenAi, in risposta a una "denuncia relativa alla raccolta, all'uso e alla divulgazione di informazioni personali senza consenso", ha affermato l'agenzia.

Secondo Reuters online, anche Germania, Francia e Irlanda si starebbero muovendo sulle orme dell'Autorità italiana per la protezione dei dati personali. Le autorità di regolamentazione della privacy in Francia e Irlanda avrebbero contattato l'omologo italiano per saperne di più sul divieto. E la Germania potrebbe seguire le orme dell'Italia bloccando ChatGpt per problemi di sicurezza dei dati, come ha dichiarato il commissario tedesco per la protezione dei dati al quotidiano Handelsblatt.

Qualche giorno fa infine l'Europol ha avvertito che i criminali informatici sono pronti a sfruttare l'intelligenza artificiale dei chatbot conversazionali per commettere frodi e altri crimini informatici.

leggi anche

“Ecco come cambierà il lavoro con l’intelligenza artificiale”

Tecnologia: I più letti