ChatGPT, cos'è lo scenario Terminator temuto dal fondatore di OpenAI

Tecnologia
©Ansa

Altman ha espresso la sua preoccupazione per la possibilità che sistemi di intelligenza artificiale generale (Agi) “possano essere usati per la disinformazione su larga scala” o per “eseguire cyber-attacchi”. Nelle sue conseguenze più estreme, secondo i teorici dello scenario Terminator, di cui fanno parte anche Elon Musk e Bill Gates, lo sviluppo di questi sistemi potrebbe mettere in pericolo l'esistenza umana, resa obsoleta dalle intelligenze artificiali che sviluppano coscienza e capacità cognitive superiori

ascolta articolo

Sam Altman, fondatore di OpenAI, la startup creatrice di ChatGPT, in un'intervista rilasciata all'Abc, ha espresso la sua preoccupazione per la possibilità che sistemi di intelligenza artificiale generale (Agi) “possano essere usati per la disinformazione su larga scala. Inoltre, migliorando sempre di più nella scrittura di codice informatico, potrebbero anche essere usati per eseguire cyber-attacchi” spiegando così il motivo della crescente cautela della sua azienda nella creazione de diffusione di questi modelli. Questo porterebbe al cosiddetto scenario Terminator, che ricorda la saga dei film, con il cyborg interpretato da Arnold Schwarzenegger, che ha appassionato milioni di persone sin dal suo esordio, nel 1984.

Lo scenario Terminator

Secondo quanto riporta Wired, Altman è preoccupato del “rischio esistenziale” legato alla diffusione di intelligenze artificiali sempre più evolute. Assieme a filosofi come Nick Bostrom e di imprenditori come Bill Gates e il suo ex socio Elon Musk, Altman è tra i teorici del cosiddetto “scenario Terminator”. Secondo questa teoria, sviluppare l’intelligenza artificiale potrebbe voler dire mettere in pericolo l'esistenza dell’essere umano, resa obsoleta dalle intelligenze artificiali che sviluppano coscienza e capacità cognitive superiori a quelle umane. Questo potrebbe portare le intelligenze artificiali a perseguire obiettivi contrari al benessere umano.

Elon Musk: “Sarebbe come evocare il demonio”

È proprio a questa eventualità che Elon Musk si riferiva quando ha affermato che sviluppare le Agi equivale a “evocare il demonio”. Il timore di Musk, però, è stato ritenuto fantascientifico e avulso dalla realtà tanto che Andrew Ng, ex responsabile dell’intelligenza artificiale di Google, l'ha paragonato alla preoccupazione “del sovrappopolamento di Marte”. Questo perché il funzionamento di questi sistemi è sotto il controllo umano.

epa10144986 Tesla-founder Elon Musk speaks at a discussion forum during the Offshore Northern Seas (ONS) Conference, in Stavanger, Norway, 29 August 2022. The ONS is taking place from 29 August to 01 September 2022 and brings together international industry executives to discuss on 'the future of the energy industry, including new technologies, new forms of leadership and new business models', as the organizers describes it on their website.  EPA/Carina Johansen NORWAY OUT

approfondimento

Stop a esperimenti IA, il testo integrale della lettera di Elon Musk

I lungotermisti

Questo però non sembra rassicurare Altman, che è anche un esponente della corrente di pensiero chiamata “lungotermismo”, la quale pone attenzione al “rischio esistenziale” che l’intelligenza artificiale potrebbe rappresentare. “Alcune persone nel campo dell’intelligenza artificiale considerano i rischi legati alla Agi (e i sistemi successivi) immaginari. Se avranno ragione loro, saremo molto contenti di saperlo, ma agiremo invece come se questi rischi fossero esistenziali”, ha affermato Altman, come riporta Wired, in un post pubblicato sul blog di OpenAI spiegando di aver “posto un limite ai ritorni economici che i nostri investitori possono ottenere, per non essere incentivati a cercare guadagni anche a costo di dispiegare qualcosa che potrebbe potenzialmente essere catastroficamente pericoloso. […] Una Agi superintelligente non allineata ai valori umani potrebbe provocare atroci danni al mondo”.

A robot from the Artificial Intelligence and Intelligent Systems (AIIS) laboratory of Italy's National Interuniversity Consortium for Computer Science (CINI) is displayed at the 7th edition of the Maker Faire 2019, the greatest European event on innovation, on October 18, 2019 in Rome. (Photo by Andreas SOLARO / AFP) (Photo by ANDREAS SOLARO/AFP via Getty Images)

approfondimento

Intelligenza artificiale, studio: “300 mln posti lavoro a rischio"

Preoccupazione o marketing?

Secondo Wired, dietro le affermazioni di Altman ci sarebbero strategie di mercato. “È altrettanto difficile non sospettare che la decisione di rinunciare alla natura open di OpenAI sia in realtà legata a ragioni di carattere esclusivamente commerciale, mascherate però da senso di responsabilità – spiega la testata - In effetti, tutta la narrazione impostata da Sam Altman si può anche interpretare come un’elaborata operazione di marketing, in cui OpenAI viene raccontata come una sorta di baluardo scientifico: l’unica realtà in grado di sviluppare in sicurezza una tecnologia altrimenti potenzialmente catastrofica. Una chiave di lettura che fornisce un’aura quasi salvifica, messianica, a quella che invece è sotto ogni punto di vista una normale società di sviluppo di (potenti) software tecnologici”.

papa_foto_hero_Ig

approfondimento

Foto fake del Papa e Trump, ecco come nascono grazie a Midjourney

Tecnologia: I più letti