ChatGPT, cos'è lo scenario Terminator temuto dal fondatore di OpenAI

Tecnologia
©Ansa

Altman ha espresso la sua preoccupazione per la possibilità che sistemi di intelligenza artificiale generale (Agi) “possano essere usati per la disinformazione su larga scala” o per “eseguire cyber-attacchi”. Nelle sue conseguenze più estreme, secondo i teorici dello scenario Terminator, di cui fanno parte anche Elon Musk e Bill Gates, lo sviluppo di questi sistemi potrebbe mettere in pericolo l'esistenza umana, resa obsoleta dalle intelligenze artificiali che sviluppano coscienza e capacità cognitive superiori

ascolta articolo

Sam Altman, fondatore di OpenAI, la startup creatrice di ChatGPT, in un'intervista rilasciata all'Abc, ha espresso la sua preoccupazione per la possibilità che sistemi di intelligenza artificiale generale (Agi) “possano essere usati per la disinformazione su larga scala. Inoltre, migliorando sempre di più nella scrittura di codice informatico, potrebbero anche essere usati per eseguire cyber-attacchi” spiegando così il motivo della crescente cautela della sua azienda nella creazione de diffusione di questi modelli. Questo porterebbe al cosiddetto scenario Terminator, che ricorda la saga dei film, con il cyborg interpretato da Arnold Schwarzenegger, che ha appassionato milioni di persone sin dal suo esordio, nel 1984.

Lo scenario Terminator

Secondo quanto riporta Wired, Altman è preoccupato del “rischio esistenziale” legato alla diffusione di intelligenze artificiali sempre più evolute. Assieme a filosofi come Nick Bostrom e di imprenditori come Bill Gates e il suo ex socio Elon Musk, Altman è tra i teorici del cosiddetto “scenario Terminator”. Secondo questa teoria, sviluppare l’intelligenza artificiale potrebbe voler dire mettere in pericolo l'esistenza dell’essere umano, resa obsoleta dalle intelligenze artificiali che sviluppano coscienza e capacità cognitive superiori a quelle umane. Questo potrebbe portare le intelligenze artificiali a perseguire obiettivi contrari al benessere umano.

Elon Musk: “Sarebbe come evocare il demonio”

È proprio a questa eventualità che Elon Musk si riferiva quando ha affermato che sviluppare le Agi equivale a “evocare il demonio”. Il timore di Musk, però, è stato ritenuto fantascientifico e avulso dalla realtà tanto che Andrew Ng, ex responsabile dell’intelligenza artificiale di Google, l'ha paragonato alla preoccupazione “del sovrappopolamento di Marte”. Questo perché il funzionamento di questi sistemi è sotto il controllo umano.

approfondimento

Stop a esperimenti IA, il testo integrale della lettera di Elon Musk

I lungotermisti

Questo però non sembra rassicurare Altman, che è anche un esponente della corrente di pensiero chiamata “lungotermismo”, la quale pone attenzione al “rischio esistenziale” che l’intelligenza artificiale potrebbe rappresentare. “Alcune persone nel campo dell’intelligenza artificiale considerano i rischi legati alla Agi (e i sistemi successivi) immaginari. Se avranno ragione loro, saremo molto contenti di saperlo, ma agiremo invece come se questi rischi fossero esistenziali”, ha affermato Altman, come riporta Wired, in un post pubblicato sul blog di OpenAI spiegando di aver “posto un limite ai ritorni economici che i nostri investitori possono ottenere, per non essere incentivati a cercare guadagni anche a costo di dispiegare qualcosa che potrebbe potenzialmente essere catastroficamente pericoloso. […] Una Agi superintelligente non allineata ai valori umani potrebbe provocare atroci danni al mondo”.

approfondimento

Intelligenza artificiale, studio: “300 mln posti lavoro a rischio"

Preoccupazione o marketing?

Secondo Wired, dietro le affermazioni di Altman ci sarebbero strategie di mercato. “È altrettanto difficile non sospettare che la decisione di rinunciare alla natura open di OpenAI sia in realtà legata a ragioni di carattere esclusivamente commerciale, mascherate però da senso di responsabilità – spiega la testata - In effetti, tutta la narrazione impostata da Sam Altman si può anche interpretare come un’elaborata operazione di marketing, in cui OpenAI viene raccontata come una sorta di baluardo scientifico: l’unica realtà in grado di sviluppare in sicurezza una tecnologia altrimenti potenzialmente catastrofica. Una chiave di lettura che fornisce un’aura quasi salvifica, messianica, a quella che invece è sotto ogni punto di vista una normale società di sviluppo di (potenti) software tecnologici”.

approfondimento

Foto fake del Papa e Trump, ecco come nascono grazie a Midjourney

Tecnologia: I più letti