Riscontrati messaggi incoerenti da parte del software, che oltre a essere ripetitivo usa anche parole che non esistono ed emoji casuali. L'azienda ha aperto una pagina apposita dove spiega che sta controllando per cercare di identificare l'anomalia e risolverla
Numerose segnalazioni online sono state fatte tra il 20 e il 21 febbraio da molti utenti di ChatGpt che hanno riscontrato problemi durante l'uso del software gratuito di intelligenza artificale sviluppato da OpenAI. In particolare, alcuni lamentano di ottenere dal chatbot, lanciato sul web nel novembre 2022, risposte del tutto incoerenti, talvolta miste tra inglese e spagnolo, o contenenti parole prive di significato. In alcuni casi, ChatGpt ha incluso emoji casuali o ha ripetuto frasi identiche decine di volte. Diversi utenti coinvolti su Reddit hanno scritto che, davanti a certe risposte del software, pare loro di parlare "con qualcuno che ha subito un ictus".
L'errore riscontrato sia in Gpt-3.5 sia in Gpt-4
Dopo le varie segnalazioni, OpenAI ha pubblicato un "incident report" sul proprio sito in cui riconosce l'anomalia e fornisce agli utenti aggiornamenti sull'origine del problema e sulle possibili soluzioni. Intitolata "Risposte inaspettate da ChatGPT", nella pagina per ora si legge solamente che l'azienda sta monitorando attentamente la situazione e, dopo aver identificato il problema, sta lavorando per risolverlo. Il malfunzionamento riguarda sia Gpt-3.5, la versione gratuita del chatbot, sia Gpt-4, il modello più avanzato presente nella versione a pagamento. Come sottolinea il Post, è estremamente difficile, persino per gli sviluppatori, capire e spiegare con precisione le ragioni per cui ChatGpt fornisce determinate risposte anziché altre perché "si basa su una massa di informazioni in costante evoluzione, che include non solo testi prescelti ma anche gli scambi avuti con gli utenti".