Durante l'udienza il giudice ha sollevato il problema di sei sentenze citate dal professionista che si sono rivelate essere false
Un avvocato di New York è stato convocato in tribunale a seguito dell'utilizzo della piattaforma di intelligenza artificiale ChatGPT in ricerche correlate a un caso legale. Durante l'udienza, il giudice ha sollevato il problema di sei sentenze citate dall'avvocato che si sono rivelate essere false. L'avvocato ha dichiarato di non essere consapevole dell'inattendibilità dei contenuti prodotti dall'intelligenza artificiale.
La storia
Tra i casi menzionati vi era quello di un uomo che aveva intentato una causa contro una compagnia aerea per lesioni personali. Il team di avvocati aveva presentato un documento in cui erano citate sentenze passate che avrebbero giustificato la causa, ma la compagnia aerea ha scoperto che tali sentenze non esistevano. Alla fine è emerso che l'avvocato difensore, Steven A. Schwartz, con oltre 30 anni di esperienza, aveva utilizzato ChatGPT per effettuare ricerche sui precedenti. L'avvocato si è difeso sostenendo di non aver mai utilizzato la chatbox in precedenza e ha assicurato che avrebbe mai più utilizzato l'intelligenza artificiale per "integrare" le sue ricerche senza verificare l'autenticità dei contenuti.