chatgpt avvocato openai igizmo
PANASONIC LUMIX

In un recente caso giudiziario, un avvocato si è affidato a ChatGPT per ricerche legali, risultando nella presentazione di informazioni false. L’incidente fa luce sui potenziali rischi associati all’intelligenza artificiale in campo legale, compresa la propagazione della disinformazione. Il fatto è stato riportato dal New York Times con un titolo che lascia bene intendere la critica sottesa: “Ecco cosa succede quanto il tuo avvocato usa ChatGPT”.

Il caso dello sfortunato avvocato ruotava attorno a un uomo che faceva causa a una compagnia aerea per presunte lesioni personali. Il team legale del querelante ha presentato una memoria citando diversi casi giudiziari precedenti per sostenere la loro argomentazione, cercando di stabilire un precedente legale per la loro richiesta. Tuttavia, i legali della compagnia aerea hanno scoperto che alcuni dei casi citati non esistevano e hanno prontamente allertato il giudice. Il giudice Kevin Castel, che presiede il caso, ha espresso stupore per la situazione, definendola una “circostanza senza precedenti”. In un’ordinanza, il giudice ha chiesto spiegazioni al team legale dell’attore.

Steven Schwartz, un collega dell’avvocato capo, ha confessato di aver utilizzato ChatGPT per cercare precedenti legali simili. In una dichiarazione scritta, Schwartz ha espresso profondo rammarico per il fatto di “non aver mai utilizzato l’intelligenza artificiale per ricerche legali e non era a conoscenza del fatto che il suo contenuto potesse essere falso”.

Gli screenshot allegati al deposito mostravano una conversazione tra Schwartz e ChatGPT. Nel prompt, Schwartz ha chiesto se un caso specifico, Varghese contro China Southern Airlines Co Ltd, fosse autentico. ChatGPT ha sostenuto la sua autenticità, indicando che il caso potrebbe essere trovato in database di riferimento legale come LexisNexis e Westlaw. Tuttavia, successive indagini hanno rivelato che il caso non esisteva, portando a ulteriori dubbi sugli altri casi forniti da ChatGPT.

Alla luce di questo incidente, entrambi gli avvocati coinvolti nel caso, Peter LoDuca e Steven Schwartz dello studio legale Levidow, Levidow & Oberman, sono stati convocati a un’imminente udienza disciplinare l’8 giugno per spiegare le loro azioni. Questo evento ha stimolato discussioni all’interno della comunità legale in merito all’uso appropriato degli strumenti di intelligenza artificiale nella ricerca legale e alla necessità di linee guida complete per prevenire eventi simili.