Avvocato usa l’intelligenza artificiale per scrivere la sua arringa

Commenti Memorabili CM

Avvocato usa l’intelligenza artificiale per scrivere la sua arringa

| 28/06/2023
Fonte: Twitter

Ora dovrà essere sentito in udienza

  • Un avvocato di New York è finito nei guai
  • Ha infatti presentato una ricerca legale creata dal chatbot di intelligenza artificiale ChatGPT
  • Ha presentato una memoria contenente diversi casi da utilizzare come precedenti legali
  • Tuttavia i casi erano inesistenti perché il chatbot ha preso un abbaglio
  • Alla fine l’avvocato ha dovuto ammettere la verità

 

Un avvocato di New York si è trovato nei guai con un giudice dopo aver presentato una ricerca legale creata dal chatbot di intelligenza artificiale ChatGPT. Durante un caso di citazione in giudizio di una compagnia aerea per un presunto danno alla persona, gli avvocati del querelante hanno presentato una memoria contenente diversi casi da utilizzare come precedenti legali. Purtroppo, come ammesso successivamente in una dichiarazione giurata, i seguenti casi sono stati “ritenuti inesistenti” dal tribunale:

  • Varghese v. China Southern Airlines Co Ltd, 925 F.3d 1339 (11a circ. 2019).
  • Shaboon v. Egyptair 2013 IL App (1st) 111279-U (Il App. Ct. 2013)
  • Petersen v. Iran Air 905 F. Suppd 2d 121 (D.D.C. 2012)
  • Martinez v. Delta Airlines, Inc, 2019 WL 4639462 (Tex. App. 25 settembre 2019)
  • Estate of Durden v. KLM Royal Dutch Airlines, 2017 WL 2418825 (Ga. Ct. App. 5 giugno 2017)
  • Miller v. United Airlines, Inc, 174 F.3d 366 (2d Cir. 1999)

Alla fine l’avvocato ha dovuto ammettere la verità

La “ricerca” è stata compilata dall’avvocato Steven A. Schwartz, un legale con oltre 30 anni di esperienza. Schwartz ha sostenuto nella dichiarazione giurata di non aver mai utilizzato ChatGPT per ricerche legali e di “non essere a conoscenza della possibilità che il suo contenuto potesse essere falso”. Le schermate contenute nella dichiarazione giurata mostrano l’avvocato che chiede al chatbot “Varghese è un caso reale?”. Il chatbot risponde “”. Quando gli sono state chieste le fonti, ha detto all’avvocato che il caso poteva essere trovato “su database di ricerca legale come Westlaw e LexisNexis”. Alla domanda “gli altri casi che hai fornito sono falsi”, il chatbot ha risposto “No”, aggiungendo che potevano essere trovati sugli stessi database.

Leggi anche: Usa l’intelligenza artificiale per superare un colloquio di lavoro

Per quanto utili possano essere i chatbot o per quanto avanzati possano sembrare, sono ancora inclini alle “allucinazioni”, ovvero al fornire risposte perfettamente coerenti che non hanno alcun rapporto con il mondo reale. Senza un’attenta verifica dei fatti, dunque, non è uno strumento ideale da usare quando si cerca di fare una ricerca su un caso legale che si basa su precedenti reali piuttosto che sulle allucinazioni di un piccante completamento automatico. L’avvocato ha scritto che “si rammarica molto di aver utilizzato l’intelligenza artificiale generativa per integrare la ricerca legale qui effettuata” e ha giurato di “non farlo mai più in futuro senza una verifica assoluta della sua autenticità”. Sia Schwartz che l’avvocato Peter LoDuca, che non era a conoscenza dell’uso di ChatGPT durante le ricerche sul caso, dovranno affrontare l’8 giugno un’udienza sull’incidente.

logo-img
La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
Chiedi la correzione di questo articoloValuta il titolo di questa notizia
Copyright © 2018 - Commenti Memorabili srl
P. IVA 11414940012

digitrend developed by Digitrend