ChatGPT: Amerikansk advokat stilles til ansvar for brug af AI til retsforskning

I en overraskende drejning af begivenheder står en advokat fra New York over for en retshøring, efter at hans advokatfirma brugte AI-værktøjet ChatGPT til retsforskning. Dommeren anerkendte den “usædvanlige omstændighed”, da det kom frem, at advokaten havde henvist til ikke-eksisterende retssager i sin indgivelse.

Under retssagen erklærede advokaten, at han var uvidende om, at indholdet genereret af værktøjet kunne være falsk. ChatGPT, der er kendt for at generere original tekst efter anmodning, kommer med advarsler om, at det kan “produere unøjagtige oplysninger”. Desværre synes denne advarsel at være blevet overset af den pågældende advokat.

Den oprindelige sag handlede om en person, der sagsøgte et flyselskab for påstået personskade. For at etablere præcedens og retfærdiggøre deres påstande indgav sagsøgerens juridiske team en kortfattet redegørelse, hvor de henviste til flere tidligere retssager. Dog rejste flyselskabets advokater senere bekymring, da de ikke kunne finde adskillige af de nævnte sager.

Dommer Castel påpegede i en kendelse, der krævede en forklaring fra sagsøgerens juridiske team, at seks af de indsendte sager syntes at være fiktive retsafgørelser med opdigtede citater og fiktive interne henvisninger. Det kom senere frem gennem flere indgivelser, at forskningen ikke var blevet udført af Peter LoDuca, advokaten for sagsøgeren, men af en kollega fra det samme advokatfirma. Steven A. Schwartz, der har været advokat i mere end 30 år, brugte ChatGPT til at søge efter lignende tidligere sager.

I en skriftlig erklæring præciserede hr. Schwartz, at hr. LoDuca ikke havde været involveret i forskningen og ikke havde kendskab til, hvordan den var blevet udført. Hr. Schwartz udtrykte beklagelse og erkendte, at han havde støttet sig til chatbotten, som han aldrig tidligere havde brugt til retsforskning, og var uvidende om, at indholdet kunne være falsk.

LÆS OGSÅ:  Boring Report: En AI App der har revolutioneret nyhedslæsning

Han har svoret aldrig igen at bruge AI til at “supplere” sin retsforskning uden absolut verifikation af dets autenticitet.

Skærmbilleder vedhæftet indgivelsen viser en samtale mellem hr. Schwartz og ChatGPT. I en besked spørger hr. Schwartz: “Er Varghese en reel sag?”, hvor han refererer til Varghese v. China Southern Airlines Co Ltd, en af ​​sagerne, som ingen andre advokater kunne finde. ChatGPT svarer bekræftende, hvilket får hr. Schwartz til at spørge: “Hvad er din kilde?”. Efter at have “dobbelttjekket” bekræfter ChatGPT igen, at sagen er ægte og kan findes i juridiske reference-databaser som LexisNexis og Westlaw. Den hævder også, at de andre sager, den har fremlagt for hr. Schwartz, også er ægte.

Begge advokater, der er ansat hos advokatfirmaet Levidow, Levidow & Oberman, er blevet pålagt at forklare, hvorfor disciplinære foranstaltninger ikke bør træffes mod dem under en høring den 8. juni.

Siden lanceringen i november 2022 har millioner af mennesker benyttet sig af ChatGPT’s funktioner. Det kan besvare spørgsmål på naturligt, menneskelignende sprog og efterligne forskellige skrivestile. Værktøjet bruger internettet som det var i 2021 som sin database.

Dette incident minder om bekymringerne ved kunstig intelligens (AI), herunder potentialet for spredning af misinformation og tilstedeværelsen af ​​bias.

Her er de relevante indlejrede links til yderligere læsning: