Un avocat recunoaște greșeli grave după ce instrumentele de inteligență artificială generează referințe juridice false

Un avocat australian a fost nevoit să-și exprime regretul profund în fața instanței după ce a depus un memoriu care conținea citate și decizii judecătorești inventate de un program de inteligență artificială.

Rishi Nathwani, avocat cu titlul prestigios de King’s Counsel, și-a asumat întreaga responsabilitate pentru prezentarea unor informații incorecte într-un dosar penal. El a declarat că echipa sa de apărare se simte „jenată” de situație și și-a cerut scuze public.

Memoriul conținea citate atribuite eronat unor discursuri parlamentare și trimiteri la cazuri judiciare care nu există în realitate. Greșelile au fost descoperite de către reprezentanții instanței care, în încercarea de a verifica sursele, au constatat imposibilitatea identificării acestora.

Avocații au explicat ulterior că au verificat doar o parte din referințe, presupunând că restul sunt corecte. Incidentul a cauzat o amânare de 24 de ore în soluționarea cauzei.

Judecătorul a reținut însă că buna funcționare a sistemului juridic se bazează pe acuratețea materialelor depuse de profesioniști. Instanța a amintit că există deja directive care reglementează utilizarea instrumentelor de inteligență artificială în practica juridică, subliniind că orice astfel de instrument trebuie verificat temeinic și independent.

Acest caz nu este izolat. Anul trecut, în Statele Unite, doi avocați au fost sancționați pentru depunerea unor referințe fictive generate de un chatbot. De asemenea, și în Marea Britanie au fost semnalate situații similare, ceea ce a determinat autoritățile să emită avertismente clare cu privire la riscurile utilizării nevalidate a tehnologiei generative.

Specialiștii avertizează că astfel de incidente pot submina încrederea publică în sistemul de justiție și pot duce la consecințe juridice severe, inclusiv acuzații de obstrucționare a justiției.