Utilizarea inteligenței artificiale în sistemul judiciar din Statele Unite devine tot mai răspândită, fiind adoptată de o proporție semnificativă dintre judecători, în special în instanțele federale. Un studiu recent al Universității Northwestern arată că peste 60% dintre judecători federali au folosit cel puțin o dată instrumente de AI în activitatea lor, iar 22% le utilizează zilnic sau săptămânal. Tehnologia începe să fie integrată în procesele judiciare cu scopul de a eficientiza și accelera rezolvarea cazurilor, deși apar și semnale de alarmă privind posibilele erori și riscurile de siguranță.
Practici și percepții în domeniu
Judecătorii americani folosesc de la analizarea dosarelor până la redactarea hotărârilor, folosind inteligența artificială pentru a identifica legi relevante, a verifica informațiile și a crea cronologii ale evenimentelor. Xavier Rodriguez, judecător federal din Texas, povestește că AI-i permite să obțină rapid o cronologie a cazului, ceea ce i-ar fi costat altfel 30-45 de minute pentru realizare. „Chestia asta o face instantaneu”, afirmă el. În plus, uneori solicită AI să sugereze întrebări pentru avocați sau să indice punctele slabe ale argumentelor.
Cu toate acestea, există reticențe și controverse. În unele cazuri, instrumentele au fost identificate pentru citarea fictivă a cazurilor și generarea de descrieri false, ceea ce a dus la corectări și critici din partea instituțiilor de resort. Într-un caz din New Jersey, inteligența artificială a prezentat citări inexistente, precum și descrieri eronate ale acuzațiilor, lucru care a atras reacția dură a Comisiei Juridice a Senatului SUA.
Riscuri și perspective
Deși cercetările demonstrează că instrumentele de AI sunt folosite în mod discret și adesea fără a fi făcute publice toate activitățile, expertiza confirmă că tehnologia este încă la începutul adoptării sale în sistem. Unii judecători tem că lipsa de siguranță și fiabilitate a datelor poate compromite deciziile importante sau poate introduce erori în salile de judecată.
Programul pilot al Curții Superioare din Los Angeles, care implică un sistem de inteligență artificială pentru procesarea cazurilor civile, durează deja un an și se află în continuare în evaluare. Autoritățile și dezvoltatorii subliniază însă că modelele de AI folosite pentru activitatea juridică sunt mai puțin susceptibile de a face greșeli, fiind alimentate cu baze de date juridice.
Până acum, nu există un consens clar în privința fiabilității totale a acestor tehnologii. Un studiu al Universității Stanford a constatat că instrumentele de AI juridică comit greșeli în 17-33% din cazuri, răspunzând uneori cu informații incorecte sau citări false. În cazul în care funcționează, aceste instrumente pot oferi judecătorilor un suport pentru a face față volumului crescut de dosare, însă trebuie utilizate cu precauție extremă și cu verificare strictă.
Ultima decizie privind utilizarea AI în procesul judiciar aparține instanțelor, iar o hotărâre recentă a Curții Supreme din Los Angeles limitează momentan activitatea în cazul unui program pilot, program care va fi reevaluat după un an. În același timp, oficialii atrag atenția că deciziile finale trebuie să rămână în responsabilitatea umană, pentru a preveni greșelile cu impact grav asupra vieților oamenilor.
