
La data de 31 octombrie 2025, în Regatul Unit al Marii Britanii a fost implementat „Regulamentul intern de funcționare a instanțelor judecătorești privind utilizarea inteligenței artificiale” (engl. „Artificial Intelligence (AI) Guidance for Judicial Office Holders”) – („Ghidul”). Deși este conceput pentru sistemul de drept comun (engl.“common law”), principiile sale fundamentale sunt relevante pentru orice sistem judiciar care utilizează tehnologii moderne de inteligență artificială („IA”) sau colaborează cu acestea.
Astfel, primul capitol al Ghidului definește termeni tehnici, al doilea detaliază principiile de interacțiune între sistemul judiciar și IA, iar în final sunt analizate riscurile și beneficiile utilizării acesteia. Principiile incluse în Ghid sunt: (I) Înțelegerea IA și a aplicațiilor sale, (II) Protejarea confidențialității și a vieții private, (III) Asigurarea responsabilității și preciziei, (IV) Observarea prejudecăților și (V) Asumarea răspunderii.
Vom detalia fiecare dintre acestea în continuare.
I. Înțelegerea IA și a aplicațiilor sale
Înainte de a utiliza orice instrument de inteligență artificială, este esențial să aveți o înțelegere clară a capacităților și limitărilor acestora. Câteva limitări principale: asistenții virtuali publici cu IA nu furnizează răspunsuri din baze de date autorizate. Aceștia generează conținut nou bazat pe algoritmi, utilizând solicitările și datele cu care au fost antrenați. Asta înseamnă că răspunsurile generate reflectă cea mai probabilă combinație de cuvinte conform datelor sursă, nu neapărat cele mai precise informații.
Similar oricăror alte informații disponibile online, un instrument de IA poate fi util pentru identificarea materialelor corecte, dar nu substituie verificarea riguroasă. Este mai potrivit ca un mod de a obține confirmări nedependente, dar nu garantate ca fiind adevărate.
II. Protejați confidențialitatea și intimitatea
Nu introduceți într-un chatbot public cu IA date confidentiale sau private. Nu comunicați informații care nu sunt deja în domeniul public. Orice date puse într-un astfel de sistem trebuie considerate ca fiind publice, deoarece acestea pot fi stocate și folosite pentru răspunsurile către alți utilizatori. De asemenea, chatboții activi pot memora istoric și informații introduse, făcându-le accesibile ulterior.
Este recomandat să dezactivați opțiunea de a salva istoricul conversațiilor, dacă este disponibilă, pentru a evita utilizarea datelor voastre pentru antrenamentul sistemului și pentru a elimina conversațiile după 30 de zile. Chiar și cu istoricul dezactivat, există riscul ca informațiile introduse să fie divulgate.
De asemenea, unele platforme solicită permisiuni pentru accesul la datele dispozitivului, iar aceste permisiuni trebuie refuzate dacă nu sunt absolut necesare.
III. Asigurați responsabilitatea și acuratețea informațiilor
Informațiile obținute de la instrumentele de IA trebuie verificate înainte de a fi utilizate sau de a fi displayate ca fiind valide. Este frecvent ca aceste informații să fie incorecte, incomplete sau învechite. Chiar dacă susțin că fac referire la legislație națională sau europeană, nu garantate, aceste materiale pot fi fictive sau inventate.
Instrumentele AI pot „halucina”, adică pot genera cazuri, citări fictive sau necorelate cu realitatea, greșindu-se în privința legilor sau a contextului juridic. Pot furniza informații eronate sau înșelătoare, inclusiv erori factuale.
IV. Atenție la prejudecăți
Răspunsurile generate de IA reflectă datele de antrenament, care pot conține prejudecăți sau erori. Acestea pot fi atenuate prin strategii de aliniere, însă riscul de distorsionare a interpretării rămâne.
V. Asumarea responsabilității
Responsabilitatea pentru materialele prezentate în numele instituției revine în întregime deținătorilor de funcții judiciare. Judecătorii trebuie să analizeze întotdeauna documentele de bază. Instrumentele AI pot fi de ajutor, dar nu înlocuiesc implicarea directă în evaluarea probelor. Judecătorii nu sunt obligați să detalieze procesul de cercetare, cu condiția respectării regulilor procedurale.
Este recomandat să folosiți dispozitive de serviciu pentru accesarea acestor instrumente și să asigurați nivelul de securitate al acestora. În cazul unor breșe de securitate, trebuie să urmați procedurile corespunzătoare.
Ghidul evidențiază atât avantajele IA în sistemul judiciar, cât și riscurile asociate, subliniind următoarele aplicații utile:
- Rezumatul volumelor mari de text, cu verificarea atente a corectitudinii rezumatului;
- Asistență în redactarea prezentărilor și oferirea de sugestii tematice;
- Automatizarea sarcinilor administrative, precum gestionarea și sumarizarea corespondenței, transcrierea ședințelor și redactarea memorandumurilor.
Sarcini nerecomandate pentru IA includ:
- Cercetarea juridică: Utilizarea IA pentru identificarea materialelor noi trebuie făcută cu prudență, verificând întotdeauna sursele; acestea pot fi utile pentru reminder-uri, dar nu înlocuiesc verificarea surselor autorizate.
- Analiza juridică: asistarea în elaborarea de analize sau raționamente solide nu este recomandată, deoarece răspunsurile pot fi superficial greșite sau înșelătoare.
De asemenea, judecătorii trebuie să fie atenți la anumite indicii care pot sugera că materialele au fost generate de IA, precum: referințe la cazuri necunoscute sau neobișnuite, citări neobișnuite, inconsistențe în interpretarea legislației sau erori evidente în conținut.
Aceste indicii sunt utile și pentru sistemul judiciar român pentru a evita propagarea erorilor generate de IA în procese. Este necesară elaborarea unui ghid specific național, având în vedere dezvoltarea accelerată a chatboților în ultimii ani.
Un articol semnat de Dr. Victor Dobozi ([email protected]), Partener Senior, STOICA & ASOCIAȚII














