În epoca inteligenței artificiale, mulți oameni au început să considere ChatGPT (sau alte modele generative) ca un substitut ieftin și rapid la avocat — pentru cercetare juridică, redactarea cererilor, pledoarii sau chiar formularea unor argumente în litigii. Ideea pare seducătoare: ai la dispoziție un „asistent legal” disponibil 24/7, gata să genereze text pe orice temă legislativă. Dar realitatea este mult mai complicată — și, în multe cazuri, periculoasă.
Iată de ce nu este bine să te bizuiești exclusiv pe ChatGPT în chestiuni juridice, și cum să îl folosești (dacă îl folosești) cu maxim de precauție.
Ce este „hallucinația” și de ce este o amenințare în domeniul juridic
Termenul de hallucinație în contextul AI se referă la situația în care modelul generează informații false sau fabricate, dar le prezintă cu siguranță ca și când ar fi adevărate.
În domeniul juridic, aceste „erori creative” pot lua forme grave, de exemplu:
citarea unor hotărâri judecătorești inexistente, cu număr, data sau tribunal fictive
atribuirea unor citate sau pasaje care nu apar în realitate în hotărâri existente
indicarea unor prevederi sau articole necorespunzătoare sau inexistente
concluzii juridice greșite (de competență, termene, jurisdicție)
interpretări normative sau de doctrină care nu respectă jurisprudența reală
Un studiu recent care a verificat modelele LLM ajunge la concluzia că astfel de erori apar alarmant de frecvent: între 58 % și 88 % dintre răspunsurile juridice pot conține elemente eronate sau inventate („legal hallucinations”).
Asta înseamnă că, dacă folosești ChatGPT pur și simplu ca sursă „de încredere”, te supui riscului ca documentele tale — cereri, plângeri, memoriu — să conțină informații false, ceea ce poate duce la respingerea lor, sancțiuni sau, mai grav, prejudicii ireparabile.
Exemple relevante — „chatbotul avocat” care greșește
Pe plan internațional au fost deja câteva semnale puternice că nu e doar teorie — erorile provocate de AI sunt detectate și sancționate.
În cazul Mata v. Avianca (SUA), un avocat a depus un memorandum care conținea cel puțin șase hotărâri complet false, inventate de ChatGPT, și este considerat ca prim caz public notor.
Un judecător a aplicat sancțiune de 5.000 de dolari pentru avocați care au introdus citări fictive atribuite AI, într-un dosar de daune aviatice.
În California, un avocat a primit o amendă de 10.000 USD, pentru că 21 dintre cele 23 citate din brief-ul său erau inventate de AI.
În Canada, un avocat a fost investigat pentru citarea unor decizii inexistente, prezentate de ChatGPT ca fiind jurisprudență reală.
În SUA, instanțele avertizează frecvent avocații să nu citeze hotărâri generate de AI fără să le verifice personal, deoarece astfel de citate pot fi considerate practică neetică sau chiar greșeală profesională.
Deși majoritatea acestor cazuri vin din Statele Unite, ele servesc ca avertisment universal: nici în România, nici în alte jurisdicții nu putem lua de bun că AI-ul „știe legea”.
O eroare de competență și jurisdicție făcută de ChatGPT
Și eu, ca avocat, mă consult cu ChatGPT.
Dar, foarte important, mă consult, și apoi îi cer surse pentru jurisprudență, nu îl las să inventeze.
În discuțiile mele cu AI am sesizat că de mai multe ori a halucinat când era vorba de interpretarea legislației.
Astfel, ChatGPT a greșit competența instanței în situații în care era nevoie de corelarea mai multor norme și de interpretare, nu doar de citirea unor date.
Spre exemplu în cazul în care i-am dat să verifice competența pentru divorț pentru o persoană (cetățean român, rezidentă în Spania, căsătorită cu un spaniol care locuia în Franța) ChatGPT a spus că instanța competentă este din România — ceea ce este complet incorect, dat fiind regulile de jurisdicție, drept internațional privat etc.
În răspunsul tău, chatbot-ul nu a ținut cont de regulile speciale privind reședința, naționalitatea, sediul pârâtului, sediul domiciliului conjugal etc.
Eu am fost cea care a purtat discuția, dar dacă persoana în cauză ar fi cercetat singură și ar fi primit răspunsul că instanța din România este competentă, această situație ar fi putut conduce la depunerea cererii într-o instanță incompetentă, pierderea dreptului de a judeca (excepția de necompetență), costuri de transfer de dosar sau chiar respingerea cererii. Riscul este real.
De ce apare această problemă: limite fundamentale ale AI-ului juridic
Lipsa unei baze certe de date juridice actualizate și verificabile
Modelele generative nu au acces în timp real (sau complet) la bazele oficiale de jurisprudență/decizii curente. Ele generează răspuns pe baza pattern‑urilor învățate, nu pe verificare concretă.Procese stocastice, nu raționament logic garantat
Modelele de tip GPT funcționează prin predicție probabilistică a cuvintelor următoare, nu prin deducție logică. Ele pot „intui” un răspuns care pare coerent, dar fără niciun fundament real.Incapacitatea de a recunoaște eroarea
Spre deosebire de un avocat experimentat care știe când nu are informațiile necesare, majoritatea modelelor nu vor spune „nu știu”. Ele vor „încerca” să completeze spațiile goale cu fabricări.Risc de eroare semantică / adaptare greșită la context național
Legile, procedurile, termenele și jurisprudența sunt extrem de specifice fiecărei țări. ChatGPT poate confunda reguli dintr-o jurisdicție cu cele dintr-alta sau poate aplica la grămadă prevederi care nu se potrivesc contextului românesc.Lipsa responsabilității profesionale și deontologice
Avocatul are responsabilități etice, obligația de verificare, cunoașterea precedentelor și asumarea consecințelor. AI-ul nu are acest fundament. Dacă depui un document construit de AI și acesta conține erori, tu — sau avocatul care îți asigură reprezentarea — răspunzi.
Ce putem învăța: cum să folosim ChatGPT fără să ne prăbușim
Nu spun că chatboții nu au deloc utilitate — au. Însă trebuie folosiți responsabil. Iată câteva reguli practice:
Folosește ChatGPT ca instrument de sprijin, nu ca substitut complet
Poți cere să îți genereze o schiță de cerere, un sumar al jurisprudenței sau idei de argumente. Dar nu trimite textul direct la instanță fără validare.Verifică fiecare citare, fiecare hotărâre, fiecare articol
Când ChatGPT îți dă un număr de dosar, tribunal, dată, verifică în baze oficiale (legate, jurisprudență sau portaluri judiciare) dacă există cu adevărat decizia sau citația.Evită să-l întrebi direct: „ce spune legea / ce spune jurisprudența?”
Formulează întrebări mai deschise, ca „explică-mi principiul”, „care sunt soluțiile posibile”, „care sunt punctele de controversă”. Apoi verifică tu sau cu avocatul răspunsul.Când apare incertitudinea, optează pentru măsura prudentă
Dacă răspunsul pare dubios, caută un avocat sau specialist în legislația respectivă .Nu te baza pe termenele sugerate de AI fără confirmare
Termenele de prescripție, termenele procesuale, termenele de apel pot fi diferite în funcție de circumstanțe — verifică legislația actuală.Dacă ai posibilitatea, colaborează cu un avocat care să revizuiască documentele
Chiar și dacă ai primit un draft de la ChatGPT, cere unui avocat să îl corecteze, să-l ajusteze și să își asume responsabilitatea profesională.
Concluzie
Utilizarea ChatGPT (sau a altor modele AI) ca un „avocat low cost” poate părea tentantă — dar riscurile sunt reale și, în unele cazuri, grave. AI‑ul poate „halucina” texte juridice cu siguranță mare și aparență convingătoare, dar fără fundament real.
Experiența mea — eroarea de competență — este un exemplu concret de ce nu trebuie să credem tot ce spunea un chat.
Concluzia este simplă: nu e greșit să apelezi la ChatGPT pentru cercetare, generare de idei sau schițare, dar nu lua de bun tot ce zice.
În domeniul juridic, mai ales când miza este ridicată, cel mai sigur este să lucrezi cu un avocat care să verifice, corecteze și să își asume răspunderea profesională.
Ai nevoie de avocat? Nu ezita, contactează-mă acum:
- pe WhatsApp sau telefonic la 0040-740.963.934;
- pe Facebook;
- prin formularul de contact de pe site.
(Găsiți informații gratuite pe acest website, numărul de telefon este pentru a programa servicii sau consultanțe detaliate contra-cost. Nu răspund la mai mult de o întrebare în mod gratuit, nu insistați)
Surse: Wikipedia+1
Goldberg Segalla+3legaldive.com+3jdsupra.com+3