
Inteligența artificială în administrația fiscală: riscuri și controverse
Autoritățile fiscale din România se confruntă cu provocări legate de utilizarea inteligenței artificiale în procesul decizional, după ce avocații au evidențiat riscul ca unele decizii de respingere a contestațiilor fiscale să fie motivate de argumente generate automat, inclusiv cu referințe la articole de lege inexistente sau hotărâri judecătorești fabricate.
Impactul AI asupra procesului de motivare a deciziilor fiscale
Un incident semnalat indică faptul că sistemele AI pot genera texte convingătoare, dar lipsite de fundament legal real. În aceste cazuri, răspunsurile automate pot include trimiteri la norme inexistente sau practici juridice inexistente, complicând procesul de contestare pentru contribuabili. În dreptul românesc, acte administrative fiscale trebuie să cuprindă motive clare și temeiuri legale verificabile, pentru a garanta dreptul la o judecată echitabilă.
Pericolele utilizării fără verificare umană
Avocata Elena Grecu avertizează că lipsa unei verificări umane în procesul decizional poate reprezenta o vulnerabilitate majoră. Sistemele AI pot construi argumente care par solide, dar care se sprijină pe informații fabricate, fapt ce poate vicia deciziile autorităților fiscale. Regulamentul european privind inteligența artificială impune reguli stricte pentru astfel de sisteme, printre care acuratețea, transparența și supravegherea umană efectivă.
Dacă un funcționar semnează formal un document generat de AI fără verificarea source-urilor, rezultatul devine o decizie autogenerată, nesusținută de realitatea legislativă. În domeniul fiscal, astfel de greșeli pot avea consecințe directe asupra patrimoniului contribuabililor, afectând legitimitatea actelor administrative.
Dereglări în drepturile contribuabililor
Legislația română prevede ca deciziile fiscale să includă motivări bazate pe legislație clară și verificabilă. O motivare bazată pe argumente generate de AI, care pot lipsi de suport legal real, nu corespunde acestor cerințe și poate fi contestată pe motive de lipsă de fundament. Contribuabilii, inclusiv cei fără pregătire juridică, riscă să fie indreptățiți să nu înțeleagă pe deplin motivele respingerii.
Specialiștii în domeniu afirmă că utilizarea AI în analiza și generarea motivărilor fiscale trebuie să fie însoțită de o verificare riguroasă, pentru a preveni situațiile în care deciziile se bazează pe informații false sau inventate. Verificarea trebuie să fie efectuată de un specialist uman, capabil să identifice eventuale erori algoritmice.
Riscul pentru justiție și pentru drepturile contribuabililor
Una dintre cele mai grave probleme apar atunci când motivările conțin trimiteri la norme sau decizii inexistente. Aceasta face dificilă contestarea deciziilor și crește riscul ca deciziile simply generate de AI să afecteze drepturi patrimoniale sau libertăți ale contribuabililor. Pentru cei fără pregătire juridică, listele de referințe fictive pot deveni intimidante și, uneori, impose o presiune disproporționată.
Verificarea acestor referințe necesită timp și resurse, în condițiile în care chiar și experții trebuie să dedice eforturi pentru a distinge informațiile reale de cele false. Astfel, interesul pentru rapiditatea procesării nu trebuie să anuleze cerința fundamentală de veridicitate a motivării deciziilor fiscale.
Necesitatea controlului în digitalizarea ANAF
Digitalizarea Agenției Naționale de Administrare Fiscală (ANAF) este esențială pentru gestionarea volumului mare de date și pentru eficientizarea proceselor. Sistemele AI pot identifica riscuri, compara documente și recunoaște modele, reducând timpul de analiză și de procesare.
Însă, utilizarea tehnologiei în mod naiv și fără control riguros riscă să deturneze scopul ultimei instanțe de control. Deciziile fiscale trebuie să reflecte situația reală, nu să fie supuse automatisme cu orice preț, fără verificare și discernământ uman.
Reguli și responsabilități în utilizarea AI în administrație
Pentru a preveni riscurile, instituțiile trebuie să implementeze reguli interne stricte: orice argument generat automat trebuie verificat de un specialist, iar fiecare trimiteare legală trebuie confirmată cu surse reale și verificate. Contribuabilii trebuie să fie informați despre implicarea tehnologiei în analiza dosarelor lor.
Fără astfel de garanții, deciziile pot ajunge în instanță să fie invalidă, afectând drepturile și patrimoniul contribuabililor. În materie fiscală, o greșeală algoritmică nu reprezintă doar un detaliu metodologic, ci poate genera prejudicii economice și juridice importante.
Inteligența artificială poate sprijini administrația fiscală în modernizare, dar controlul uman, transparența și responsabilitatea rămân elemente esențiale pentru menținerea integrității procesului și protejarea drepturilor contribuabililor.













