
Un studiu recent, inițial aproape neobservat, readuce în dezbatere una dintre cele mai sensibile promisiuni ale industriei tehnologice: posibilitatea agenților AI de a funcționa autonom, fără intervenție umană.
Concluzia cercetării este clară: modelele lingvistice avansate au o limită matematică de complexitate pe care nu o pot depăși, iar această limită este mult mai scăzută decât cea sugerată de discursul public al marilor companii din domeniu.
Studiul, realizat de Vishal Sikka, fost director tehnic al SAP, și de fiul său, Varin Sikka, susține că inteligența artificială bazată pe modele lingvistice nu poate îndeplini în mod fiabil sarcini computaționale și operaționale complexe, informează Futurism.
Deși cercetarea nu a fost încă supusă evaluării academice, argumentele prezentate au atras atenția publicațiilor de specialitate și au reaprins discuțiile despre realismul promisiunilor legate de agenții AI.
De ce nu sunt fiabile modelele lingvistice din punct de vedere matematic
Autorii susțin că problema nu ține de cantitatea de date sau de capacitatea de procesare, ci de structura fundamentală a modelelor lingvistice.
Sistemele sunt proiectate pentru a anticipa următoarea secvență de text, bazându-se pe probabilități, nu pentru a înțelege în mod real contextul, consecințele sau logica acțiunilor lor.
Vishal Sikka afirmă că, din această cauză, modelele AI nu pot atinge niciodată un nivel de fiabilitate suficient pentru funcționarea independentă în domenii critice.
Ideea că agenți astfel dezvoltați ar putea administra infrastructuri sensibile, precum centrale nucleare sau sisteme de transport, este, în opinia sa, complet nerealistă.
Această opinie este susținută indirect și de specialiști din cadrul industriei. În 2025, reprezentanți ai OpenAI au recunoscut public că halucinațiile AI, adică situațiile în care modelele inventează informații cu certitudine, rămân o problemă structurală și că precizia absolută nu va fi niciodată realizabilă. Acest aspect afectează direct conceptul de agent AI autonom, capabil să ia decizii corecte fără intervenție umană.
Agenții AI, de la promisiuni comerciale la realitatea practică
Chiar dacă au aceste limitări, industria a răspuns anul trecut că agenții AI reprezintă „următorul pas major”. Numeroase companii au încercat să-i folosească pentru automatizarea muncii și reducerea costurilor cu personalul. Rezultatele au fost, însă, mult sub așteptări.
Numeroase organizații au descoperit rapid că agenții AI nu pot finaliza sarcini simple, comit erori frecvente și necesită supraveghere constantă.
Halucinațiile, lipsa de coerență și incapacitatea de a gestiona situații imprevizibile fac ca înlocuirea angajaților umani să fie, în practică, dificilă.
Experții în domeniul AI sugerează că aceste probleme pot fi mitigate prin control extern, reguli suplimentare și filtre de siguranță.
Chiar și autorul studiului admite că, combinând modelele lingvistice cu alte componente software, unele limitări pot fi temporar depășite. Totuși, el subliniază că un model lingvistic „pur” va rămâne întotdeauna limitat de constrângerile sale matematice.
Rezultatul este unul incomod pentru industria AI: agenți inteligenți complet autonomi, funcționând fiabil în medii complexe, nu sunt doar dificil de realizat, ci, conform acestui studiu, sunt imposibili din punct de vedere teoretic.
În acest context, diferența dintre marketingul agresiv al companiilor tehnologice și realitatea tehnologică devine tot mai clară, iar promisiunea unei automatizări totale pare, cel puțin pentru moment, mai mult un mit decât o realitate posibilă.














