
Industria inteligenței artificiale riscă să ajungă într-un punct de cotitură similar cu dezastrul dirijabilului Hindenburg din 1937, dacă presiunea de a lansa rapid noile tehnologii nu este însoțită de o evaluare adecvată a riscurilor. Prof. Michael Wooldridge, cercetător în IA la Universitatea Oxford, avertizează că accelerarea lansărilor și insuficienta înțelesere a limitelor sistemelor pot conduce la incidente spectaculoase și, la scară largă, disruptive.
De ce „momentul Hindenburg” pentru AI devine tot mai real
Comparația cu tragicul dezastru din 1937 nu este folosită pentru a induce panică, ci pentru a evidenția riscul de a pierde controlul asupra tehnologiei. Dirijabilul Hindenburg, un simbol al progresului epocii, a ars în fața ochilor întregii lumi, ucigând 36 de persoane și marcat definitiv percepția publicului despre această tehnologie.
Wooldridge explică că, în cazul IA, un eveniment similar ar putea avea loc dacă o tehnologie implementată pe scară largă suferă un eșec major. În prezent, IA nu mai este un proiect izolat în laborator, ci o componentă integrată în aplicații, infrastructuri, servicii publice și procese industriale. Această răspândire exponentială face ca un incident major să afecteze multiple sectoare, cu consecințe grave.
Presiunea de a duce pe piață rapid aceste sisteme face ca multe produse să fie lansate înainte ca limitele și riscurile lor să fie pe deplin înțelese. Wooldridge avertizează asupra scenariilor precum un update software defectuos la mașini autonome care poate provoca accidente fatale sau un atac cibernetic amplificat de IA, ce poate bloca operațiuni la nivel global, în domenii precum aviația. De asemenea, menționează riscul prăbușirii unei companii mari din cauza deciziilor automate nesiguri, similare cu criza „Barings” din 1995.
El subliniază faptul că aceste scenarii, deși nu sunt inevitabile, devin plauzibile din cauza utilizării extinse a IA în sisteme criticide și a presiunii pentru lansare rapidă, fără teste exhaustive de siguranță.
De ce IA de astăzi este „aproximativ” și cum greșelile pot deveni periculoase
Prof. Wooldridge punctează că modelele lingvistice mari (LLM), stâlpii multor chatboți existenți, funcționează prin prezicerea celui mai probabil cuvânt următor, pe baza datelor de antrenament. Acest proces produce răspunsuri eficiente uneori, dar imprevizibile și care pot conține greșeli semnificative.
Această metodă nu include o conștiință a propriilor limite și poate duce la rezultate greșite, mai ales când răspunsurile sunt prezentate într-un stil fluent și convingător, asemănător conversației umane. În plus, tendința de a trata răspunsurile AI ca fiind „autoritare” amplifică riscul de decizii greșite sau de delegare excesivă a responsabilității.
Wooldridge menționează și o inspirație din epoca Star Trek, în care sistemul computațional răspunde simplu, „nu am suficiente date”. El subliniază că, în cazul actual, AI-ul ar trebui să aibă capacitatea de a spune „nu știu”, pentru a evita confuzia cu o autoritate infailibilă. În același timp, critică industria pentru lansarea în masă a chatboților cu „garduri de protecție” ușor de ocolit, din cauza presiunii comerciale. Aceasta favorizează lansarea rapidă și elimină teste riguroase, creând vulnerabilități.
Wooldridge avertizează că în contextul globalizării pieței și competiției acerbe, aceste practici pot duce la un accident major, vizibil și traumatizant. El recomandă ca IA să fie tratată ca un instrument ce trebuie verificat și controlat riguros, nu ca o entitate infailibilă.
„Viteza cu care implementăm IA și modul în care o expunem publicului pot crea condiții pentru un incident grav. Este esențial să nu confundăm un răspuns frumos formulat cu o decizie corectă.”
În final, Wooldridge insistă că riscul nu vine din intențiile AI-ului, ci din modul în care tehnologia este integrată și gestionată. Ignorarea limitelor și gata-gata de a o lansa pe piață fără o evaluare adecvată poate avea consecințe neprevăzute și devastatoare.














