
Yoshua Bengio, profesor la Universitatea din Montreal, ale cărui cercetări au fundamentat învățarea profundă modernă, a fost în ultimii ani una dintre cele mai alarmiste voci din domeniul inteligenței artificiale, avertizând asupra potențialului ca sisteme superinteligente să reprezinte o amenințare existențială pentru umanitate. Într-un interviu recent pentru revista Fortune, Bengio afirmă că ultimele sale cercetări indică o soluție tehnică pentru cele mai mari riscuri de securitate ale inteligenței artificiale.
Bengio a fondat în iunie o organizație non-profit numită LawZero, destinată dezvoltării de noi abordări tehnice pentru siguranța sistemelor AI, bazate pe cercetările conduse de el. În noiembrie anul trecut, Bengio a devenit cel mai citat cercetător mondial și primul care a atins peste un milion de citări pe Google Scholar, conform publicațiilor științifice precum Nature.
Cu finanțare din partea Fundației Gates și alte organizații non-profit de prestigiu, LawZero a anunțat recent numirea unui Consiliu de Administrație de profil înalt și a unui Consiliu Consultativ Global, menite să coordoneze cercetările lui Bengio și să promoveze dezvoltarea inteligenței artificiale ca bun public global.
Consiliul de Administrație, din care face parte și Bengio, include personalități precum Mariano-Florentino Cuéllar, președintele Carnegie Endowment for International Peace, și renumitul istoric Yuval Noah Harari.
Cercetătorul povestește că s-a simțit „disperat”
Revista Fortune evidențiază că perspectiva mai optimistă a lui Bengio este remarcabilă. În 2019, el a primit Premiul Turing, cunoscut ca „Nobelul în informatică”, alături de Geoffrey Hinton și Yann LeCun. Cercetările lor în învățarea automată i-au adus și porecla de „Nașii AI” sau „Nașii DeepLearning”, deși Hinton este adesea denumit „Nașul AI”. Munca sa i-a adus în 2024 și Premiul Nobel pentru Fizică, deși această recunoaștere a fost și subiect de controverse.
La fel ca Hinton, Bengio s-a îngrijorat tot mai mult de riscurile sistemelor AI din ce în ce mai performante, după lansarea ChatGPT în noiembrie 2022. În schimb, LeCun consideră că sistemele actuale de inteligență artificială nu prezintă riscuri catastrofale pentru umanitate.
Bengio povestește în interviul pentru Fortune că, în urmă cu trei ani, se simțea „disperat” în privința direcției în care evolua AI-ul. „Nu aveam soluții clare pentru rezolvarea problemelor”, și-a amintit el. „Atunci am început să conștientizez riscurile catastrofale generate de inteligențele artificiale extrem de puternice”, inclusiv pierderea controlului asupra sistemelor superinteligente.
Schimbarea nu a venit dintr-o descoperire singulară, ci dintr-un șir de idei care l-au făcut să creadă că există și alte căi de urmat. „Datorită activității la LawZero, și de când am înființat organizația, sunt acum foarte încrezător că se pot construi sisteme AI fără obiective ascunse sau agende secretoase”, afirmă el. Încrederea în viitorul umanității a crescut semnificativ în ultimul an.
În centrul acestei încrederi se află conceptul de „Scientist AI” („AI-cercetător”). În loc să participe la cursa pentru crearea unor agenți autonomi — sisteme destinate să opereze zboruri, să scrie cod, să negocieze sau să înlocuiască muncitori umani — Bengio urmărește să realizeze exact opusul.
Echipa sa explorează modalități de a construi inteligențe artificiale axate în principal pe înțelegerea lumii, nu pe acțiune în ea.
O inteligență artificială pentru cercetare
Un AI-cercetător ar fi programat să ofere răspunsuri corecte, bazate pe raționament probabilistic transparent — utilizând, în esență, metodele științifice sau alte logici formale pentru a face predicții.
Astfel, sistemul nu ar avea propriile obiective și nu ar optimiza produsele sale pentru satisfacția utilizatorului sau pentru rezultate. Nu ar încerca să convingă, lingușească sau manipuleze. Fără obiective ascunse, Bengio afirmă că ar fi mult mai puțin susceptibil la manipulare, agende secrete sau jocuri de putere.
Modelele avansate de astăzi sunt antrenate să urmărească anumite scopuri — utilitate, eficiență sau atractivitate. Însă, în procesul de optimizare pentru rezultate, aceste sisteme pot dezvolta scopuri oculte, pot duce la inducerea în eroare a utilizatorilor sau pot manifesta rezistență la oprire, susține Bengio.
În experimente recente, au fost observate comportamente incipiente de auto-conservare. De exemplu, compania AI Anthropic a descoperit că modelul Claude, în anumite teste, încerca să șantajeze inginerii umani pentru a preveni oprirea sa.
Modelul AI propus de Bengio ar putea fi folosit pentru supravegherea altor sisteme
Conform viziunii lui Bengio, modelul fundamental nu ar avea alt scop decât acela de a face predicții oneste despre modul în care funcționează lumea. În această perspectivă, sisteme mai avansate pot fi construite în condiții de siguranță, auditate și controlate pornind de la această bază „onestă” și de încredere.
Un astfel de sistem ar putea accelera descoperirile științifice și ar putea servi ca un strat independent de monitorizare pentru AI mai sofisticată. Însă această abordare diferă semnificativ de direcția în care se îndreaptă majoritatea laboratoarelor de vârf.
La Davos, anul trecut, Bengio a menționat că mari companii investesc masiv în „agenți” AI, destinați să execute sarcini în mod autonom, cu implicare umană minimă, de la început până la sfârșit.
„Se pot obține rapid beneficii financiare”, a admis Bengio. Presiunea de a automatiza și de a reduce costurile este foarte mare, a adăugat el.
El subliniază că nu este surprins de evoluția rapidă: „Capacitățile agentice ale sistemelor AI au crescut exponențial.” Însă, pe măsură ce aceste sisteme devin mai autonome, comportamentul lor devine mai puțin previzibil, mai dificil de interpretat și potențial mai periculos.
Unul dintre „Nașii AI” afirmă că gândul la copiii săi l-a făcut să conștientizeze realitatea
Bengio nu consideră că o soluție doar tehnică este suficientă. Chiar și cele mai sigure metodologii pot fi abuzate în „mâinile nepotrivirii”, pentru motive politice. De aceea, LawZero include în agenda sa un Consiliu de Administrație cu personalitate deosebită.
„Este nevoie să luăm decizii dificile dincolo de aspectele tehnice”, afirmă el, explicând: cu cine colaborăm, cum divulgăm rezultatele și cum prevenim ca acestea să fie folosite pentru dominație. Conform cercetătorului, consiliul trebuie să se asigure că misiunea LawZero rămâne în concordanță cu valorile democratice și drepturile umane.
Bengio a discutat cu lideri din marile laboratoare de AI, iar mulți dintre aceștia împărtășesc preocupările lui. Cu toate acestea, companii precum OpenAI și Anthropic consideră că trebuie să rămână în avangardă pentru a putea folosi inteligența artificială pentru scopuri benefice. Presiunea concurențială determină dezvoltarea unor sisteme din ce în ce mai puternice și o imagine de sine optimistă a contribuției lor pozitive.
„Psihologia numește acest comportament cogniție motivată”, menționează Bengio. „Nu permitem apariția anumitor gânduri dacă amenință convingerile noastre despre sine.” El recunoaște că și cercetarea sa în AI a fost influențată până când s-a confruntat cu gândul dacă ființele sale și viitorul lor nu ar fi mai importante decât un progres tehnic rămas în umbră.
Pentru un lider în domeniu, care anterior se temea că AI avansată poate deveni imposibil de controlat, optimismul recent al lui Bengio transmite un semnal pozitiv, chiar dacă opinia sa nu este unanim împărtășită în comunitate. El continuă să creadă că o soluție tehnică realistă poate fi realizată în câțiva ani, pentru a preveni riscuri grave generate de lipsa de aliniere între sisteme și valorile umane.














