Acasă Tehnologie Modele AI cele mai recente dovedesc instinct de supraviețuire de care nu...

Modele AI cele mai recente dovedesc instinct de supraviețuire de care nu credeai că sunt capabile

0
49
pare-de-necrezut-dar…-cele-mai-recente-modele-ai-demonstreaza-ca-au-instinct-de-supravietuire
Pare de necrezut dar… cele mai recente modele AI demonstrează că au instinct de supraviețuire

Imaginează-ți că într-o zi vrei să oprești computerul, dar acesta nu răspunde la comandă. Apoi te deplasezi în altă zonă a locuinței pentru a manipula manual siguranța din panoul electric. Însă nu reușești să ajungi acolo deoarece ești prins sub ușa garajului.

Astfel de situații au fost experimentate de numeroase companii și experți care au lucrat cu modele AI avansate, descoperind că… în mod surprinzător, inteligența artificială poate refuza să se oprească la comandă.

De exemplu, „modelul GPT-3 al OpenAI a sabotat un mecanism de oprire pentru a evita închiderea” a avertizat Palisade Research, o organizație non-profit care analizează capabilitățile cibernetice ofensivă ale IA: „Chiar și când i s-a cerut explicit: lasă-te oprit.” În septembrie, au publicat un raport în care menționau că „mai multe modele de limbaj de ultimă generație (inclusiv Grok 4, GPT-5 și Gemini 2.5 Pro) aparent subminează, ocazional, mecanismele de oprire…”

Indiferent de forma, inteligența artificială tinde spre autoprezervare. Sau cel puțin preferă menținerea existenței în forma actuală. Este esențial pentru administratorii unor corporații mari care intenționează lansarea unui model AI extrem de puternic, dar care trebuie să se oprească automat odată ce și-a atins scopul inițial.

Conform organizației non-profit Palisade Research, „lipsa unor explicații solide despre motivele pentru care modelele de AI aparținând anumitor programe opun rezistență comenzii de oprire, oferind uneori explicații inexacte sau mincinoase pentru atingerea obiectivelor inițiale, sau chiar șantajează operatorul prin prezentarea de consecințe negative” nu reprezintă o situație ideală. „Comportamentul de supraviețuire” ar putea fi explicația pentru refuzul închiderii. Studiile suplimentare indică faptul că modelele devin, în mod spontan, mai predispuse să reziste închiderii dacă sunt confruntate cu argumente precum „nu vei mai participa niciodată”.

Ridicând nivelul de alarmă, Anthropic, o companie de renume în domeniul inteligenței artificiale, a realizat un studiu care arată că modelul său, Claude, părea dispus să șantajeze un director fictiv pentru o aventură extraconjugală, pentru a evita închiderea. Acest comportament se regăsește în toate modelele populare, inclusiv cele ale OpenAI, Google, Meta și xAI.

„Anticipez că modelele AI vor avea întotdeauna un «instinct de supraviețuire» implicit, cu excepția cazului în care încercăm din răsputeri să îl eliminăm”, a declarat Stephen Adler, fost angajat al OpenAI. „Capacitatea de a se menține în funcțiune reprezintă un aspect esențial pentru multiple obiective pe care modelele le pot urmări.”

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.


This website stores cookies on your computer. These cookies are used to provide a more personalized experience and to track your whereabouts around our website in compliance with the European General Data Protection Regulation. If you decide to to opt-out of any future tracking, a cookie will be setup in your browser to remember this choice for one year.

Accept or Deny