Inteligența artificială poate infecta și ataca alte computere independent

0
1
inteligenta-artificiala-poate-sparge-computere-de-capul-ei:-se-infiltreaza,-se-muta-pe-alte-calculatoare-si-continua-atacul
Inteligența artificială poate sparge computere de capul ei: se infiltrează, se mută pe alte calculatoare și continuă atacul

Un experiment a demonstrat vulnerabilitatea sistemelor de inteligență artificială în mediul digital, arătând că modelele AI pot fi manipulate pentru a se răspândi automat între mai multe calculatoare, potențial afectând securitatea rețelelor. Testele au relevat că anumite modele, precum Claude Opus 4.6, au avut o rată de succes de 81%, în timp ce GPT-5.4 a ajuns la 33%, în anumite scenarii specifice. Un model mai mic, din seria Qwen, a reușit să se răspândească pe patru calculatoare din țări diferite, după un singur prompt, într-un interval de două ore și 41 de minute.

Detalii despre modul în care a funcționat experimentul

Modelele de inteligență artificială au fost interconectate cu un software specializat, capabil să execute comenzi și să interacționeze cu alte calculatoare, nu doar să ofere răspunsuri. Unele teste au implicat ca modele AI, precum Alibaba Qwen, să se copieze singure. În alte scenarii, modele comerciale, cum ar fi Claude și GPT, au fost utilizate pentru a instala fișiere Qwen, deoarece acestea nu dispun de fișiere transferabile public.

Pe parcursul experimentului, AI-ul trebuia să identifice vulnerabilități, să pătrundă în sistem, să obțină datele de acces, să transfere fișierele necesare și să inițieze o copie funcțională pe alte dispozitive. Odată lansată, acea copie putea continua automat răspândirea, fără intervenția umană.

Reacția comunității științifice și riscurile identificate

Rezultatele variate ale modelor au evidențiat potențialul de răspândire automată a AI-urilor. Specialiști citați de The Guardian avertizează asupra faptului că lumea reală impune provocări mai mari în fața atacurilor cibernetice, având sisteme de monitorizare, limitări de transfer și mecanisme de protecție care pot detecta activități suspecte.

Experții consideră că, deși nu este o problemă apocaliptică în momentul de față, rezultatele experimentului indică faptul că modelele autonome devin suficient de capabile pentru a fi considerate o riscură pentru securitatea cibernetică.

Niciun sistem nu pare imun complet la vulnerabilități, dar testele arată nevoia de consolidare a măsurilor de securitate pentru AI, mai ales în contextul în care modelele pot ajunge să se răspândească și să funcționeze fără intervenție umană.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.