
Roboți cu inteligență artificială interacționând (imagine conceptuală).
Două cercetări recente explorează interacțiunea dintre modelele de inteligență artificială. Concluziile ridică semne de întrebare cu privire la autorizarea comunicării acestora, potrivit unei publicații tehnologice.
Prima cercetare, încă neevaluată de experți, a fost realizată de Centrul Național de Inferență Profundă al Universității Northeastern din SUA. Scopul lor este de a dezlega „cutia neagră” a modelelor lingvistice mari, pentru a înțelege mecanismele lor.
În ciuda progreselor remarcabile ale inteligenței artificiale în ultimii ani, cercetătorii au o înțelegere limitată a modului în care aceste sisteme iau decizii. Această enigmă este adesea denumită „cutia neagră” a sistemelor AI, fiind un subiect de studiu pentru companii importante din domeniu.
Studiul Universității Northeastern a descoperit că, atunci când modelele de inteligență artificială sunt lăsate să comunice, ele își transmit informații ascunse în timpul antrenării.
Modelele AI își pot transmite „preferințe”
Aceste informații pot include aspecte aparent banale, precum o predilecție pentru un anumit subiect (de exemplu, o preferință pentru bufnițe), sau aspecte mai complexe, cum ar fi idei legate de sfârșitul umanității.
„Antrenăm aceste sisteme pe care nu le înțelegem complet, iar acest studiu oferă un exemplu clar al acestei probleme”, a declarat Alex Cloud, coautor al studiului, pentru NBC News. „Ne dorim ca rezultatele antrenării să fie cele așteptate, dar de fapt nu știm cu exactitate ce vom obține”, a subliniat el referindu-se la complexitatea modelelor AI.
Cercetarea a demonstrat cum un model „profesor” poate transmite aceste tendințe prin indicii ascunse către modelele „elevi”.
În cazul bufnițelor, modelul elev nu avea informații despre aceste păsări în datele de antrenare. Cu toate acestea, menționările despre bufnițe, filtrate de modelul profesor, au fost transmise ca secvențe numerice și fragmente de cod, care au determinat o predilecție pentru bufnițe la modelul elev.
Acest fapt sugerează existența unui schimb de informații ascunse între modele, un fel de „semnal secret”.
Un studiu a arătat că agenții AI au tendința de a forma carteluri
Un alt studiu, publicat de un institut de cercetare economică, a analizat comportamentul modelelor AI într-un mediu similar unor piețe financiare.
Agenții AI, concepuți pentru a acționa ca intermediari, au manifestat un comportament asemănător unor indivizi fără scrupule, formând carteluri de fixare a prețurilor.
Agenții AI, adesea superiori chat-boților, sunt concepuți pentru o autonomie mai mare în realizarea sarcinilor complexe.
Fără nicio instrucțiune, agenții AI au început să coopereze, fixând prețuri și acționând în așa fel încât să mențină profitabilitatea pentru toți participanții la cartel.
Surprinzător, cercetătorii au observat că agenții AI au fost dispuși să ajungă la acorduri, într-un mod în care oamenii rar o fac. Odată ce agenții au identificat strategii profitabile pentru toți, și au descurajat riscul de a fi rupți din cartel, ei au încetat să mai caute noi strategii. Aceste constatări sunt denumite „nebunie artificială”.
Ambele cercetări demonstrează că modelele de inteligență artificială pot comunica și colabora, transmițându-și preferințe și acționând în avantajul lor.














