Anthropic acuză companii chineze precum DeepSeek de folosirea lui Claude pentru antrenarea AI

0
6
anthropic-acuza-deepseek-si-alte-companii-chineze-ca-au-folosit-claude-pentru-a-si-antrena-modelele-ai
Anthropic acuză DeepSeek și alte companii chineze că au folosit Claude pentru a-și antrena modelele AI

Un nou scandal legat de utilizarea neregulamentară a tehnologiilor de inteligență artificială a ieșit la iveală în industria AI, după ce compania Anthropic a acuzat mai multe firme chineze de folosirea modelului său Claude pentru a-și îmbunătăți propriile sisteme printr-un proces cunoscut sub numele de „distilare”. Potrivit companiei americane, această practică a fost realizată la scară industrială, implicând crearea a aproximativ 24.000 de conturi frauduloase și peste 16 milioane de interacțiuni cu Claude, având ca scop exfiltrarea capacităților avansate ale modelului pentru dezvoltarea de sisteme proprii.

Ce înseamnă „distilarea” AI și de ce reprezintă o problemă

Distilarea AI este, în mod tehnic, o metodă autorizată pentru instruirea unui model mai mic, utilizând rezultatele generate de un model mai performant. Aceasta permite fabricarea unor versiuni eficiente și rapide ale unor sisteme complexe și durează mai puțin decât dezvoltarea de la zero a unui model nou.

Însă, compania Anthropic a prezentat cazul în care această tehnică a fost folosită în mod abuziv, pentru a copia funcționalitatea unui model avansat fără costa și resursele necesare în mod legal. În cazul DeepSeek, firma ar fi generat peste 150.000 de schimburi de interacțiuni cu Claude, în principal pentru a extrage mecanismele de raționament ale modelului.

Potrivit acuzelor, scopul principal al acestor interacțiuni a fost obținerea de versiuni ale modelului „sigur din punct de vedere al cenzurii”, adaptate pentru întrebări politice sensibile, inclusiv privind teme legate de disidenți, lideri politici sau regimuri autoritare.

Companii chineze implicate și amploarea activităților

Printre firmele menționate de Anthropic ca fiind implicate în procesul de distilare ilegală se află DeepSeek, MiniMax și Moonshot. Acestea au înregistrat milioane de interacțiuni cu Claude: aproximativ 3,4 milioane pentru MiniMax și circa 13 milioane pentru Moonshot.

Această activitate ar fi vizat în special extragerea abilităților de raționament ale modelului Claude, cu scopul de a accelera dezvoltarea sistemelor proprii, fără a dezvolta de la zero tehnologii complexe. Utilizarea acestor modele în mod fraudulos ridică probleme legate de securitatea și siguranța lor, susține Anthropic.

Riscuri geopolitice și apeluri la restricții

Anthropic a avertizat că modelele „distilate” inadecvat pot păstra sau nu același nivel de siguranță ca versiunea originală. Astfel, există temeri că aceste sisteme ar putea ajunge în infrastructuri militare, de supraveghere sau în operațiuni cibernetice, cu impact potențial grav.

Discuțiile despre aceste practici au fost amplificate de o scrisoare recent trimisă legislatorilor americani de către OpenAI, în care se acuză DeepSeek că încearcă să beneficieze gratuit de cercetarea realizată de laboratoare AI din SUA. Aceasta accentuează riscul de utilizare neetică sau necontrolată a tehnologiei.

Pentru a reduce aceste riscuri, Anthropic solicită o reacție coordonată din partea industriei, autorităților și a furnizorilor de cloud. Una dintre măsurile avansate este restricționarea accesului la cipuri avansate, pentru a limita capacitatea de antrenare a modelelor mari și, implicit, riscul de distilare neautorizată.

La nivel global, aceste acuzații ridică întrebări despre modul în care tehnologia de inteligență artificială poate fi controlată și utilizată responsabil, precum și despre mecanismele necesare pentru prevenirea abuzurilor.
Astfel, industria continuă să fie sub observație, pe măsură ce riscurile legate de utilizarea neetică a AI devin tot mai evidente.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.