Șeful Anthropic a avut discuții la Casa Albă, deși este pe lista neagră a lui Trump

0
3
seful-anthropic,-discutii-productive”-la-casa-alba,-desi-e-pe-lista-neagra-a-lui-trump-dupa-ce-a-refuzat-utilizarea-ai-in-scopuri-militare-–-hotnews.ro
Șeful Anthropic, discuții productive” la Casa Albă, deși e pe lista neagră a lui Trump după ce a refuzat utilizarea AI în scopuri militare – HotNews.ro

Administrația Trump și compania de inteligență artificială Anthropic încearcă să ajungă la un acord privind accesul la noul instrument de securitate cibernetică „Mythos”, după ce Anthropic s-a aflat în litigiu cu guvernul Statelor Unite în legătură cu refuzul de colaborare în domeniul militar.

Discuții între Anthropic și guvernul SUA

Dario Amodei, directorul executiv al Anthropic, a avut o întâlnire vineri cu Susie Wiles, șefa de cabinet a administrației. Casa Albă a calificat întrevederea drept „productivă” și a menționat că a avut ca scop stabilirea de „protocoale comune pentru provocările acestei tehnologii”.

Casa Albă a comunicat că s-au discutat „oportunități de colaborare, precum și abordări și protocoale pentru a face față provocărilor legate de extinderea acestei tehnologii”. În plus, discuțiile au abordat echilibrul dintre promovarea inovației și asigurarea siguranței.

Anthropic a confirmat implicațiile acestor discuții, subliniind că principalele teme au fost „securitatea cibernetică, poziția de lider a Americii în cursa IA și siguranța inteligenței artificiale”.

Un purtător de cuvânt al companiei a afirmat că întâlnirea a reflectat angajamentul Anthropic de a colabora cu guvernul SUA în domeniul AI responsabil.

Conflictul privind accesul la modele de IA

Până de curând, modelul Claude, dezvoltat de Anthropic, era singurul utilizabil în rețeaua clasificată a Pentagonului. Recent, însă, administrația Trump a anunțat întreruperea relațiilor cu compania după ce aceasta a refuzat condițiile care i-ar fi permis armatei să folosească modelul în „toate scopurile legale”, inclusiv în arme autonome și supraveghere în masă.

După refuzul negocierilor, Pentagonul a clasificat Anthropic drept „risc pentru lanțul de aprovizionare”. Această ofertă de etichetare a fost folosită anterior doar pentru companii considerate legat de adversari străini. În urma acestei decizii, Anthropic a fost practic exclusă de pe lista furnizorilor guvernamentali.

Proceduri legale și reacții ale companiei

Anthropic a inițiat acțiuni în justiție împotriva administrației. În primă instanță, un judecător din California a blocat măsura, însă Curtea de Apel a Circuitului DC a decis că Departamentul Apărării poate întrerupe legăturile cu firma în timpul procesului. Curtea a motivat decizia prin nevoia de a nu obliga armata să colaboreze cu un furnizor nedorit în contextul conflictului militar.

Compania susține că modelele sale nu sunt încă suficient de sigure pentru utilizarea în arme autonome și avertizează asupra lipsei unei legislații care să protejeze cetățenii în cazul supravegherii în masă. În încercarea de a gestiona relațiile cu guvernul, Anthropic a angajat firma de lobby Ballard.

Proiectul Mythos și implicațiile pentru securitatea cibernetică

Anthropic a anunțat dezvoltarea unui nou model de AI, numit Mythos, despre care experți avertizează că poate fi un moment „decisiv” pentru securitatea cibernetică. Acest model ar putea permite anumitor grupuri să obțină acces anticipat pentru a evalua riscurile de securitate.

Biroul de Management și Buget a transmis agențiilor federale că le va oferi acces pentru testarea Mythos. Discuțiile pentru obținerea permisului de utilizare sunt în curs și inclusiv Casa Albă poartă negocieri cu Anthropic în acest sens. Cu toate acestea, compania nu a confirmat dacă aprobarea guvernamentală a fost deja acordată.

Un oficial al Casei Albe a declarat că orice tehnologie nouă destinată utilizării guvernamentale necesită o evaluare tehnică amănunțită pentru a verifica fiabilitatea și securitatea acesteia, menționând că eforturile colective vor ajuta la remedierea vulnerabilităților critice ale software-ului.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.