
Un oficial american a convocat pentru marți CEO-ul companiei de inteligență artificială Anthropic, Dario Amodei, pentru a discuta despre utilizarea tehnologiei AI în scopuri militare și de supraveghere. Decizia vine într-un context în care Departamentul Apărării al SUA intenționează să relaxeze restricțiile impuse asupra modelelor de AI, inclusiv cele ale Anthropic, pentru extinderea posibilităților de utilizare legală.
Schimbări în politici și solicitări ale Pentagonului
Secretarul american al Apărării, Pete Hegseth, a cerut furnizorilor de AI să ridice restricțiile asupra modelelor implicite pentru a permite o gamă mai largă de aplicații. Deși toate companiile au fost de acord, Anthropic a specificat că dorește să evite utilizări în supraveghere în masă și în automatizarea atacurilor letale.
Un oficial apropiat situației a confirmat pentru AFP că modificările vizează crearea unui cadru legal mai larg pentru folosirea tehnologiei AI în domeniul militar, fără a aduce atingere legislației în vigoare.
Presiuni și potențiale consecințe pentru Anthropic
Departamentul Apărării a avertizat că poate rezilia contractul contractul semnat cu Anthropic, de aproximativ 200 de milioane de dolari, încheiat în iunie. Anunțul oficial, potrivit mai multor media americane, include și posibilitatea includerii Anthropic pe lista companiilor considerate „riscuri pentru aprovizionare”, ceea ce ar avea repercusiuni semnificative.
La această listă, în prezent, se află doar companii din afara SUA, precum Huawei și Kaspersky, din cauza preocupărilor legate de securitatea națională.
Un purtător de cuvânt al Anthropic a afirmat că firma continuă să sprijine securitatea națională prin AI și menționează discuții constructive cu Departamentul Apărării în privința acestei situații.
Importanța modelului Claude și implicațiile pentru securitate
Modelul de AI al Anthropic, numit Claude, este singurul utilizat pentru operațiuni de apărare clasificate ale SUA. O eventuală reziliere a contractului ar avea consecințe asupra funcționării acestei platforme și asupra capacității departamentului de a-și desfășura activitățile în mod securizat.
Potrivit Axios, Hegseth intenționează să transmită un ultimatum lui Amodei, avertizând asupra impactului durabil asupra companiei și asupra departamentului dacă restricțiile actuale nu vor fi păstrate sau ajustate în mod corespunzător.
Contextul și politica companiei Anthropic
Fondată în 2021 de foști angajați OpenAI, Anthropic a adoptat o abordare etică în dezvoltarea tehnologiei AI. La începutul anului 2026, compania a publicat un document detaliat, numit statutul său, care include instrucțiuni speciale pentru modelul Claude pentru a preveni utilizările potențial periculoase.
Compania și-a exprimat angajamentul în sprijinirea securității naționale a SUA, în ciuda presiunilor de a restricționa anumite scenarii de utilizare a AI-ului său. Potențialul impact al unei decizii negative ar putea afecta semnificativ colaborarea dintre Anthropic și Departamentul Apărării.
În această situație, decizia finală a autorităților americane va avea repercusiuni asupra utilizării AI în domeniul militar și asupra relației dintre Pentagon și companiile private de tehnologie.














