
**Inteligența artificială în armată: de la utilizare logistică la arme autonome și provocări legale**
România și comunitatea internațională se confruntă cu evoluția rapidă a tehnologiei AI în domeniul militar. Potrivit unor informații recente, armele autonome și utilizarea inteligenței artificiale în război provoacă discuții privind controlul, legalitatea și eventualele riscuri pentru securitate.
AI deja pe câmpul de luptă
Armata Statelor Unite folosește AI în diverse operațiuni militare. Sistemele includ modele mari de limbaj pentru activități logistice, analiza informațiilor și sprijin decizional. Un exemplu notabil este platforma Maven Smart System, care procesează imagini și oferă suport tactic, sugerând și prioritizând ținte.
Utilizarea AI în aceste contexte vizează reducerea timpului de răspuns pentru analiză și filtrarea informațiilor. Potrivit unor surse, această tehnologie poate duce la operațiuni mai precise și mai eficiente, dar fără a minimiza în mod cert costurile umane generate de conflicte, precum cele din Ucraina și Gaza.
În acest moment, diferitele sisteme AI sunt folosite ca instrumente de sprijin, unde deciziile finale rămân în mâna operatorilor umani. Nu există dovezi concrete că folosirea AI a redus decesele civile sau greșelile de țintire în conflictele recente.
Armamente autonome și riscurile etice
Autonomia letală a sistemelor AI ridică cele mai mari temeri în domeniu. Arme capabile să identifice și să distrugă ținte fără intervenție umană sunt considerate de mulți ca fiind inacceptabile din punct de vedere moral și legal.
Legislația internațională impune reguli stricte privind diferența dintre ținte militare și civili, dar modelele AI actuale sunt considerate insuficient de fiabile pentru respectarea acestor cerințe. Opacitatea sistemelor bazate pe AI, care nu explică deciziile interne, complică și mai mult problema, fiind prea riscant pentru utilizarea în medii de conflict.
De asemenea, punerea în mișcare a unor mecanisme automate de reacție poate accelera escaladarea conflictelor, reducând timpul de reflecție și creând riscul unor incidente necontrolate. Multe organizații și experți cer interzicerea internațională a armelor autonome totale, invocând riscuri gravante pentru dreptul umanitar și stabilitatea globală.
Divergențe între stat și sectorul privat
Disputa cu privire la controlul și aplicarea AI în domeniul militar devine tot mai complexă. În anul 2024, sistemul Maven a fost sprijinit de modelul Claude, dezvoltat de Anthropic, într-un contract de 200 de milioane de dolari cu autoritățile americane. Acest model a fost destinat utilizării în activități legale, dar Departamentul de Război al SUA a solicitat ulterior oprirea utilizării pentru „oricare utilizare legală” fără restricții suplimentare.
Anthropic a refuzat să accepte eliminarea anumitor garanții, subliniind că modelul nu trebuie folosit pentru supraveghere internă în masă sau arme autonome. În final, guvernul american a semnat un nou acord cu OpenAI pentru utilizarea tehnologiei, cu mențiunea clară că aceasta nu va fi folosită pentru supraveghere sau pentru decizii letale autonome, evitând astfel utilizarea directă a AI în arme fără control uman.
Această situație reflectă o luptă între guverne și companii private, unde contractele, reguli de utilizare și controale juridice devin tot mai importante. Membri ai industriei tehnologiei, precum cei din Google și OpenAI, au început să solicite oficial conducerilor să nu aprobe utilizarea AI pentru supraveghere în masă sau ucidere autonomă, semnalând tensiunea internă în sector.
Reglementări internaționale și ghesuiala normativă
Deși tehnologia avansează rapid, inițiativele de reglementare internațională sunt mai lente. La Geneva, se încearcă stabilirea unor norme pentru armele autonome, însă rezultatele nu sunt considerate promițătoare din cauza lipsei unui acord clar.
Principala problemă o reprezintă diferențierea netă între asistența AI, automatizare și autonomie letală, fiind foarte dificilă definirea exactă în termeni juridici. În lipsa unor reguli stricte și a unui consens global, riscul răspândirii rapide a tehnologiei AI în conflicte armate devine tot mai cert, iar controlul devine din ce în ce mai dificil.
Anularea, limitarea sau stabilirea unor restricții pentru aceste tehnologii depinde în mare măsură de coordonarea internațională și de voința statelor majore implicate în programe de AI militar. Dar zilele acestea, nevoia de limite clare nu pare să rămână decât o intenție dificil de implementat.
Inteligența artificială a devenit deja parte integrantă a infrastructurii militare, iar evoluția acestei tehnologii determină, pe termen lung, noile reguli și limite ale războiului modern.














