
Războiul din Ucraina, început în 2022, devine una dintre cele mai influențate zone de dezinformare și campanii manipulate, amplificate de utilizarea extinsă a inteligenței artificiale (AI). Analiza publicată de agenția EFE arată că tehnologiile digitale au transformat propaganda, în special în mediile online, devenind un instrument central în răspândirea narațiunilor proruse și în contestarea informațiilor autentice.
Automatizarea generării de conținut fals
Una dintre schimbările principale vizează trecerea de la producția manuală de știri false la operațiuni complet automatizate. Rețele coordonate folosesc AI pentru a genera milioane de articole, distribuindu-le masiv pentru a influența sistemele algoritmice și răspândind astfel message-uri pro-Kremlin.
Un fenomen notoriu este strategia denumită „LLM Grooming”, prin care mediile digitale sunt invadate cu informații false. Aceste volume crescute de conținut sunt preluate și reproduse de modelele lingvistice de mari dimensiuni, precum ChatGPT, astfel încât narațiunile fabricate ajung să fie integrate în răspunsurile automate ale sistemelor conversaționale.
Exemplul frecvent menționat este rețeaua Pravda, formată din site-uri active în zeci de țări, care publică lunar zeci de mii de materiale în ton cu discursul pro-Kremlin. Prin citări și linkuri încrucișate, aceste articole dobândesc aparența de credibilitate și influențează poziționarea în motoarele de căutare, sporind vizibilitatea în ecosistemul digital.
Realismul crescut al materialelor manipulate
În primii ani ai războiului, conținutul manipulat era mai ușor de identificat, fiind format din deepfake-uri evidente. Acum, avansurile tehnologice în generarea de imagini și videoclipuri au crescut realismul acestor materiale false.
Au circulat, de exemplu, clipuri cu presupuși soldați ucraineni care criticau mobilizarea sau descriau situații dramatice de pe front. Ulterior, s-a demonstrat că respectivele materiale au fost create cu ajutorul AI, folosind fețe și voci sintetice, cu diferențe minore față de realitate, precum mici erori în uniformă sau însemne militare.
Această tehnică complică procesul de verificare, deoarece diferențele vizuale devin aproape imposibil de observat fără instrumente specializate. Astfel, conținutul fals devine mult mai greu de departajat de cel adevărat.
Impactul asupra încrederii și propagarea de informații false
Un efect secundar grav îl reprezintă posibilitatea ca astfel de conținut fals să ofere un „alibi” pentru negarea probelor reale. Odată ce publicul este bombardat constant cu imagini generate artificial, orice material autentic poate fi contestat drept „produs de AI”, generând o prezumție de falsitate.
Această strategie subminează încrederea în dovezile autentice legate de crime de război sau abuzuri documentate. În plus, campaniile de manipulare nu se limitează la o anumită limbă, fiind traduse și adaptate pentru publicuri din Germania, Franța, Spania, Italia și America Latină, indicând o coordonare bine organizată.
Campanii de influență și dezinformare suplimentare
Pe lângă manipularea prin AI, au fost identificate și campanii menite să descurajeze voluntarii străini să participe în Ucraina sau să submineze eforturile de pace. În contextul intensivizării utilizării AI în aceste operațiuni, se marchează o etapă nouă și mult mai avansată în strategiile de dezinformare ale actorilor implicați în conflict.
Războiul informațional din Ucraina continuă să evolueze, iar implementarea tehnologiilor AI sporește amploarea și sofisticarea campaniilor de manipulare, influențând opinii și decizii la scară largă.














