Ghid Poliția Română pentru detectarea Deep Fake și prevenirea înșelăciunilor online

0
18
ghid-pentru-depistarea-deep-fake,-publicat-de-politia-romana-regula-care-se-aplica-impotriva-oricarei-tentative-de-inselaciune.-este-prea-frumos-sa-fie-adevarat?-fugi-cat-mai-poti!
Ghid pentru depistarea Deep Fake, publicat de Poliția Română. Regula care se aplică împotriva oricărei tentative de înșelăciune. Este prea frumos să fie adevărat? Fugi cât mai poți!

Poliția Română a publicat un ghid pentru identificarea Deep Fake, într-o eră în care fluxul de informații face ca granița dintre realitate și ficțiune să fie tot mai fragilă. Inteligența artificială (AI) a evoluat semnificativ în ultimii ani, facilitând generarea de clipuri video și imagini extrem de realiste. În prezent, aceste tehnologii sunt folosite în principal pentru divertisment, însă un aspect negativ îl reprezintă utilizarea lor ca instrumente de inducere în eroare, pentru obținerea de avantaje financiare frauduloase.

„Poliția nu va contacta niciodată cetățenii prin mesaje video, folosind anumite aplicații”

Deepfake-urile – videoclipuri false create cu ajutorul AI – și imaginile generate artificial au devenit principalele instrumente ale infractorilor în criminalitatea cibernetică, fiind promovate intens pe platformele sociale.

Chiar și persoane de bună credință pot fi păcălite de aceste „capcane”, crezând că interacționează cu celebrități, experți financiari sau persoane aflate în dificultate.

„Recent, au fost depistate mai multe cazuri în care s-au realizat videoclipuri false cu ofițeri de poliție sau consultanți financiari, generându-se astfel confuzie și inducere în eroare a victimelor în scopul de a realiza investiții fictive sau de a obține date financiare pentru tranzacții frauduloase.”

Pe lângă recomandările anterioare, precizăm că polițiștii nu vor contacta niciodată cetățenii prin videoclipuri, utilizând aplicații specifice, și nu vor face recomandări de investiții. De asemenea, colaborarea oficială cu instituțiile bancare are ca scop recuperarea prejudiciilor, au declarat reprezentanții poliției.

Ghid pentru identificarea Deep Fake, emis de Poliția Română

Cele mai frecvente metode de operare în 2025 includ:

  • Fraudă pe platforme de tranzacționare și falsificare de investiții. Clipuri deepfake cu oameni de afaceri, personalități sau politicieni care „recomandă” platforme de cryptotrading, forex sau „inteligență artificială miraculoasă”, promițând multiplicația rapidă a banilor. Victimele sunt direcționate către site-uri false, unde depun sume pentru investiții, care sunt redistribuite infractorilor prin scheme de transfer de fonduri virtuale sau fiat.

Utilizarea masivă a imaginilor în metode de operare precum:

  • Fraudă romantică și păcălirea prin identitate falsă;
  • Crearea de profiluri false ale influenceriștilor pentru promovarea de produse, scheme frauduloase sau investiții;
  • Fabricarea de „martori” în povestiri false despre investiții („Uite câți oameni s-au îmbogățit!”);
    Șantaj sau hărțuire, utilizând poze false cu persoane în situații compromițătoare.

Utilizarea AI în scopuri ilicite poate avea consecințe multiple, atât financiare, cât și manipulative, precum:

  • Pierderi financiare directe;
  • Traume emoționale, precum donarea ultimei resurse pentru copii fictivi sau îndrăgostirea de persoane false;
  • Eroziunea încrederii în media și instituții: „Dacă nimic nu mai e real, nimic nu mai are valoare”;
    Manipulare politică și electorală prin deepfake-uri cu candidați care promit sau spun lucruri neverificate;
  • Distrugerea reputației personale, inclusiv revenge porn cu deepfake-uri, frecvent folosit impotriva femeilor;

Pentru a contracara aceste riscuri, recomandăm prudență și prezentăm măsuri de prevenție și identificare a videoclipurilor sau imaginilor create cu AI:

Ce trebuie știut despre identificarea videoclipurilor deepfake:

  • Verifică clipitul ochilor – în vechile deepfake-uri, clipitul era neregulat, însă în 2025 această deficiență s-a îmbunătățit, deși anumite inconsistențe pot fi încă observate;
  • Mișcarea buzelor și sincronizarea cu sunetul – adesea imperfecte, mai ales în limbile non-engleză;
  • Iluminarea și umbrele – analizează dacă lumina de pe față corespunde cu fundalul;
  • Reflexiile în ochi și dinți – lipsesc sau sunt artificiale;
  • Mâini și degete – unele modele AI prezintă deformări, cum ar fi degete multiple sau lipsă;
  • Caută artefacte – pete, zone blurate în jurul feței, tranziții nenaturale;
  • Deformări ale mâinilor și degetelor, frecvent întâlnite în deepfake-uri din 2025;
  • Ochi asimetrici sau pupile neuniforme;
  • Păr sau haine care nu respectă fizica;
  • Elemente deformate în videoclip sau imagine;
  • Folosește instrumente de căutare inversă a imaginilor, precum Google Lens sau TinEye – dacă imaginea nu apare în alte surse, este suspectă.

Ghid pentru identificarea Deep Fake, emis de Poliția Română

Măsuri de siguranță și prevenție pentru cetățeni:

  • Orice ofertă care pare prea bună pentru a fi adevărată (îmbogățire rapidă, cadouri de la personalități sau iubire instantanee) este, cel mai probabil, falsă;
  • Nu accesa linkuri din reclame sau mesaje nesolicitate;
  • Niciodată nu transmite bani persoanelor cunoscute doar online;
  • Verifică sursa oficială: dacă o personalitate promovează un produs sau serviciu, consultă conturile oficiale verificate pe rețelele sociale;
  • Activează autentificarea în doi pași (2FA) în aplicații și conturi importante, folosind aplicații de tip „Authenticator” și nu doar SMS;
  • Raportează conținutul suspect pe platformele utilizate;
  • Poți folosi extensii pentru browser care detectează automat deepfake-urile;
  • În cazul în care ai fost victima unei încercări de înșelăciune online, notifică autoritățile cât mai curând, pentru a sprijini investigațiile.

Sursa foto: Gandul


Recomandarea expertului:

  • Lumea virtuală a înlocuit lumea reală? Analiză care demitizează mitul dominatiei digitale. Cărțile, mallurile și vehiculele rezistă în fața roboților și AI. Expert digital: „O fuziune între lumi”

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.