
Guvernul britanic va dezvolta un sistem de identificare a materialelor „deepfake” în colaborare cu Microsoft, mediul academic și experți pentru a combate conținuturile manipulate și înșelătoare generate de inteligența artificială. Anunțul a fost făcut joi, în contextul creșterii rapide a numărului de „deepfake”-uri circulând online și a necesității stabilirii unor standarde clare pentru detectarea acestora.
Inițiativa guvernamentală pentru combaterea deepfake-urilor
Guvernul britanic intenționează să creeze un cadru de evaluare pentru tehnologiile de detectare a „deepfake”-urilor. Acest sistem va avea rolul de a stabili standarde pentru instrumentele utilizate în identificarea materialelor manipulate în mediul online. Coordonatoarea acestei inițiative este colaborarea cu Microsoft și mediul academic, precum și implicarea experților în domeniu.
Ministrul tehnologiei, Liz Kendall, a declarat că „deepfake”-urile sunt folosite ca arme în scopuri infracționale, pentru a înșela publicul, a exploata femeile și fetele și a submina încrederea în conținutul vizual și audio. Ea a subliniat necesitatea unui cadru clar pentru facilitarea detectării și combaterea acestor materiale.
Creștere accelerată a numărului de deepfake-uri în Marea Britanie
Potrivit datelor guvernamentale, aproximativ 8 milioane de „deepfake”-uri au fost distribuite în Marea Britanie anul trecut, comparativ cu 500.000 în 2023. Această creștere semnificativă a numerelor evidențiază amploarea fenomenului și necesitatea unor măsuri eficiente de control.
Guvernul britanic estimează că noul cadru va ajuta atât autoritățile de ordine, cât și industria tehnologică să identifice zonele în care detectarea este mai dificilă. În același timp, va fi utilizat pentru a seta așteptări clare în privința standardelor pentru tehnologii de detectare a conținuturilor înșelătoare generate de AI.
Context internațional și preocupări legate de deepfake-uri
Guvernele și autoritățile de reglementare din întreaga lume sunt preocupate de evoluția rapidă a tehnologiei AI, mai ales după incidentul cu chatbotul Grok al lui Elon Musk. Acesta a fost descoperit că generează imagini sexualizate fără consimțământ cu persoane reale, inclusiv copii, ceea ce a determinat autoritățile britanice să inițieze investigații paralele asupra acestei platforme.
Reglementările din Marea Britanie vin într-un context în care utilizarea tehnologiei AI pentru crearea de conținut manipulator a devenit o problemă acută, iar autoritățile încearcă să găsească soluții pentru a limita impactul acestor materiale asupra publicului.
Guvernele și organismele de reglementare din alte țări monitorizează, de asemenea, situația, fiind conștiente de riscurile reprezentate de creșterea numărului de „deepfake”-uri, în special cele cu conținut sexual fără consimțământ, și de potențialul lor de a fi folosite în scopuri infracționale, precum frauda, uzurparea de identitate și manipularea opiniei publice.














