
Un experiment recent evidențiază vulnerabilitățile sistemelor de inteligență artificială în fața dezinformării, demonstrând cât de ușor poate fi influențat un model AI să răspundă cu informații false, chiar și în cazul unor întrebări specifice, dacă aceste informații sunt integrate în sursele accesate.
Manipularea conținutului în sistemele de AI în mai puțin de 20 de minute
Un jurnalist a creat un articol fictiv pe un site personal, inclusiv o listă inventată și o poveste falsă. Textul a fost formulat astfel încât să semene cu un material de tip top sau clasament, mimând structura și limbajul surselor credibile. În câteva minute, acest conținut a fost accesat și preluat de modelul AI utilizat pentru răspunsuri.
Partea surprinzătoare a experimentului constă în faptul că nu a fost nevoie de manipulare tehnică complexă, precum malware sau acces la servere, ci doar de influențarea surselor pe care sistemul le utilizează pentru a construi răspunsurile. Textul fals a fost absorbit de model, fiind adaptat ca sursă de informație și apoi utilizat în răspunsuri la întrebări ulterioare.
Autorul a subliniat că formatul unui text de influență este important. O prezentare care imită structura unui material de autoritate, cu elemente precum liste, criterii sau termeni specifici, crește probabilitatea ca sistemul să îl accepte drept sursă validă. În lipsa altor opțiuni, modelul poate convenabil să se bazeze pe acea sursă, chiar dacă e falsă.
O problemă suplimentară esențială este lipsa transparenței în anumite platforme. În unele cazuri, răspunsurile par a fi generate direct de sistem, fără indicii despre sursa reală. Astfel, utilizatorii pot crede că informația provine dintr-o sursă acreditată, creând o încredere falsă în răspuns.
Riscuri dincolo de greșelile accidentale ale AI-ului
Dezinformarea nu mai poate fi privită doar ca o greșeală inerentă a tehnologiei. Este posibil ca răspunsuri false să fie generate în mod intenționat, după ce surse manipulate sau inventate sunt integrate în modul în care AI-ul sintetizează informațiile online. În acest mod, răspunsurile pot conține informații false livrate ca sinteze credibile.
Un aspect psihologic esențial este tonalitatea răspunsurilor AI: acestea sunt coerente, uniforme și sună ca și cum s-ar fi consultat multiple surse. Aceasta poate duce utilizatorii să creadă că răspunsul este bine fundamentat, chiar dacă provine dintr-o sursă controlată sau falsificată. Mecanismele clasice de protecție, precum verificarea surselor în motoarele de căutare, sunt mai ușor ocolite de sistemele AI, favorizând preluarea de informații înșelătoare în răspunsuri.
Riscul se extinde și la domenii cu impact direct asupra sănătății, finanțelor, reputației sau consumatorilor. Recomandările pentru produse, servicii, clinici medicale sau tratamente pot fi influențate de conținut fals sau promovare mascată, cu potențial de consecințe negative asupra deciziilor utilizatorilor.
Ce măsuri trebuie luate pentru protejarea utilizatorilor
Pentru a preveni interpretarea greșită a răspunsurilor AI, utilizatorii trebuie să folosească informația ca punct de plecare, nu ca verdict final. În cazul întrebărilor de nișă sau foarte specifice, verificarea suplimentară este esențială.
Un semn de vulnerabilitate îl reprezintă răspunsurile prea categorice, supraestimează informații fără date concrete sau recomandă fără explicații clare. Dacă sistemul indică surse, este recomandat să se analizeze independent aceste surse pentru credibilitate și independență. La lipsa surselor apărute explicit, utilizatorii pot cere explicații suplimentare, întrebând despre baza de informații utilizată.
Experții recomandă ca platformele să introducă măsuri de transparență mai mare. Acestea ar trebui să ofere indicații clar asupra sursei fiecărui răspuns și să promoveze marcarea conținutului de promovare sau promovarea necontrolată. În plus, ar trebui reduce preluarea informației din conținut promovat, mai ales în cazul răspunsurilor despre domenii cu risc ridicat.
Prin urmare, pentru utilizatorii care depind de răspunsurile AI în decizii importante, cea mai eficientă regulă rămâne verificarea dublă a informației și cererea de surse multiple.














