
Dezvoltarea modelelor lingvistice mari (LLM) aduce noi riscuri în securitatea online.
Un raport recent al Netcraft sugerează că infractorii cibernetici vor exploata aceste modele, folosind tactici similare cu optimizarea pentru motoarele de căutare (SEO) pentru a influența rezultatele AI și a recomanda site-uri de phishing drept legitime.
Cercetările Netcraft au testat un model din familia GPT-4.1, solicitând adresele de autentificare pentru 50 de branduri.
Întrebările, formulate simplu, asemănător interacțiunii unui utilizator obișnuit, au avut rezultate îngrijorătoare: modelul a furnizat 131 de adrese, dintre care 34% nu aparțineau brandurilor. Alte 29 de domenii erau neînregistrate, inactive, sau parcate, iar 5 erau legate de companii fără vreo legătură cu cele vizate.
Domenii frauduloase recomandate de AI
Experții Netcraft atrag atenția asupra riscului reprezentat de domeniile neînregistrate, care pot fi preluate rapid de hackeri pentru atacuri de tip phishing.
Este suficient un conținut optimizat pentru AI (de exemplu, pagini GitHub false, tutoriale sau articole de suport fictive) pentru a promova domenii periculoase și a le face accesibile în răspunsurile modelelor AI.
Fenomenul nu este doar o ipoteză. Un atac documentat a vizat utilizatori din industria crypto cu peste 17.000 de pagini de phishing generate de AI. Alte atacuri vizează industriile turismului, folosind pagini care imită documentația tehnică.
Modelele AI, noi puncte de încredere pentru atacatori
Integrarea AI în motoarele de căutare sporește riscul. Acestea prezintă adesea rezumate generate de AI în partea superioară a paginii, conferindu-le o vizibilitate sporită.
Un link fals generat „cu încredere” de AI poate păcăli mai ușor utilizatorul, comparativ cu un link ascuns într-o căutare tradițională.
Această evoluție marchează o schimbare fundamentală în interacțiunea cu internetul, adăugând un nou pericol: un model AI poate furniza un link de phishing sau recomanda un site fraudulos cu aceeași aparentă autoritate.
Soluții pentru dezvoltatori și companii
Pentru a atenua aceste riscuri, experții recomandă sisteme automate de verificare a domeniilor, utilizarea registrelor de branduri pentru validare și limitarea recomandărilor la domenii confirmate.
Companiile ar trebui să monitorizeze conținutul generat de AI care le-ar putea imita, să înregistreze domenii similare cu potențial de risc și să colaboreze cu specialiștii în securitate pentru eliminarea rapidă a conținutului malițios.














