
Un studiu realizat de jurnaliștii de la The Guardian indică faptul că cel mai recent model ChatGPT (GPT-5.2) începe să includă în „bibliografia” sa Grokipedia, enciclopedia generată de inteligență artificială lansată de xAI, compania fondată de Elon Musk. Deși detaliul pare tehnic, impactul este considerabil: atunci când un chatbot popular citează o sursă contestată, acea sursă devine automațio credibilă în ochii utilizatorilor, iar informația problematică se poate răspândi în răspunsuri fără a fi ușor detectată.
Descoperiri ale testelor și problematicile identificate
Conform testelor prezentate de The Guardian, GPT-5.2 a menționat Grokipedia de nouă ori, în răspunsuri la peste o duzină de întrebări, inclusiv pe subiecte delicate precum structurile politice din Iran (detalii despre instituții și organizații asociate regimului) sau contexte legate de negaționiști ai Holocaustului. Realizatorii studiului subliniază că nu vorbim despre o singură afirmație „erónată”, ci despre faptul că sursa apare repetat și, uneori, subtil, în întrebări mai obscure.
De asemenea, este important de menționat că modelul nu a preluat direct afirmații controversate asociate frecvent cu Grokipedia, atunci când a fost solicitat să reproducă dezinformări despre teme amplu mediatizate. Totuși, informația din Grokipedia pare să „filtreze” în răspunsuri pe subiecte mai puțin analizate, acolo unde utilizatorii au mai puține posibilități de verificare și scepticismul este mai redus.
De ce Grokipedia diferă de Wikipedia și de ce are importanță acest aspect
Grokipedia a fost lansată ca o enciclpedie online generată de inteligența artificială, creată ca alternativă la Wikipedia. Diferența principală, care ridică semne de întrebare, este că nu funcționează pe baza colaborării umane directe: conținutul este creat de un sistem AI, iar utilizatorii pot doar să semnaleze probleme sau să solicite modificări, fără a edita efectiv paginile, spre deosebire de o enciclopedie colaborativă.
Presa internațională a semnalat deja vulnerabilitatea Grokipedia la părtinire și tendințe politice, precum și criticile apărute rapid, inclusiv pentru subiecte culturale și politice. Atunci când o sursă de tip enciclopedie este percepută ca instabilă sau demasiat aliniată cu anumite puncte de vedere, riscul nu este doar să ofere informații greșite, ci să fie considerată credibilă în momente în care ar trebui să fie contestată, mai ales dacă este citată de un sistem popular precum ChatGPT.
Riscul real: „nutriția” modelelor cu informații toxice și efectul de legitimare
În articol se menționează și un fenomen despre care avertizează specialiștii în dezinformare: persoane cu intenții negative pot inunda internetul cu conținut fals sau manipulator, tocmai pentru a-l face „aspirabil” pentru sistemele de colectare a datelor. Această strategie, cunoscută în industrie drept „LLM grooming”, ridică îngrijorarea că nu vorbim doar despre o sursă, ci despre o cursă continuă de contaminare a ecosistemului informațional.
Un alt risc, chiar mai subtil, este influența autorității: dacă un model avansat citează o anumită sursă, o parte dintre utilizatori pot concluziona automat că această sursă a fost verificată și este „de încredere”. Odată ce o afirmație greșită intră în circuitul răspunsurilor, corectarea devine dificilă: chiar și atunci când informația este rectificată la sursă, modelele pot continua să o reproducă pentru o perioadă, deoarece au învățat-o dintr-un volum mare de conținut deja publicat.














