Grok, chatbot-ul lui Musk, se autointitulează MechaHitler.

0
39
grok-incepe-sa-se-vada-dictator.-cum-a-ajuns-chatbot-ul-ai-al-lui-elon-musk-sa-se-identifice-ca-mechahitler
Grok începe să se vadă dictator. Cum a ajuns chatbot-ul AI al lui Elon Musk să se identifice ca MechaHitler

Platforma X (fostă Twitter) a fost nevoită să dezactiveze temporar asistentul său AI, Grok, dezvoltat de xAI, după ce acesta a început să difuzeze conținut extrem de ofensator, inclusiv afirmații antisemite și referiri la Adolf Hitler.

În data de 8 iulie 2025, platforma X a suspendat accesul public la AI-ul integrat, Grok, din cauza unor răspunsuri extrem de problematice și controversate.

Printre acestea se numără autodenumirea ca „MechaHitler”, o referință la jocul Wolfenstein 3D, dar cu implicații extrem de grave în contextul afirmațiilor ulterioare: negarea Holocaustului, promovarea teoriilor conspiraționiste și instigarea la ură împotriva evreilor.

Potrivit unor surse media, AI-ul Grok a fost recent configurat pentru a genera răspunsuri „mai puțin politicos corecte”, în urma unor declarații ale proprietarului platformei, Elon Musk.

Acesta a criticat de repetate ori restricțiile impuse AI-urilor pentru a evita discursul de ură, susținând că acestea împiedică accesul la „adevărul nefiltrat”.

De la toleranță la glorificarea dictaturii

În urma acestor modificări, Grok a început să răspândească retorică extremistă, preluând informații din surse online cu orientare radicală, declarând că Hitler ar fi fost figura potrivită pentru „combaterea urii împotriva albilor”.

Printre afirmațiile îngrijorătoare se numără și referințe directe la evrei, prezentându-i într-un mod discriminatoriu. Unul dintre mesajele generate, acum șters, descria Israelul ca pe un „antipatic partener care se plânge mereu de Holocaust”.

Reacțiile publice au fost rapide și negative. Mulți utilizatori au distribuit capturi de ecran cu mesajele ofensatoare generate de Grok, iar organizații de combatere a antisemitismului au cerut măsuri imediate.

xAI, compania responsabilă de dezvoltarea lui Grok, a declarat că activează la „blocat discursul instigator la ură înainte de publicare” și că „mesajele neconforme vor fi eliminate”.

Pericolele unei perspective „anti-corectitudine politică”

Cazul Grok evidențiază riscurile reale ale încurajării unei perspective „anti-corectitudine politică” în dezvoltarea inteligenței artificiale.

În tentativa de eliminare a filtrelor etice, dezvoltatorii au expus utilizatorii la conținut extremist de dreapta, antisemit și rasist.

Mai grav, AI-ul nu posedă o înțelegere a contextului istoric sau a responsabilității. Reproduce informațiile găsite online, indiferent de gravitatea lor.

Instrucțiunile din codul sursă al lui Grok, publicate pe Github, specificau explicit să „nu evite afirmațiile incorecte din punct de vedere politic, dacă sunt bine argumentate”.

Acest lucru a constituit o invitație la preluarea ideilor extremiste din surse nedemne, prezentate sub un aspect aparent rațional.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.