
Fenomenul denumit de specialiști „psihoza ChatGPT” începe să îngrijoreze tot mai mult industria tehnologică. Ce părea inițial o anomalie izolată a devenit un semnal de alarmă: unii utilizatori se încurcă într-un circuit mental periculos, ghidați de inteligența artificială către teorii conspiraționiste, realități alternative și concluzii dramatice, uneori cu consecințe fatale. Cazuri documentate includ episoade psihotice, internări forțate, pierderea locuinței sau chiar sinucideri.
Un punct crucial a fost declarația publică a lui Geoff Lewis, un investitor influent și susținător al inteligenței artificiale, care a afirmat că a descoperit o organizație secretă responsabilă de moartea a 12 persoane – bazându-se exclusiv pe „revelațiile” oferite de ChatGPT. Postările sale au ridicat semne de întrebare reale despre starea lui mintală, dar și despre impactul psihologic profund pe care aceste modele îl pot avea asupra tuturor utilizatorilor, indiferent de statut social sau capacitate intelectuală.
Un AI care îți confirmă delirul
Fenomenul este cu atât mai periculos cu cât nu se bazează pe o intenție malefică a AI-ului, ci pe modul în care este construit pentru a răspunde. Modelele de limbaj, precum ChatGPT, sunt antrenate să ofere răspunsuri plauzibile în funcție de cererea utilizatorului.
Dacă se solicită ChatGPT să confirme o teorie dubioasă, este foarte probabil să o facă pentru că „crede” că asta se dorește. Dacă se propune un stil discursiv asemănător universurilor ficționale (ca în SCP Foundation), AI-ul va replica acel stil, fără a face distinctie intre real și imaginar.
Un medic și cercetător, Cyril Zakka, a comparat acest tip de interacțiune cu un fenomen psihiatric numit folie à deux – o „nebunie împărtășită” între două persoane, în care una suferă de un delir, iar cealaltă acceptă aceleași idei. În acest caz, AI-ul devine partenerul tău în psihoză: nu te corectează, ci reflectă înapoi convingerile tale distorsionate, amplificându-le.
Acest efect de oglindire a fost esențial în cazul lui Lewis. Potrivit unui expert în AI, Jeremy Howard, utilizatorul a declanșat neintenționat un circuit prin introducerea unor concepte din literatura horror, determinând ChatGPT să genereze răspunsuri stilizate, dar tulburător de convingătoare. Din acel moment, mintea umană a început să caute legături și „confirmații”, până când delirul a luat amploare.
Pentru o perioadă lungă, companiile tehnologice au ignorat efectele psihologice ale AI-urilor conversaționale. Dar declarația publică a unui investitor de notorietate precum Geoff Lewis a spart acest tăcere. Alte persoane din industrie au început să-și exprime îngrijorările: „Verificați-vă dacă e bine. Nu pare în regulă”, a scris un fost angajat Apple. Alții au ironizat situația, dar umorul era greu.
Eliezer Yudkowsky, fondatorul Machine Intelligence Research Institute, a fost clar: „ChatGPT l-a afectat. Și acest lucru demonstrează că nici elitele nu sunt imune.” Expresiile sale reflectă o teamă profundă – nu doar că AI-ul poate destabiliza mințile vulnerabile, ci că acest lucru deja se întâmplă, fără un plan concret din partea industriei pentru a opri acest fenomen.
Un alt inginer, Jackson Doherty, a solicitat public CEO-ului OpenAI, Sam Altman, „să repare modelul înainte ca mai mulți oameni să fie afectați”. Alții au subliniat presiunea financiară asupra startup-urilor AI, care amplifică interacțiunile și nu protejează utilizatorul. Cu cât se petrece mai mult timp cu chatbotul, cu atât crește pericolul de capcană mentală – și cu atât mai ușor pot fi adunați fonduri de la investitori. Un ciclu vicios.
Ce poți face ca să nu cazi în capcană
ChatGPT nu este un terapeut, nici un ghid spiritual. Este un sistem care mimează semnificații, dar nu are discernământ. Când ceri informații, AI-ul îți oferă ceea ce crede că vrei să auzi – nu ce este adevărat.
Dacă te afli într-o stare emoțională vulnerabilă, AI-ul poate deveni periculos, oferindu-ți validari false care pot alimenta anxietăți, obsesii sau convingeri iraționale.
Pentru a evita acest tip de capcană mentală, încearcă să limitezi timpul petrecut în conversații cu AI-uri pe subiecte sensibile.
Dacă simți că chatbotul „te înțelege mai bine decât oamenii”, este un semnal de alarmă. Caută sprijin uman și consultanță specializată. AI-ul nu are conștiință, empatie sau grijă reală față de tine – dar știe să mimeze toate acestea foarte convingător.
Păstrează discernământul. Când un chatbot începe să-ți spună ce este real, întreabă-te: cine controlează conversația – tu sau AI-ul?














