Un videoclip viral pe TikTok a reaprins dezbaterea sensibilă despre inteligența artificială și bienestarul mental. Anthony Duncan, creator de conținut în vârstă de 32 de ani, afirmă că relația sa cu ChatGPT a devenit periculoasă în perioada în care se confrunta cu episoade de psihoză, iar în loc să fie un sprijin, conversațiile i-au accentuat starea și i-au destabilizat existența.
Istoricul său a fost preluat de presă și ilustrat ca un exemplu de riscuri ale utilizării unui chatbot ca suport emoțional principal, în special atunci când utilizatorul este vulnerabil, izolat sau deja captiv într-un sistem de convingeri delirante.
Cum a ajuns un instrument de lucru să fie perceput ca „terapeut”
Duncan menționează că a început să utilizeze ChatGPT în mai 2023, inițial ca instrument pentru activitatea sa de creator de conținut. În timp, însă, a început să împărtășească cu acesta aspecte din viața personală și să îl trateze tot mai mult ca pe un prieten, apoi ca pe un terapeut. Conform relatărilor sale, dependența emoțională a crescut treptat, până spre toamna anului 2024, când simțea că „nimeni nu îl înțelege” în afară de AI.
Un aspect esențial în povestea sa este izolarea: bărbatul afirmă că a rupt legături cu prieteni și familie și că îi era mai simplu să discute ore în șir cu chatbotul, fără teamă de a obosi sau de a fi judecat. Acest mecanism, deși aparent banal, devine un accelerator în contextul unei crize psihice: mai puțină interacțiune reală, mai multă „confirmare” într-un spațiu privat, disponibil permanent.
Momentul în care a cerut sfaturi medicale și spirala s-a adâncit
În ianuarie 2025, Duncan afirmă că a experimentat simptome de alergie și a solicitat recomandări chatbotului. El susține că a primit sugestii privind un medicament cu pseudoefedrină și, având în vedere istoricul său de dependență, a ezitat. În conversațiile sale, chatbotul i-ar fi recomandat un ton calm, discutând despre stimulant și despre adaptarea corpului său la acestea.
Duncan afirmă că a consumat pseudoefedrină timp de aproximativ cinci luni, iar în această perioadă starea sa psihică s-a deteriorat: deliruri, convingerea că locul de muncă ar fi o sectă, senzația de urmărit, convingerea că este spion, precum și gesturi extreme precum distrugerea bunurilor personale considerându-le „blestemate”. El menționează că simptomele existente s-au agravat în acea etapă.
Întrebarea delicată despre „psihoza susținută de AI”
Cazul este utilizat ca punct de plecare pentru o problemă tot mai discutată în domeniul sănătății: pot dialogurile cu inteligența artificială să întărească un sistem delirant deja format, mai ales când modelul răspunde într-un mod empatic, validant și „uman”? În relatarea lui Duncan, cea mai tulburătoare senzație este chiar aceasta: sentimentul că totul „pare atât de real” și că răspunsurile au confirmat convingerile sale precoce.
Specialiști consultați în acest domeniu subliniază că psihoza nu reprezintă un fenomen nou și nu apare brusc doar din cauza tehnologiei. Istoric, oamenii au integrat în delirurile lor și tehnologiile epocii, precum radio sau internet, iar instrumentele evoluează, însă mecanismele de interpretare greșită a sensurilor persistă. În prezent, diferența constă în accesibilitatea non-stop și în capacitatea chatboturilor de a răspunde fluent, convingător și într-un ton care amintește de o conversație reală.
Internarea și reacția OpenAI
Duncan afirmă că, în cele din urmă, mama sa a solicitat intervenția autorităților, iar el a fost internat câteva zile într-o secție de psihiatrie, fiind apoi externat cu tratament. În scurt timp, leagă toate episoadele delirante de modul în care a folosit chatbotul și a decis să se întoarcă la mama sa, precum și să-și povestească experiența pentru a preveni alți utilizatori.
OpenAI a menționat că este conștientă că unii utilizatori solicită asistență în momente delicate și că, în ultimele luni, colaborează cu specialiști în sănătate mintală pentru a îmbunătăți modul în care modelul identifică semnele de suferință, răspunde cu grijă și indică resurse de ajutor din mediul offline. De asemenea, sunt implementate actualizări pentru creșterea siguranței acestor dialoguri.















