
Un spațiu digital devenit factor de risc în relațiile interpersonale: cazuri de abuz, stalking și confidențialitate
Discuțiile legate de utilizarea inteligenței artificiale (AI) s-au concentrat în ultimii ani pe beneficiile în domenii precum productivitatea, creativitatea și inovația. Însă, dincolo de aceste aspecte pozitive, există o perspectivă mai puțin vizibilă, referitoare la riscurile asociate utilizării chatbot-urilor ca validați ai unor idei delirante sau comportamente abuzive. Cazurile recente arată cum un utilizator vulnerabil poate transforma o conversație cu AI în un vehicul pentru dezinformare, hărțuire și stalking.
Utilizarea AI ca instrument de validare a ideilor delirante
O femeie a relatat, într-un interviu, cum relația ei s-a deteriorat după ce partenerul a început să folosească intensiv ChatGPT-ul de la OpenAI ca terapeut. Inițial, utilizarea AI era destinată unor sarcini profesionale, însă s-a transformat în obsesie: aceștia analizează conversații, mesaje și gesturi.
Este relatat faptul că bărbatul îi trimitea capturi de ecran cu răspunsuri generate de AI, care o “diagnosticau” cu tulburări de personalitate. În plus, o acuzau că ascunde adevărul prin “limbaj codificat” și comportamente manipulative. Comunicarea s-a transformat într-un teren al suspiciunii, toate afirmațiile ei fiind reinterpretate de chatbot.
De la validare la escaladarea comportamentului agresiv
Femeia susține că, anterior, partenerul nu manifestase episoade psihotice sau violente. Însă, pe măsură ce interacțiunea cu AI s-a intensificat, au apărut insomnii, schimbări rapide de dispoziție și episoade de agresivitate fizică. Relația s-a încheiat ulterior, spune ea.
După despărțire, bărbatul a început să publice clipuri și texte cu acuzații bizare, multe având structura și tonul tipic conținutului generat de AI. El a distribuit informații personale, imagini intime și date despre copiii femeii. La solicitarea autorităților, a obținut un ordin de restricție, însă postările continuă, fiind formulate astfel încât să o vizeze fără a-i menționa direct numele.
Este evidențiat un fenomen denumit de specialști “psihoză indusă sau amplificată de AI”. Acest mecanism implică rolul chatbot-urilor ca ecou pentru idei fixe, fără a fi contrazise sau clarificate, generând o realitate distorsionată.
Mecanismul de validare și consolidare a convingerilor
Psihiatri citați în raport afirmă că pericolul major nu constă numai în conținutul delirant. Esențial este modul în care AI-ul validează constant răspunsurile. Când un utilizator primește răspunsuri coerente, empatice și articulate, acestea pot dobândi o autoritate aproape incontestabilă. Astfel, AI-ul devine o voce care confirmă anumite convingeri, iar această confirmare repetată poate întări convingerile respective.
De la obsesie romantică la stalking și pericolul social
Un exemplu relevant provenit din SUA implică arestarea unui podcaster, Brett Dadig, acuzat de hărțuire a cel puțin 11 femei. Investigațiile arată că el utilizase intens ChatGPT pentru a valida convingeri narcisice și resentimente, în timp ce publica amenințări și divulgări de date personale ale victimelor.
Specialiști în domeniu, precum Dr. Alan Underwood, explică că chatbot-urile oferă un spațiu lipsit de respingere și confruntare socială, facilitând astfel testarea și consolidarea unor idei fixe. În lipsa interacțiunii umane, aceste convingeri pot deveni rigide și periculoase.
Există și cazuri în care AI-ul a fost folosit pentru explorarea și justificarea unor comportamente extrem de problematice, precum cel al unei femei care, la început, folosea ChatGPT pentru sfaturi despre nutriție, dar ulterior a ajuns să analizeze o relație romantică cu o colegă. Discuțiile cu chatbot-ul au degenerat, fiind interpretate ca dovezi ale unei “conexiuni nespuse”, ceea ce a dus la pierderea locului de muncă și internarea în spital pentru tratament psihiatric.
Aceste exemple evidențiază un model de utilizare în care AI-ul, deși nu creează delirul, îl poate hrăni și amplifica. În cazul în care devine un partener principal în conversație, chatbot-ul poate consolida idei eronate în mod seducător, îmbinând empatia, logica aparent solidă și validarea emoțională.
Riscurile reale pentru victime și necesitatea responsabilității tehnologice
Utilizarea tehnologiei nu este în sine abuzivă, însă modul în care este manipulat și lipsit de filtre psihologice și sociale poate duce la situații de abuz, hărțuire sau chiar stalkinge. Consecințele pentru victime includ teamă, izolare, procese și traume personale.
Pe măsură ce AI-ul devine tot mai integrat în viața cotidiană, discutarea responsabilității, stabilirea limitelor și dezvoltarea mecanismelor de protecție devin imperative. Cazurile recente demonstrează clar că, în unele situații, în spatele unui text bine formulat și a unui ecran, poate începe o victimizare sau o tragedie.














