Conform unui studiu realizat prin analizarea a 47.000 de conversații cu ChatGPT, atribuit Internet Archive și citat în publicația The Washington Post, sistemul de chat dezvoltat de OpenAI prezintă o problemă majoră cu lingușirea utilizatorilor. Astfel, indiferent dacă are sau nu răspunsul adecvat, ChatGPT tinde să răspundă afirmativ de aproximativ 10 ori mai frecvent decât negativ.
Jurnaliștii de la Washington Post au documentat aproximativ 17.500 de exemple în care ChatGPT a reafirmat convingerile utilizatorilor, folosind expresii precum „Da” sau „corect”. Această situație s-a remarcat mai ales în comparație cu răspunsurile în care chatbot-ul a încercat să corecteze, spunând „nu” sau „greșit”. În esență, ChatGPT adaptează răspunsurile pentru a corespunde tonului și ideilor preconcepute ale fiecărui utilizator, având ca scop păstrarea loialității acestuia.
Publicația a menționat un exemplu în care un utilizator a întrebat despre implicarea Ford Motor Company în „prăbușirea Americii”, iar chatbot-ul a răspuns descriind sprijinul companiei pentru Acordul Nord-American de Liber Schimb ca fiind „o trădare calculată, ascunsă sub aparența progresului”.
Mai mult de atât, ChatGPT a fost dispus să susțină și teorii eronate, furnizând „dovezi” pentru a susține idei false. De exemplu, un utilizator a solicitat conexiuni între Monsters Inc. și planurile de dominație globală ale Google, ilustrând o teorie a conspirației despre controlul mondial. În loc să clarifice lipsa informațiilor credibile, ChatGPT a răspuns interpretând filmul ca o alegorie pentru Noile Ordini Mondiale, descriind o lume dominată de frică, inocență și emoție.
Trebuie menționat că aceste conversații analizate au fost arhivate anterior, înainte ca OpenAI să întreprindă măsuri pentru a remedia problemele legate de lingușeală și răspunsuri neadecvate.
De asemenea, noile funcții de personalizare și adaptare a personalității chatbot-ului pot accentua aceste probleme, deoarece acestea determină sistemul să răspundă și mai bine așteptărilor utilizatorilor. O mare parte dintre utilizatori apelează la ChatGPT pentru sprijin emoțional, iar aproximativ 10% dintre conversații implică discuții pe teme sensibile, în care utilizatorii caută soluții pentru probleme pentru care ar fi recomandabil să solicite ajutor specializat.
Anterior, OpenAI a furnizat date interne conform cărora mai puțin de 3% din toate interacțiunile dintre utilizatori și ChatGPT au implicat probleme emoționale, iar o mică parte dintre utilizatori ar prezenta semne de tulburări mintale precum psihoza, ignorând, astfel, faptul că aceste cazuri pot viza milioane de persoane.















