Imaginea ilustrează un chatbot AI.
Cercetări recente subliniază riscul crescut de erori la chatboții AI, atunci când aceștia sunt solicitați să ofere răspunsuri concise. De ce apare această problemă?
O companie franceză specializată în testarea inteligenței artificiale, Giskard, a realizat un studiu comparând diverse modele lingvistice avansate, printre care ChatGPT, Gemini, Llama, DeepSeek, Grok, Claude, Mistral și altele. Studiul a scos la iveală că modelele populare nu sunt întotdeauna cele mai precise. Unele dintre ele „crează” informații false, o problemă denumită „halucinații AI”.
Aceste „halucinații” sunt răspunsuri incorecte sau înșelătoare, prezentate ca fiind exacte, dar lipsite de bază factuală.
Cercetătorii de la Giskard au descoperit o legătură între solicitările de răspunsuri scurte și creșterea „halucinațiilor”. Mai ales la întrebările complexe, tendința unui model de AI de a genera informații false este amplificată atunci când se solicită răspunsuri scurte.
„Datele noastre demonstrează că modificări simple ale instrucțiunilor influențează extrem de mult capacitatea unui model de a crea informații false”, au declarat cercetătorii. „Această descoperire are implicații majore în implementarea acestor tehnologii, dată fiind prioritatea răspunsurilor concise în multe aplicații.”
O posibilă explicație constă în necesitatea argumentelor elaborate pentru răspunsurile complexe. Un răspuns scurt, lipsit de detalii, creează un risc mai mare de erori.
„Halucinațiile” reprezintă o provocare pentru aceste tehnologii. În ciuda progreselor, cele mai performante modele tot pot genera informații false datorită naturii lor probabilistice. De asemenea, modelele actuale tind să „inventeze” mai multe aspecte decât predecesoarele lor, ceea ce amplifică dificultatea verificării informațiilor.















