ChatGPT și AI-ul au dificultăți la logică banală, comparativ cu mintea umană

0
9
chatgpt-si-alte-inteligente-artificiale-au-probleme-la-logica-banala.-ce-are-mintea-umana-si-ai-ul-inca-nu-poate-copia
ChatGPT și alte inteligențe artificiale au probleme la logică banală. Ce are mintea umană și AI-ul încă nu poate copia

Un studiu realizat de cercetători de la Stanford și Caltech relevă că modelele avansate de inteligență artificială, deși performante în generarea de texte și cod, prezintă deficiențe semnificative în raționament și înțelegerea logică. În fața unor probleme simple de logică sau sarcini de raționament, aceste sisteme se împiedică frecvent, oferind adesea soluții greșite sau dezaprobate de principiile elementare.

Probleme în raționament și logică formală

Rezultatele studiului arată că modelele de limbaj, deși excelează în recunoașterea de pattern-uri și completarea probabilistică a textului, nu înțeleg în mod real regulile care stau la bază. În testele de logică, precum relația „dacă A este egal cu B, atunci B este egal cu A”, modelele pot greși sau pot interpreta eronat situații simple pentru oameni. Fragilitatea acestor sisteme devine evidentă și în cazul formulărilor și variațiilor minore ale aceleiași probleme.

Explicația cercetătorilor este că modelele de limbaj funcționează ca detectoare de tipare și corelări statistice, nu ca entități care înțeleg și aplică reguli logice. Astfel, ele pot oferi răspunsuri convingătoare chiar și atunci când acestea sunt incorecte, deoarece nu dispun de un mecanism intern pentru a evalua coerența logicului.

Lipsa funcțiilor executive și a judecății sociale

O altă limitare identificată se referă la ceea ce experții numesc „funcții executive”, similare celor ale creierului uman, precum planificarea, verificarea consecvenței și ajustarea strategiilor. Quelcul în aceste sisteme devine instabil dacă prompturile sunt reformulate, deși sensul nu se schimbă.

De asemenea, cercetarea evidențiază limitele „inteligenței sociale” a modelelor de AI. În timp ce oamenii dezvoltă intuiții despre gândurile și motivațiile celorlalți și au o „teorie a minții” în sens uman, aceste sisteme nu posedă experiență directă în lume și nu pot înțelege subtilitățile morale sau nuanțele din conversații, ceea ce le face nesigure pentru decizii ce necesită judecată etică.

Implicații și direcții viitoare

Concluziile studiului nu indică faptul că modelele de AI nu sunt utile, ci subliniază necesitatea unei înțelegeri mai clare a limitărilor lor. Vulnerabilitățile identificate pot ghida dezvoltarea viitoarelor generații, care să fie mai rezistente la reformulări, mai logice și mai prudente în fața situațiilor în care nu au certitudini.

Pentru utilizatori, mesajul este că aceste sisteme reprezintă instrumente valoroase, dar nu ar trebui confundate cu entități care înțeleg lumea sau au capacitatea de a judeca moral. Ele pot sprijini în procesul decizional, dar nu trebuie considerate ca autorități finale asupra adevărului.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.