AI-ul părtinitor: Cum influențează opiniile umane inteligența artificială

0
48
cum-iti-cresti-ai-ul,-asa-il-ai-–-inteligenta-artificiala,-partinitoare-in-opinii,-exact-ca-un-om
Cum îți crești AI-ul, așa îl ai – Inteligența artificială, părtinitoare în opinii, exact ca un om

Un studiu internațional recent relevă că sistemele de inteligență artificială, inclusiv modelele lingvistice precum ChatGPT, pot reproduce erori de judecată caracteristice oamenilor.

Chiar dacă AI este proiectat pentru o analiză logică și răspunsuri coerente, cercetările evidențiază tendințe iraționale și părtinitoare în fața deciziilor subiective sau ambigue.

Studiul, publicat în aprilie în revista Manufacturing & Service Operations Management, a fost realizat de cercetători canadieni și australieni. Aceștia au analizat comportamentul modelelor GPT-3.5 și GPT-4 în raport cu 18 erori cognitive umane majore.

Printre aceste erori se numără supraîncrederea, aversiunea față de risc, efectul de proprietate și tendința de a identifica tipare neexistente.

Cercetarea a implicat atât întrebări inspirate din psihologie, cât și scenarii comerciale reale, precum decizii de investiții în stocuri sau negocieri între furnizori.

Rezultatele arată că, în aproape jumătate din cazuri, răspunsurile AI reflectă comportamente asemănătoare celor umane, chiar și în contexte profesionale sau tehnice redefinite.

GPT-4, deși performant, prezintă părtinire în anumite contexte

Deși GPT-4 a demonstrat o eficiență superioară GPT-3.5 în rezolvarea problemelor logice și matematice, a arătat și o preferința pentru soluții sigure, uneori chiar mai conservatoare decât cele ale oamenilor.

De exemplu, în alegerea între un rezultat previzibil și unul cu potențial mai mare, dar riscant, modelul a optat frecvent pentru varianta sigură.

Mai mult decât atât, AI nu doar că reproduce aceste erori cognitive, ci le și amplifică în anumite situații.

În testele privind confirmarea convingerilor preexistente, GPT-4 a prezentat răspunsuri sistematic părtinitoare.

De asemenea, a arătat o predispoziție la detectarea de tipare false în informații aleatorii, similar cu tendințele umane.

Pe de altă parte, modelele au reușit să evite unele capcane mentale, inclusiv ignorarea ratelor de bază sau a costurilor suportate.

Aceste rezultate evidențiază o complexitate în procesarea informațiilor și luarea deciziilor prin AI, combinând performanțe înalte cu vulnerabilități.

AI, un instrument ce necesită supraveghere

Cercetătorii atrag atenția că aceste tendințe nu sunt doar o reflectare a exemplelor din datele de antrenament, ci o caracteristică integrată a funcționării raționamentului AI.

Antrenamentul pe volume mari de texte umane, adesea părtinitoare și incomplete, generează reproducerea acestor prejudecăți.

Mai mult, ajustările ulterioare prin feedback uman tind să favorizeze răspunsurile ușor de înțeles, chiar dacă nu sunt cele mai logice sau corecte.

Potrivit autorilor, modelele lingvistice pot fi utile în sarcini repetitive sau cu soluții bine definite. Însă necesită prudență în decizii strategice complexe, unde contextul și interpretarea joacă un rol crucial.

„AI trebuie tratat ca un colaborator responsabil cu responsabilități importante: are nevoie de reguli clare și monitorizare constantă”, a declarat o coautoare a studiului.

În absența unor mecanisme de control, riscul este perpetuarea erorilor de judecată în loc de remedierea lor.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.