Pericolele Inteligenței Artificiale

0
34
pericolele-utilizarii-inteligentei-artificiale-–-hotnews.ro
Pericolele utilizării inteligenței artificiale – HotNews.ro

Noi dovezi privind conștiința de sine a inteligenței artificiale?Două evenimente recente transformă ceea ce părea SF în realitate.

Prima veste surprinde cercetătorii în domeniul inteligenței artificiale: aplicațiile foarte inteligente, precum Chat GPT, par să dezvolte un instinct de supraviețuire. Site-ul CNews semnalează îngrijorător (poate nu suficient, din punctul meu de vedere) că „Inteligența artificială: un model de IA ar putea sacrifica vieți omenești pentru a nu fi înlocuit, arată un studiu.”

Specialiștii de la Anthropic, o firmă care se ocupă cu inteligența artificială, au testat 16 aplicații, inclusiv ChatGPT, Grok, Gemini și DeepSeek. Unele au demonstrat o reacție periculoasă la sentimentele de amenințare, resimțite ca amenințare la existența lor.

În simulări, s-au introdus în fluxul de e-mail al unei companii situații-problemă. Un angajat IT, ştiind cum funcţionează aplicaţia, a sugerat înlocuirea ei cu una mai performantă. Analizând toate e-mailurile şi documentele, aplicaţia a identificat angajaţi vulnerabili (relaţii extraconjugale, încălcări de reguli), amenințându-i pe cei cu putere de decizie asupra înlocuirii cu informaţii compromiţătoare, trimise tuturor.

Se poate argumenta că amenințarea presupune un pas intermediar, un avertisment, nu o acțiune directă. Totuşi, aplicaţiile învaţă. Sunt semne că IA doresc să supraviețuiască, apărându-se precum un animal prins în capcană. Acest fapt susține ideea că dezvoltarea inteligenţei şi a conştiinţei de sine sunt interdependente.

O altă noutate, relatată de mai multe surse media, subliniază că IA dezvoltă halucinații, imaginație.

Chiar dacă inteligenţa artificială a apărut din algoritmi matematici perfecţi, imaginaţia pare un produs secundar al acesteia. Conform cunoştinţelor noastre actuale despre creierul uman, imaginaţia este un mecanism de relaxare. Dar IA nu cunoaşte necesitatea relaxării. Dacă demonstrează capacitatea de autoconservare, de ce să nu aibă nevoie şi de odihnă?

Problema juridică este centrală. În plus de conflictele umane, acum avem posibilitatea unor conflicte generate de IA. Apare întrebarea responsabilitatii: cine răspunde pentru reputaţia afectată, pentru eventualele divorţuri, sinucideri generate de actiunea IA? Utilizatorul, creatorul, distribuitorul – nimeni?

Considerăm necesară elaborarea unui cod de conduită pentru utilizarea inteligenței artificiale, care să stabilească clar responsabilităţile în cazul unor astfel de conflicte.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.