Moarte asistată și inteligență artificială: propunere controversată pentru ca AI să decidă final în locul psihiatrilor

0
15
moarte-asistata-si-inteligenta-artificiala:-propunere-controversata-ca-ai-sa-evalueze-decizia-finala-in-locul-psihiatrilor
Moarte asistată și inteligență artificială: propunere controversată ca AI să evalueze decizia finală în locul psihiatrilor

Convingerea că inteligența artificială ar putea decide dacă o persoană este aptă din punct de vedere mental pentru a-și încheia viața a reaprins una dintre cele mai delicate dezbateri etice ale ultimelor decenii. Propunerea provine din partea unui activist cunoscut pentru pozițiile sale radicale privind dreptul la eutanasie și ridică întrebări profunde despre limitele tehnologiei, rolul medicilor și responsabilitatea societății.

Inițiativa apare într-un context în care inteligența artificială devine tot mai prezentă în decizii medicale, administrative și juridice, însă aplicarea sa în situații de viață și moarte reprezintă un punct de cotitură fără precedent.

De la medici la algoritmi: propunerea inventatorului capsulei Sarco

Potrivit Euronews, această sugestie aparține lui Philip Nitschke, medic australian și fondator al organizației pro-eutanasie Exit International, cunoscut pentru dezvoltarea capsulei Sarco – un dispozitiv imprimat 3D care permite unui individ să pună capăt vieții prin inhalare de azot, fără intervenția directă a unui medic.

Nitschke afirmă că evaluarea „capacitării mentale” este profund subiectivă și inconsistents. El consideră că același pacient poate primi verdict diferit de la diverși psihiatri, în funcție de convingeri personale, culturale sau interpretări morale. Din acest motiv, el crede că un sistem bazat pe inteligența artificială ar putea fi mai „neutru” decât un om.

Modelul propus ar consta într-un avatar conversațional care ar purta un dialog structurat cu persoana în cauză. Pe baza răspunsurilor, AI ar analiza coerența, raționamentul și înțelelegerea consecințelor, apoi ar decide dacă utilizatorul este „apt” să ia decizia finală. În cazul trecerii testului, sistemul ar oferi o fereastră temporară limitată pentru acțiune, după care evaluarea ar trebui repetată.

Philip Nitschke intră într-o capsulă de sinucidere numită „Sarco”, în Rotterdam, Olanda, pe 8 iulie 2024. (Foto: AP Photo)

Reacții vehemente și dileme etice majore

Ideea a generat reacții critice puternice din partea psihiatrilor, eticienilor și organizațiilor pentru drepturile omului. Mulți specialiști avertizează că inteligența artificială nu poate înțelege profund contextul emoțional, suferința psihică temporară sau presiunile externe care pot influența o astfel de hotărâre.

Criticii mai semnalează riscul ca AI să confunde depresia, traumele sau crizele emoționale cu un consimțământ informat. În plus, algoritmii, antrenați pe date istorice, pot moșteni prejudecăți, erori sau interpretări eronate, fără a avea transparență sau posibilitatea de contestare a procesului decizional.

Există, de asemenea, temeri legate de responsabilitate: cine suportă răspunderea legală și morală dacă o evaluare greșită are consecințe fatale? Dezvoltatorii software-ului, organizația furnizoare sau societatea în ansamblu?

Un design conceptual pentru capsula „Dutch Double”. (Credit Exit International)

Dreptul la autodeterminare versus protecția celor vulnerabili

Susținătorii acestei idei afirmă că, având în vedere utilizarea deja comună a AI în diagnosticare medicală, trierea pacienților sau prevenirea riscurilor, respingerea acesteia în astfel de domenii ar fi ipocrită. Ei susțin dreptul unui adult lucid de a decide despre propria viață.

Pe de altă parte, opozanții avertizează că introducerea AI în astfel de procese ar putea normaliza moartea asistată dincolo de cazurile medicale extreme și ar putea slăbi mecanismele de protecție pentru persoanele vulnerabile.

Deocamdată, această propunere rămâne la nivel conceptual și în stadii de testare limitată. Autoritățile din state cu legislație mai permisivă, precum Elveția, au exprimat rezerve, iar aceptarea oficială a unui astfel de sistem pare, cel puțin pentru moment, improbabilă. Cert este însă că dezbaterea despre implicațiile acestei idei va continua, pe măsură ce inteligența artificială își extinde influența în cele mai intime decizii umane.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.