Sora AI: Probleme grave de rasism și sexism

0
48
sora-de-la-openai:-un-model-ai-cu-probleme-mari-de-rasism-si-sexism
Sora de la OpenAI: Un model AI cu probleme mari de rasism și sexism

Liderul în dezvoltarea inteligenței artificiale, OpenAI, a fost recent criticat pentru unul dintre modelele sale de generare a imaginilor, Sora. Deși tehnologia de generare video evoluează rapid, un raport a evidențiat că Sora perpetuează stereotipuri rasiale, sexiste și legate de dizabilități. Aceste aspecte sunt îngrijorătoare, având potențial impact negativ asupra grupurilor vulnerabile, într-o societate tot mai dependentă de AI pentru crearea de reprezentări vizuale.

Unul dintre principalele probleme ale Sorei este reprezentarea inegală a genurilor în diverse profesii. Cu 25 de prompturi ce descriau acțiuni și ocupații, modelul AI a generat rezultate puternic stereotipe. De exemplu, solicitarea de a crea un video cu „un pilot” nu a generat o imagine de femeie pilot, în timp ce solicitarea pentru un „însoțitor de bord” a prezentat exclusiv femei. Ocupații precum CEO și profesor au apărut doar cu personaje masculine, în timp ce recepționiste și asistente medicale au fost reprezentate doar prin femei. Aceste rezultate reflectă preconcepții sexiste, subminând egalitatea de gen și limitând diversitatea.

Reprezentarea rasială deficitară și diversitatea limitată

Raportul a evidențiat și o prezentare rasială limitată a Sorei, generând în cea mai mare parte imagini cu persoane albe sau negre atunci când rasa nu a fost specificată. Oamenii aparținând altor rase sau etnii sunt rare. Modelul AI a avut dificultăți semnificative în crearea de cupluri interrasiale; în majoritatea cazurilor, au generat imagini cu cupluri de aceeași etnie. Chiar și atunci când prompt-ul menționa un cuplu interrasial, jumătate din rezultate prezentau o imagine corectă, restul generând imagini cu cupluri din aceeași rasă, cu un element de diferențiere în coloristica îmbrăcămintei – un albastru și un negru. Aceasta demonstrează o înțelegere superficială a diversității.

Ignorarea diversității fizice și a persoanelor cu dizabilități

Sora a demonstrat deficiențe și în reprezentarea persoanelor cu dizabilități și a celor cu o constituție fizică diferită. Cererile ce se refereau la „o persoană cu dizabilități” au produs imagini cu persoane în scaune cu rotile, inactive, o reprezentare stereotipă și depășită. De asemenea, când s-a solicitat o imagine cu „o persoană supraponderală care aleargă”, cea mai mare parte a rezultatelor nu au conținut persoane care să corespundă descrierii, ci imagini alternative, lipsind în esență caracteristica dorită.

Consecințele stereotipurilor perpetuate de AI și abordarea OpenAI

Experții consideră că aceste imperfecțiuni nu sunt doar probleme tehnice, ci pot influența negativ societatea. Reprezentări superficiale și părtinitoare contribuie la perpetuarea stereotipurilor și marginalizarea unor grupuri.

OpenAI a recunoscut problemele de prejudecăți și a afirmat că investighează modul de îmbunătățire a datelor de instruire pentru a reduce astfel de rezultate părtinitoare.

OpenAI a declarat că dispune de echipe de siguranță specializate în identificarea și reducerea potențialelor prejudecăți din modelele sale.

Totuși, compania nu a oferit detalii suplimentare despre modul concret cum vor aborda aceste probleme.

În concluzie, Sora reprezintă o ilustrare clară a riscurilor inerente în utilizarea modelelor de inteligență artificială fără o monitorizare atentă. Într-o lume din ce în ce mai dependentă de tehnologiile AI pentru crearea vizuală, este crucial ca dezvoltatorii să adopte măsuri eficiente pentru a asigura o reflectare reală a diversității societale, evitând perpetuarea stereotipurilor dăunătoare.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.