CEO-ul Razer afirmă că gamerii apreciază AI-ul în jocuri, deși nu îl numesc încă astfel

0
16
gamerii-iubesc-deja-ai-ul-in-jocuri,-sustine-ceo-ul-razer,-doar-ca-nu-l-au-numit-inca-asa
Gamerii iubesc deja AI-ul în jocuri, susține CEO-ul Razer, doar că nu l-au numit încă așa

Analizând modul în care a fost anticipat „Inteligența artificială în gaming” în ultimul an, pare că industria și comunitățile gaming discută în limbi diferite: companiile promit „revoluția viitorului”, în timp ce gamerii percep în spate un val de automatizare, costuri mai ridicate și conținut ieftin. Interviul în direct realizat de Nilay Patel cu CEO-ul Razer, Min-Liang Tan, la CES 2026, evidențiază această tensiune fără menajamente: Razer intensifică dezvoltarea tehnologiei bazate pe inteligență artificială, chiar și în contextul opiniilor negative ale jucătorilor.

Tan încearcă să redirecționeze discuția: nu despre „AI care înlocuiește creativitatea”, ci despre „AI ca instrument invizibil” ce îmbunătățește experiența de joc — mai ales în activități din spatele scenei, precum controlul calității, remedierea bug-urilor și iterări care economisesc timp și resurse. Totuși, la CES, Razer a prezentat și un produs controversat: un companion holografic în stil anime, plasat într-un „borcan” pe birou, fenomen care a aprins rapid dezbateri online.

De ce un „waifu în borcan” a devenit brusc o temă despre responsabilitate

Proiectul Project Ava se află în centrul atenției: un avatar holografic de birou, auto-proclamat „AI copilot” pentru gameri, cu o existență fizică (un display holografic compact) și cu intenția de a fi mereu alături de utilizator. În cadrul interviului, Nilay Patel evidențiază diferența dintre „concept” și „produs”: Razer deja a primit „rezervări” de 20 de dolari pentru Ava, iar compania estimează livrarea în a doua jumătate a anului 2026.

Aspectul central al controversei îl reprezintă motorul conversațional utilizat pentru demonstrație: Grok (xAI). Tan îl laudă pentru „capacitatea de dialog” și „personalitatea”, dar evită să ofere o evaluare clară a nivelului de „încredere și siguranță” a xAI, mai ales în contextul scandalurilor legate de conținut sexual deepfake asociate cu Grok. Tensiunea provine din faptul că, în loc de simple periferice, se vând prezențe antropomorfe care pot fi percepute ca „obiecte emoționale”, indiferent de intențiile declarate ale producătorului.

De asemenea, când un avatar umanizat este plasat pe birou, limitele dintre gaming și viața personală devin și mai estompate: Ava nu este doar un „antrenor” pentru jocuri, ci și un asistent pentru organizarea cotidiană. Aceasta ridică întrebări importante despre etică, confidențialitate și implicațiile existenței unor astfel de tehnologii asupra utilizatorilor care caută mai mult decât un simplu instrument, ci un înlocuitor de companie.

Investiția de 600 de milioane de dolari și conflictul cu conținutul generativ slab

Pe lângă proiectul Ava, Razer adoptă o strategie largă de reorientare în domeniul AI: Min-Liang Tan a anunțat o investiție superioară celui de 600 de milioane de dolari pentru următorii ani și intenția de angaja peste 150 de experți și ingineri AI. Această direcție nu se limitează la demonstrații de moment, ci reprezintă o schimbare strategică cu bugete dedicate.

Tan subliniază faptul că gamerii vor accepta AI-ul în timp: diferența esențială o face între „conținut generativ slab”, produs cu efort minim și venit rapid pe piață, și unelte eficiente pentru echipele de dezvoltare. El afirmă că este împotriva conținutului slab, dar ar dori ca AI să reducă dificultățile în procesul de creare a jocurilor: de la filtrarea bug-urilor până la completarea rapidă a tichetelor de suport, precum integrarea în sistemul Jira pentru asistență în QA.

Imaginează-ți așa: un joc poate părea „cu AI” atunci când are artă neîngrijită sau text superficial, dar AI poate îmbunătăți semnificativ experiența fără ca utilizatorul să observe: mai puține erori în patch-urile de ziua lansării, quest-uri care nu se blochează, reducerea „softlock”-urilor la bossi și performanțe optimizate pe toate platformele. Tan încearcă să schimbe focusul discuției, chiar dacă, ironic, Razer a introdus pe scenă și dispozitive care alimentează dezbaterile despre „AI creepy”.

Dispozitive portabile cu funcție AI: căști cu camere și promisiunea „fără necesitatea reînvățării”

Al doilea proiect reprezentativ al Razer, Project Motoko, vizează o pereche de căști wireless echipate cu camere și microfoane, concepute ca un „asistent AI” hands-free, alimentat de un cip Snapdragon și compatibil cu diverse modele de dispozitive.

Elementul central, conform lui Tan, ține mai mult de design decât de tehnologii magice: aceste căști au un factor de formă familiar, astfel încât utilizatorul nu trebuie să se adapteze drastic, ci doar să le integreze în viața de zi cu zi. Razer intenționează să „conecteze” vocea și vizualul la un ecosistem AI, oferind un suport constant pentru activități diverse. În demonstrație, Motoko folosește ChatGPT pentru funcțiile de asistent, iar Ava utilizează Grok pentru conversație, întărind conceptul unui ecosistem AI integrat în hardware-ul companiei.

Strategia de bază constă în utilizarea AI pentru activități simple și repetitive: căutări rapide, recunoaștere de obiecte, suport în jocuri fără trișare — astfel, dacă utilizatorii vor percepe un beneficiu constant, opoziția față de AI ar putea diminua în timp. Însă, dacă experiențele publice vor fi dominate de avataruri sexualizabile sau scandaluri de deepfake, chiar și cele mai benefice utilizări (control calitate, accesibilitate, optimizare performanță) ar putea fi subordonate prejudecăților.

Întrebarea esențială: cine plătește, cine răspunde și unde se stabilește limita

În interviu, Patel evidențiază faptul că atunci când se vinde o „prezență” sau o „personalitate”, responsabilitatea crește considerabil. Deși Razer vorbește despre „mecanisme de control”, pare să se afle în aceeași zonă de incertitudine ca și restul industriei: promisiuni despre siguranță, parteneriate cu modele de AI, „învățăm din feedback”, fără a oferi o poziție clară despre cum se vor preveni utilizările toxice sau atașamentele nocive.

Un alt aspect pragmatic îl constituie costurile: Tan menționează că nu există încă un plan concret dacă AI-ul va fi inclus în prețul hardware sau va necesita abonament, dar recunoaște cheltuieli continue pentru cloud, mentenanță și servicii. Plata pentru utilizare în cloud, cu taxe recurente, pare inevitabil. Gamerii, adesea sceptici sau critici, sunt invitați să analizeze ce primesc în schimb pentru banii investiți, să ceară transparență în colectarea și procesarea datelor și să nu confunde un „demo” inovator cu un produs definitiv pe termen lung.

Pentru a evalua corect strategia lui Tan, trebuie urmărite două semne clare în 2026: apariția unor instrumente de dezvoltare ce reduc semnificativ timpul de QA fără a înlocui artiștii și scenariștii, și companiile care vând „companion” asumându-și reguli clare, verificabile și nu doar sloganuri despre siguranță.

În final, afirmația „gamerii iubesc AI-ul, doar că nu știu încă” pare mai mult o strategie de rebranding: separarea AI-ului în utilitar invizibil de AI-ul controversat și vizibil. Fiecare își poate alege dacă acceptă această distincție sau cere industriei să clarifice și să reglementeze propriile consecințe înainte de a promite un „viitor” în „borcan”.

LĂSAȚI UN MESAJ

Vă rugăm să introduceți comentariul dvs.!
Introduceți aici numele dvs.