Google a lansat un test pentru o modificare aparent minoră, dar cu impact semnificativ asupra modului în care căutăm informații: pe pagina principală, în bara de căutare, a fost introdus un nou buton cu simbolul „+”, înlocuind vechea iconiță de tip lupă, care anterior era mai degrabă decorativă. Conceptul din spatele noului buton constă în facilitarea utilizării: în loc să introduci text de la zero, poți încărca direct o imagine sau un fișier și iniția o căutare asistată de inteligența artificială.
Această actualizare survine pe fondul unui proces de transformare a motorului de căutare Google spre o interfață mai „multimodală”, în care interacționezi nu doar cu text, ci și cu documente, fotografii sau alte tipuri de conținut, iar AI-ul devine un ghid pentru întrebări și comparații.
Ce reprezintă butonul „+” și unde îl identifici
Noua pictogramă se află în partea stângă a barei de căutare, într-un loc familiar pentru utilizatorii de aplicații de mesagerie, unde iconițele similare sunt folosite pentru atașamente. Când plasezi cursorul peste simbol, apare o indicație precum „Încărcare imagine” sau „Încărcare fișier”, sugerând funcția sa de a iniția o căutare pornind de la conținutul încărcat, nu doar de la text tastat.
După încărcarea fișierului sau a imaginii, elementul încărcat este vizibil chiar în bara de căutare, apoi poți continua conversația: formulezi întrebări, soliciți explicații, ceri clarificări sau oferi AI-ului un prompt mai specific, în funcție de informațiile din materialul furnizat.
Cum funcționează în mod concret și de ce este avantajos
Un exemplu simplu îl constituie un document textual, precum un fișier PDF sau Word. În loc să cauți manual fragmente din text, poți solicita un rezumat, extragerea principalelor idei, o listă de concepte cheie sau să efectuezi o căutare după termeni și subiecte. Pentru cei care manipulează volume mari de material, avantajul e rapiditatea, eliminând pașii de „copiere, lipire, căutare repetată” și ajungând mai rapid la informațiile esențiale.
Din punct de vedere vizual, dacă încarci o fotografie cu un obiect, precum un electrocasnic sau un instrument muzical, poți obține detalii despre modele, caracteristici sau variante similare. Funcția devine și mai valoroasă atunci când vrei să compari rezultate din multiple surse, să verifici specificații sau să desfășori o mică „investigație” bazată pe o imagine cu detalii relevante.
Funcția facilitează semnificativ pașii față de metoda clasică de căutare prin imagini sau documente și, deocamdată, este disponibilă pe desktop și în modul incognito.
Importanța acestei schimbări pentru evoluția Google
Este relevant de menționat că Google dispunea deja de instrumente pentru căutare vizuală, precum Google Lens, care putea analiza imagini de ceva vreme. Diferența acum constă în accentuarea acestei funcționalități: opțiunea nu mai este ascunsă în meniuri sau pași suplimentari, ci este plasată direct în centrul experienței, la prima interacțiune cu motorul de căutare.
În 2025, Google a avansat în integrarea inteligenței artificiale în procesul de căutare prin AI Mode, iar butonul „+” pare să sprijine aceeași strategie: motorul de căutare nu mai reprezintă doar o listă de linkuri, ci o interfață în care încarci conținut și iei parte la o explorare ghidată, mai rapidă și mai intuitivă, fiind astfel accesibil și utilizatorilor mai puțin tehnici.
Disponibilitate actuală și limitările funcției
În prezent, butonul „+” este disponibil pe desktop și, interesant, și în ferestrele de navigare în modul incognito. Aceasta indica că Google are intenția de a face această funcție accesibilă rapid, fără a necesita neapărat conectarea într-un cont, ceea ce poate fi util pentru utilizatorii care preferă navigarea anonimă sau pentru testare rapidă.
Se așteaptă ca în viitorul apropiat să devină disponibil pe dispozitive mobile și să fie adoptată la scară largă, însă direcția clară indică faptul că Google încearcă să reducă timpul dintre „am un fișier” și „am nevoie de răspunsuri”, utilizând inteligența artificială ca supliment peste procesul tradițional de căutare.















