Google je počeo da uvodi novu opciju unutar Search Live funkcije, omogućavajući korisnicima da dele kameru direktno tokom razgovora sa veštačkom inteligencijom.
Još u maju ove godine, Google je najavio planove da „Project Astra“ mogućnosti prebaci u samu Google pretragu. Ideja je bila da se omogući dvosmerna interakcija – putem glasa i videa – što podseća na iskustvo koje nudi Gemini aplikacija. Testiranja su počela u junu, a sada prvi korisnici već dobijaju pristup.
Korisnici uključeni u Search Labs program sada primećuju novi taster za kameru u okviru Search Live interfejsa na celom ekranu. Kada se aktivira opcija „Video“, gornji deo ekrana postaje vizir kamere, dok četvorobojni luk reaguje i animira se u trenutku kada Google daje svoj odgovor.
Search Live se može pokrenuti iz donjeg desnog ugla tokom AI Mode razgovora ili sa vrha Google aplikacije, ispod polja za pretragu. Nakon toga potrebno je samo odabrati „Video“ opciju, koja se nalazi između Mute/mikrofona i Transcript dugmeta. Ipak, Transcript i dalje vodi u klasični tekstualni razgovor, umesto da prikazuje real-time transkripciju preko videa.
Još jedna novina tiče se Google Lens-a, koji je dobio suptilan redizajn. Umesto ranijeg interfejsa, sada je prisutan fullscreen vizir sa tri opcije u obliku pilule: Search, Translate i Live. Opcija „Homework“ je uklonjena, a pokretanjem „Live“ korisnici ulaze direktno u Search Live kameru, bez dodatnih koraka.
Ova novina se trenutno pojavljuje na ograničenom broju Google naloga u SAD-u, a dostupna je kroz najnovije verzije Google aplikacije – stabilnu (16.28) i beta (16.29) na Android uređajima. Još uvek nije poznato kada će šira publika moći da koristi ovu funkciju, ali sve ukazuje na to da Google ubrzava testiranja i priprema teren za širu dostupnost.