Gemini Live otrzymuje nowe funkcje. Zgodnie z zapowiedzią technologicznego giganta, pierwsi użytkownicy mogą już dzielić się z chatbotem podglądem z aparatu oraz udostępniać sztucznej inteligencji podgląd ekranu smartfona w czasie rzeczywistym.
Google wdraża kolejne funkcje do Gemini
Gemini staje się coraz bardziej zaawansowanym narzędziem i asystentem opartym o sztuczną inteligencję. W maju 2024 roku, podczas deweloperskiej konferencji Google I/O, przedstawiciele technologicznego giganta skupili się przede wszystkim na AI. Wspomniano wtedy o agentach czy też asystentach, którzy będą odpowiedzialni za odciążenie użytkowników w codziennych czynnościach.
Jednym z tematów poruszonych na zeszłorocznej konferencji I/O był Project Astra – jego podstawowe założenie polegało na tym, aby obdarzyć Gemini „wzrokiem”. Korzystając z aparatu w smartfonie, sztuczna inteligencja mogłaby zobaczyć otoczenie i obiekty zgromadzone wokół, a następnie prowadzić rozmowę z użytkownikiem na temat tego, co widzi.
Wygląda na to, że Google wreszcie urzeczywistnia swój plan. O wdrożeniu takich opcji wspomniano już podczas tegorocznych targów MWC. Deklarowano wówczas, że jeszcze w tym miesiącu zaczną być udostępniane subskrybentom Gemini Advanced w planie Google One AI Premium. Pierwszy użytkownik zauważył, że może już wypróbować niektóre opcje Project Astra – jakie?
Gemini Live otrzymuje „oczy”
Jeden z użytkowników Reddita pochwalił się nowymi funkcjami, jakie dotarły do jego aplikacji Gemini na smartfonie Xiaomi. Pojawił się u niego nowy przycisk „Share screen with Live” („Udostępnij ekran Live”), za pomocą którego możliwe jest udostępnienie całego ekranu smartfona – sztuczna inteligencja może analizować jego zawartość oraz wygenerować odpowiedzi na temat tego, co jest na nim wyświetlane.
Wśród nowości zauważono również funkcję udostępniania podglądu z aparatu w czasie rzeczywistym. Osoby mające dostęp do tej opcji mogą otworzyć pełny interfejs Gemini Live i uruchomić transmisję wideo za pomocą przycisku zlokalizowanego w prawym dolnym rogu. Sztuczna inteligencja skorzysta z aparatu w smartfonie i przeanalizuje to, co znajduje się w jego zasięgu.
Jak zauważa The Verge, wprowadzenie tych funkcji do chatbota AI jest przykładem sporej przewagi Google nad konkurencyjnymi produktami. Amazon Alexa+ jest dopiero na ograniczonym, wczesnym etapie rozwoju, a analogiczny produkt Apple ma pojawić się jeszcze później niż przewidywano.