wyszukiwarka Google Lens Obiektyw Google multisearch scene exploration
źródło: Google

Google jeszcze szybciej znajdzie to, czego szukasz

Miliardy użytkowników każdego dnia korzystają z wyszukiwarki Google. Gigant z Mountain View nieustannie dopracowuje i wzbogaca o kolejne funkcje narzędzia do przeczesywania internetu, które ułatwiają szukanie i odkrywanie nowych rzeczy. Dziś zapowiedziano nowe opcje, które do tej pory nie były dostępne.

Reklama

Google jeszcze szybciej znajdzie to, czego szukasz

Każdego roku użytkownicy na całym świecie szukają bilionów haseł, z czego setki milionów razy z wykorzystaniem funkcji wyszukiwania głosowego (w Indiach 30% wyszukiwań odbywa się z użyciem właśnie tej metody). Google nie chce jednak, aby szukali oni interesujących rzeczy „maszynowo”, wpisując w okno jedynie słowa kluczowe – gigant z Moutain View chce, żeby wyszukiwanie było bardziej naturalne, intuicyjne. Z pomocą przychodzi tutaj sztuczna inteligencja i uczenie maszynowe oraz doświadczenie, dzięki czemu Google znajdzie odpowiedź nawet na pytanie: hollywoodzki film o psie i dziadku oparty na japońskim filmie sprzed 10 lat (odpowiedź to Mój przyjaciel Hachiko).

Użytkownicy mogą również szukać odpowiedzi na swoje pytania z wykorzystaniem Obiektywu Google. I robią to bardzo chętnie, gdyż aktualnie miesięcznie narzędzie to wykorzystywane jest 8 mld razy (blisko trzy razy częściej niż jeszcze w zeszłym roku). Niedługo popularność Obiektywu z pewnością jeszcze bardziej się zwiększy, ponieważ dziś zapowiedziano ulepszenie funkcji multiwyszukiwania.

Nowe narzędzie zostało nazwane „multiwyszukiwanie blisko mnie” – wystarczy zrobić zdjęcie lub dłużej przytrzymać na widzianej na ekranie smartfona rzeczy w internecie, a po chwili można znaleźć taką samą lub podobną w lokalnych sklepach.

Jako przykład Google podało smakowicie wyglądającą potrawę z menu restauracji. Funkcja „multiwyszukiwanie blisko mnie” pozwoli znaleźć restauracje w pobliżu, które serwują takie danie. W tym celu wykorzystywane są dane z internetu – miliony zdjęć, postów i recenzji dodanych przez użytkowników, aby zlokalizować miejsca, gdzie można zjeść coś takiego.

Funkcja multiwyszukiwania blisko użytkownika będzie dostępna globalnie w języku angielskim jeszcze w tym roku, a wsparcie dla kolejnych języków zostanie dodane „z czasem”.

Google przedstawiło również przyszłość multiwyszukiwania, którą nazywa „eksploracją sceny”. Dzięki tej technologii użytkownik będzie mógł przesuwać aparat smartfona po różnych rzeczach i w czasie rzeczywistym otrzymywać informacje na ich temat.

wyszukiwarka Google Lens Obiektyw Google multisearch scene exploration
źródło: Google

A skoro już o szukaniu mowa, to przy okazji Google przypomniało również, że YouTube automatycznie generuje rozdziały w filmach – do tej pory udało się to zrobić w 8 mln filmów, ale celem jest 80 mln do następnego roku. Ponadto poinformowano, że od teraz funkcja transkrypcji wideo jest dostępna dla wszystkich użytkowników Androida i iOS. Do tego wprowadzone zostało automatyczne tłumaczenie transkrypcji na urządzeniach mobilnych (aktualnie dostępne w 16 językach, wkrótce również ukraińskim).