Sztuczna inteligencja pozostaje oczkiem w głowie firmy Google. To na jej rozwój największy nacisk kładzie obecnie amerykański producent, a najnowszym owocem takich prac jest udostępniony właśnie pierwszy model z serii Gemini 2.0.
Gemini 2.0 już tu jest. Ma sprawić, że sztuczna inteligencja będzie bardziej przydatna
Model Gemini 2.0 Flash został udostępniony w wersji eksperymentalnej. Według firmy Google jest to wszechstronne rozwiązanie, wyróżniające się niskimi opóźnieniami i wysoką wydajnością. W porównaniu do modelu Gemini 1.5 Pro osiąga nieco lepsze wyniki, działając przy tym dwukrotnie szybciej.
Nowy model obsługuje multimodalne dane wejściowe, co oznacza, że poza tekstem jest w stanie rozumieć i interpretować także obrazy, filmy i dźwięki. Równocześnie cechuje go obsługa multimodalnych danych wyjściowych, a więc potrafi natywnie generować obrazy połączone z tekstem i audio w wielu językach. Dodatkowo jest w stanie samodzielnie wywoływać narzędzia pokroju wyszukiwarki Google czy też wykonywać kod.
Dostęp do informacji jest podstawą postępu ludzkości. Właśnie dlatego od ponad 26 lat naszą misją jest porządkowanie ich globalnego zasobu oraz uczynienie ich przystępnymi i przydatnymi. W tym celu nieustannie przesuwamy granice sztucznej inteligencji. Taka była nasza wizja, gdy w grudniu ubiegłego roku wprowadziliśmy model Gemini 1.0. Po raz pierwszy opracowaliśmy jego natywnie multimodalne wersje, 1.0 i 1.5, znacznie usprawniając obsługę multimodalności i długich kontekstów. […] Dziś z radością wkraczamy w kolejną erę modeli opracowanych z myślą o nowej epoce agentowej: przedstawiamy Gemini 2.0. […] Podczas gdy model Gemini 1.0 służył do porządkowania i interpretowania informacji, Gemini 2.0 ma sprawić, że będą one znacznie bardziej przydatne. Sundar Pichai, prezes Google
Gemini 2.0 Flash jest już dostępny dla deweloperów w Google AI Studio i Vertex AI, a także dla wszystkich użytkowników w przeglądarkowej wersji asystenta. Już niebawem trafi też do aplikacji mobilnej Gemini, a na początku przyszłego roku pojawi się w kolejnych usługach Google.
Nowe możliwości sztucznej inteligencji i cztery wielkie projekty na bazie Gemini 2.0
Firma Google wymienia, że model Gemini 2.0 Flash to między innymi rozumienie długiego kontekstu, planowanie skomplikowanych instrukcji, analiza multimodalna czy natywne wykorzystanie narzędzi. Przede wszystkim zaś – współpraca wszystkich tych funkcji. To otwierać ma nowe możliwości w sektorze sztucznej inteligencji.
Te nowe możliwości wykorzystać próbuje się w projekcie Astra, zakładającym stworzenie uniwersalnego asystenta AI. W nowej wersji nauczył się on rozmawiać w wielu językach naraz i lepiej rozpoznawać akcenty oraz praktycznie wykorzystywać wyszukiwarkę, Obiektyw i Mapy. Zwiększyła się też jego pamięć – ma pod kontrolą wszystko, o czym rozmawiało się przez ostatnie 10 minut i sporo z tego, co działo się wcześniej.
Wśród innych eksperymentalnych projektów znajdują się Mariner (eksplorujący temat przyszłości interakcji między człowiekiem a przeglądarką internetową – analizując informacje na ekranie i wykorzystując je do wykonywania zadań za użytkownika) oraz Jules (to z kolei agent kodujący – tworzący kod i rozwiązujący związane z nim problemy).
Równocześnie udostępniania jest funkcja Deep Research, mająca ułatwiać i przyspieszać poszukiwanie informacji. Zasada jest taka, że samodzielnie eksploruje skomplikowane tematy, a następnie wyciąga z nich esencję i tworzy rozbudowane, a przy tym łatwe do czytania raporty, oparte na zaproponowanym wcześniej planie badawczym. Prowadzi research zupełnie tak, jak robiłby to człowiek, a źródła pozyskiwanych informacji dodaje w formie przypisów. Na razie z funkcji tej skorzystają jednak tylko subskrybenci Gemini Advanced.