Google chce, aby panoramy w Street View były jeszcze lepsze. I już nad tym pracuje

Google Street View to usługa, która od dłuższego czasu jest po prostu… powszechna. To już nie oglądanie nowojorskich ulic, a przemierzanie dowolnej drogi na każdej wsi w Polsce. Wygląda jednak na to, że gigant z Mountain View nie jest do końca zadowolony z ulicznych panoram i zapowiedział, że pracuje nad ich poprawą.

Rozwój Map Google obserwuje prawdopodobnie każdy z Was – w końcu do tej aplikacji przeciętny użytkownik smartfona zagląda dosyć często. Czasem sprawdzamy tam dystans między dwoma punktami, wielu służy jako ulubiona nawigacja samochodowa, a i jako przewodnik wycieczek pieszo-rowerowych sprawdza się całkiem nieźle. Nieco inaczej jest z Google Street View – usługą, z której korzystamy raczej w sytuacjach wyjątkowych. Trzeba jednak przyznać, że w swojej kategorii jest to narzędzie nieocenione.

Mimo wszystko funkcja ta nie jest idealna. I nie mówię tu o samej „aktualności” zdjęć, jak i ich jakości, ale samym przetworzeniu panoram. Pracę nad tym pierwszym Google zapowiedziało już we wrześniu, a teraz szykują się zmiany o 360 stopni.

Domyślacie się zapewne, jak powstają obrazy sferyczne w Google Street View – to po prostu zlepek różnych zdjęć przekształcanych na panoramę. Co oczywiste, grafiki są łączone nie przez człowieka, lecz specjalne algorytmy, które starają się stworzyć ułudę rzeczywistego świata na podstawie wielu ujęć z kamery.

Nic nie jest bezbłędne, więc podobnie dzieje się w przypadku Google Street View – nie trzeba zbyt długo szukać, aby odnaleźć artefakty powstałe w wyniku niedokładnego nałożenia zdjęć, na ogół spowodowanego przesunięciem obrazów względem siebie. Wtem, do akcji wkroczył duet stworzony z Mike’a Krainina oraz Ce Liu.

Sam sposób jest dosyć skomplikowany i został profesjonalnie omówiony na łamach Google Research Blog, lecz z punktu widzenia użytkownika, całość można uprościć do jednego zdania – pracownikom udało się przygotować algorytm, który odpowiednio analizuje zdjęcia i łączy je… po prostu lepiej, czego przykładem może być poniższa grafika.

Żeby jednak nie pozostawić sprawy uproszczonej do niezbędnego minimum, pozwolę sobie przedstawić tok myślowy Google. Przyczyn niedokładności panoram można upatrywać się na kilku płaszczyznach, a są to: niedokładnie skalibrowane kamery rozety, opóźnienia w robieniu zdjęć między sąsiednimi kamerami oraz efekt paralaksy – za jego wizualizację może posłużyć przesuwająca się grafika tytułowa w naszych felietonach i recenzjach, chociażby Samsunga Galaxy Note 8.

Przygotowany algorytm opiera się na Optical Flow, dzięki któremu różne zdjęcia są odpowiednio zniekształcane celem ich lepszego dopasowania do siebie na nakładających się fragmentach. Następnie potrzebna jest Global Optimalisation, która na podstawie poprzedniego kroku wypacza nie pojedynczy obraz, a całą panoramę. Ostateczny efekt jest taki, że samo pole widzenia wygląda… lepiej.

Nie pozostało mi zatem nic innego, jak życzyć Google powodzenia. Nowy algorytm już jest stosowany przy nowo powstających grafikach, a teraz należy mieć nadzieję, że znajdzie trochę czasu dla tych starszych ;).

źródło: Google Research Blog dzięki Android Police