Wiko VIEW

Google zaskakuje. W Pixelu 2 ukryty jest dodatkowy procesor obrazu. Android 8.1 go uwolni

Choć Pixel 2 i Pixel 2 XL nie są oficjalnie dostępne w Polsce, na pewno znajdą się tacy, którzy zechcą na własnej skórze przekonać się, czy smartfon od Google’a to dobro najwyższej próby, czy też nie. Zachęcić ich może do tego wiadomość, że firma nie powiedziała jeszcze wszystkiego w temacie jakości zdjęć robionych przez aparaty tych urządzeń. W Pixelach zaszyty jest bowiem dodatkowy procesor obrazu…

Pixel Visual Core – tak nazywa się komponent, którego dotąd Google nie uruchomiło w nowych Pixelach. Mało tego: nie było o nim żadnej wzmianki podczas konferencji, na której je zaprezentowano. Chip ten został zaprojektowany przez Google w celu zwiększenia możliwości aparatu. Układ nie jest aktywny, ale producent mówi, kiedy zamierza go zdalnie uruchomić – podczas aktualizacji Pixela 2 i Pixela 2 XL do Androida Oreo 8.1.

Oczywiście na samym początku nowe możliwości pojawią się przed deweloperami – to oni w pierwszej kolejności zostaną pobłogosławieni przywilejem pobrania nowej wersji systemu Google. Będą mogli wykorzystać Pixel Visual Core do tworzenia aplikacji przetwarzających zdjęcia HDR+. W ten sposób w sklepie Google Play pojawią się apki, które zrobią zdjęcia równie dobre, jak podstawowa aplikacja aparatu w Pixelach.

Spójrzcie, jak sprawdza się ten bajer w praktyce. Po lewej: zdjęcia wykonane Pixelem 2 przy pomocy nieoficjalnej aplikacji, a po prawej: zdjęcia z HDR+ wykonane przy wsparciu Pixel Visual Core.

Pixel Visual Core dysponuje ośmiordzeniowym procesorem przetwarzania obrazu (IPU), który radzi sobie z trylionem operacji na sekundę. Według zapewnień Google, rdzenie układu mogą przetwarzać obrazy HDR+ 5 razy szybciej niż dotychczas robi to Pixel 2, jednocześnie ograniczając zużycie energii dziesięciokrotnie.

Mało tego: ten procesor obrazu jest wyposażony we własną jednostkę centralną w postaci pojedynczego rdzenia CPU (w tej roli Cortex-A53) oraz własną pamięć RAM DDR4. Pierwszą aplikacją, która wykorzysta potencjał tego ukrytego potworka będzie “HDR+”, napisana przez deweloperów Google’a. Później pojawią się również inne programy, wiążące Pixel Visual Core z algorytmami uczenia maszynowego.

Układ Google Pixel Visual Core w powiększeniu

Wersja deweloperska Androida Oreo 8.1 powinna trafić do programistów w ciągu kilku tygodni. Wtedy też Google “uwolni” Pixel Visual Core z klatki. Ciekaw jestem efektów.

źródło: Google przez Gadgets360 

Komentarze

  • Linkyop

    Google napisało na stronie Pixeli 2, że zostanie on uruchomiony wraz z aktualizacją do Android’a 8.1, ale cwane Google dowiedziało się o “wycieku” i usuneło tą informacje. :P

    • K. Roll

      Ciii ;) Na razie info dalej wisi na blogu Google’a, do którego linkuję w źródłach – stamtąd jeszcze nie usunęli ;)

  • sceptyk

    Zdjęcia – mówiąc delikatnie – szału nie robią… Ani przed, ani po (czy też precyzując: bez HDR+ i z nim). Nie mówiąc o wiarygodności takich zestawień, jak pokazały historie tylu innych producentów, modeli i aparatów.

    • regoat

      Nie ma to jak aparat w twoim telefonie za 500 zl

      • galakty

        Ale on ma rację. Po pierwsze zdjęcia z prawej szału nie robią, a po drugie te z lewej były robione “nieoficjalną aplikacją”, czyli wybrali najgorszą opcję z możliwych. W realu różnica będzie znikoma. Poza tym skoro to taka genialna technologia, to dlaczego na konferencji NIC nie powiedzieli?! Przecież to głupota. Zresztą nawet opłacone testy Dxomark pokazują, że Pixel 2 robi słabe zdjęcia.

        • Obecnie DXOMark opłacane jest przez Apple, a więc wiadomo, że konkurencja wyjdzie gorzej.
          Jednak co do zdjęć to szału nie robią.

  • Poco x3

    Że jest podbity kontrast i jasność to że lepsze? Bzdura. Zdjęcia z lewej dużo lepsze, bo naturalne. Naturalnie oddana temperatura barw i reszta. Chce sobie sztucznie rozświetlić czy podbić kontrast to zrobie to w 2 sek ale po co?

    • Edmund K

      Ty dobrze się czujesz?

    • galakty

      Nie masz zielonego pojęcia, więc nie pisz. Tu chodzi o rozpiętość tonalną, a nie kontrast… Pobierz sobie zdjęcie z lewej i zrób swoim magicznym kontrastem zdjęcie z prawej. Daj znać jak Ci się uda.

      • zed

        OK, ale skoro matryca nie potrafi zarejestrować większej rozpiętości i jej tam po prostu nie ma, to jakim cudem „procesor” nagle robi z tego fotkę o większej rozpiętości.
        Takie coś jest możliwe za pomącą prawdziwego HDR, czyli robisz szybko (smartfonem, to raczej bez statywu się nie uda) przynajmniej trzy po sobie następujące fotki (niedoświetlona/właściwa ekspozycja/prześwietlona) i łączysz to w oprogramowaniu.
        Nie ma tutaj potrzeby czarować z procesorem, który się komuś zapomniał i teraz się odnalazł. ;)

        • thecoolkid 😎

          Nie przejmuj się. Kolega, który cię poucza też nie ma pojęcia co pisze. Niech poczyta jak działa HDR+ od Google, bo to dokładnie wyjaśniali na swoim blogu i niech nie pisze bzdur. HDR+ w przeciwieństwie do klasycznego HDR robi serię niedoświetlonych zdjęć, łączy je usuwając szum i następnie podbija cienie. Więc owszem, da się zrobić takie zdjęcia samemu w programie, z tym że będą bardziej zaszumione.

    • Doge Wow

      Wiesz, niektórym bardziej zależy na uchwyceniu w wyraźny sposób postaci aniżeli tła (w tym przypadku nieba) ale jeżeli wolisz inaczej i lubisz patrzeć na tła w obrazach (swoją drogą na lewym ono i tak nie było najlepszej jakości, było przepalone) to proszę ja ciebie bardzo ;)

  • Kuba

    Naciagane to trochę. Zdjęcia „wspomagane procesorem” wcale nie są lepsze od tych „zwykłych”. Na zdjęciu pana z dziewczynką, widać aurę wokół postaci, a najbardziej jest to widoczne przy jego głowie. Nie wygląda to najlepiej. Taka sama aura pojawia się na innych „dopingowanych” zdjęciach przy różnych elementach, takich jak drzewa, konstrukcja na placu zabaw.

  • Michał P

    Pierwsze trzy zdjęcia to typowe przykład gdzie algorytmy automatycznego pomiaru światła zostały oszukane- główny obiekt jest najciemniejszy a że w kadrze jest sporo jasnego nieba- no to jest ciemny. Wystarczyłoby wybrać pomiar centralny wazony bądź wręcz punktowy na twarz, i efekt byłby o wiele lepszy.
    HDR jest modny i mocno nadużywany. Po cholerę HDR gdy tak naprawde interesuje nas obiekt na pierwszym planie, a tło.. o wiele mniej.

    • stark2991

      Nie ma nic fajnego w dobrze uchwyconym pierwszym planie i przepalonym niebie w tle :)

  • pio

    ciekawe o czym jeszcze nie powiedzieli, co tam jest ukryte.

  • zed

    Taaa, cudowny i magiczny procesor. Zrobisz fotkę (bo osobiście nie nazywam tego co wypluwają smartfony fotografią) tym samym plastikowym oczkiem i mikromatrycą, którą robiłeś fotki do tej pory i nagle przyjdzie pan procesor ;), który gdzieś się tam ukrywał i z tej samej zarejestrowanej „bazy” wyczaruje cudowne fotografię. HDR-y szmery bajery, filtry, odszumiacze, rozmywacze sprawią, że do zrobienia poprawnej fotografii nie potrzeba wcale obiektywu i solidnej matrycy.
    Wystarczy jakaś rozmazana plama, a resztę sobie wymyśli i narysuje oprogramowanie/procesor.
    Jak najbardziej te cuda może sobie zrobić każdy w programie graficznym, a znając życie i nieskończoną bezczelność marketingowców, to tutaj też pewnie będzie po prostu nowy soft do wypluwania obrobionych fotek i nic więcej.
    Ktoś lubi wierzyć w bajki, to jego sprawa.

  • Tomasz G.

    Uuuu, to znaczy że narazie HDR nie działa?

    • Linkyop

      Nie, tutaj chodzi o “HDR+”.

      • Tomasz G.

        Hmm, no popatrz a na zdjęciu wygląda jakby za pierwszym razem zdjęcie zrobione było bez hdr

  • Są gdzieś jakieś informacje o Androidzie 8.1? Bo, że 9.0 (P) jest w drodze, to wiem, ale o 8.1 pierwsze słyszę.

    • Linkyop

      Polecam zajrzeć do źródła.

Logowani/Rejestracja jest chwilowo wyłączona