Czy oceny DxOMark można traktować jako wiarygodne? Cz. 2

Jesteśmy świeżo po premierze najnowszych urządzeń Samsunga z serii Galaxy S. Tym razem serwis DxOMark nie czekał kilku lub nawet kilkunastu miesięcy z publikacją oceny możliwości optycznych nowych urządzeń. Ta pojawiła się już dzień po premierze, 21 lutego tego roku, i, ku zaskoczeniu wielu osób, najnowszy Samsung z serii Galaxy nie przebił muru 109 punktów, jakie uzyskały ubiegłoroczne flagowe urządzenia Huawei. Smartfon otrzymał również identyczny wynik 114 punktów w kategorii Photo. Czy oznacza to, że w fotografii mobilnej mamy kompletny zastój i kolejnym urządzeniom będzie coraz trudniej uzyskać wyższe wartości punktowe czy też winę za taki stan rzeczy ponosi sama metodyka serwisu DxOMark?

Reklama

Premiera Samsunga Galaxy S10+ i opublikowane oceny możliwości optyki tego telefonu skłoniły mnie do postawienia pytania: jak w ogóle ocenia DxOMark, w sensie: skąd biorą się punktacje końcowe (wynikowe) tego serwisu? Jaką stosuje on metodę przyznawania punktacji? Nigdzie w sieci nie znalazłem odpowiedzi na tak postawione pytania. Przyjrzyjmy się więc po kolei poszczególnym zagadnieniom w tym zakresie.

Kolejność na liście urządzeń

Wydaje się oczywiste, że smartfony z wyższą punktacją zajmują wyższe miejsce w zestawieniu ogólnym niż te z niższą. A co się dzieje w sytuacji, gdy kilka urządzeń otrzyma identyczną notę? Czy brane są pod uwagę składowe foto i wideo? Nie. W takiej sytuacji serwis po prostu szereguje urządzenia wg kolejności alfabetycznej. Widać to najlepiej przy punktacji 90, gdzie uszeregowano kolejne smartfony od Asusa do Xiaomi:

Reklama

Stąd też pierwsze miejsce w zestawieniu utrzymuje Huawei Mate 20 Pro. Nie dlatego, że uzyskał np. więcej punktów składowych w jakiejś kategorii, ale dlatego, że tak po prostu wynika z… kolejności alfabetycznej. Gdybyśmy jednak chcieli uszeregować pierwsze trzy telefony w sposób bardziej miarodajny okaże się, że np. Huawei P20 Pro ma wyższe noty za wideo od Mate 20 Pro i Samsunga Galaxy S10 i to on powinien być traktowany jako lider zestawienia z punktacją 109,1 punktu:

model Huawei Mate 20 Pro Huawei P20 Pro Samsung Galaxy S10 Plus
PHOTO 114 114 114
VIDEO 97 98 97
MOBILE 109 109 109

Jeżeli jednak interesuje nas wyłącznie ocena fotograficzna, to rzecz robi się bardziej skomplikowana:

model Huawei Mate 20 Pro Huawei P20 Pro Samsung Galaxy S10 Plus
JAKOŚĆ OGÓLNA 596 590 598
BOKEH + ZOOM 130 143 133
SUMA PKT 726 733 731
OCENA PHOTO 114 114 114

Mimo identycznej oceny ogólnej 114 pkt to Huawei P20 Pro prowadzi w ogólnej sumie uzyskanych punktów za poszczególne składowe (733 vs 726 Mate 20 Pro), ale prowadzi tylko i wyłącznie dlatego, że uzyskał znacznie wyższą punktację za dodatkowe parametry Bokeh i Zoom, wprowadzone w 2017 roku. Gdybyśmy oceniali wg starych zasad, wygrałby… Samsung Galaxy S10+ z przewagą 8 pkt nad P20 Pro. Widzimy więc wyraźnie, że dobór kategorii ocen może zaburzyć wynik końcowy, a suma ogólna powinna być uszczegółowiona przynajmniej do jednego miejsca po przecinku

Ocena końcowa Mobile

No właśnie, skąd się bierze ocena końcowa „Mobile”? Z prostej średniej ocen foto i wideo? Nie. Szybka analiza kilkudziesięciu pierwszych smartfonów pozwoliła mi stwierdzić, że znacznie większy wpływ (większą wagę) ma składowa Photo a serwis do wyznaczenia oceny końcowej Mobile stosuje dwie, proste wagi:

2/3 oceny za Photo + 1/3 oceny za Video = ocena końcowa Mobile

Schemat ten zgadza się praktycznie w każdym przypadku z wyjątkiem dwóch sytuacji: Samsung Galaxy S9 Plus powinien otrzymać 100 pkt a nie 99, Galaxy Note 8 powinien dostać 95 punktów a nie 94. Zasady arytmetyki są proste. Jeżeli znamy stosowany schemat, mówimy: sprawdzam i okazuje się wtedy, że DxOMark albo z premedytacją zaniżył ocenę dwóch flagowców Samsunga z 2018 roku o 1 pkt, albo też stosowane równanie jest jednak znacznie bardziej skomplikowane i nie nam, śmiertelnikom, je oceniać. Osobiście stawiam jednak na proste rozwiązania. Jeżeli schemat pasuje do wszystkich urządzeń z wyjątkiem dwóch to coś jest nie tak. Prawdopodobnie jednak winę za taki stan rzeczy ponosi subiektywny sposób zaokrąglania. 108,33 zaokrąglimy sobie do 109 pkt, żeby Mate’owi 20 Pro nie było smutno, że przegrał jednym punktem z P20 Pro, a Samsung Galaxy S9 z wynikiem 99,66 zrównamy w dół do 99, bo tak. W każdym razie, jeżeli zastanawiacie się, skąd wzięła się ocena ogólna Mobile, w 99% przypadków wystarczy wziąć 2/3 oceny za Photo i dodać 1/3 oceny za Video, by otrzymać wynik końcowy.

Ocena składowa Photo

Przejdźmy jednak na wyższy poziom abstrakcji. Skąd biorą się oceny wynikowe za jakość optyczną aparatu głównego (tylnej kamery)? W jaki sposób są wyznaczane? Tutaj nie udało mi się odkryć prostego schematu, ale jedynie ogólny, stosowany zamysł wymagający dokładnego wyliczenia wag.

Do 2017 roku sprawa była prosta. Serwis oceniał siedem składowych, od Ekspozycji po Flasz, przyznawał punkty w skali od 1 do 100 i wyliczał średnią, czyli dzielił sumę przez 7. Przykład:

model Samsung Galaxy S8 LG G5 LG G6
SUMA PKT 613 613 594
ŚREDNIA 87,6 87,6 84,9
OCENA PHOTO 88 88 85

Tutaj też zdarzają się jednopunktowe wyjątki i raczej mają one charakter po raz kolejny wynikający z zaokrąglania wartości po przecinku.

Pod koniec 2017 roku sytuacja się skomplikowała. Dodano dwie nowe składowe: Bokeh oraz Zoom a wartości uległy nagłej zmianie. Od tej pory oceny za Tekstury, Szumy i Artefakty spadły o kilkadziesiąt punktów i wydaje się, że w tych trzech kategoriach maksymalna liczba pkt wynosi 80 a nie 100. Dla przykładu Galaxy S10 Plus za Tekstury otrzymał 70 pkt, S9 Plus 67 pkt, a S8 wg starszej oceny… aż 92 punkty. Czy oznacza to, że S8 wykonuje bardziej szczegółowe zdjęcia? Nie. Oznacza to wyłącznie zmianę sposobu przyznawania punktów w tych trzech kategoriach, o której nie informowano publicznie. Stąd też nierzetelne są twierdzenia, że LG G7 ThinQ wykonuje „wg DxOMark” gorsze zdjęcia od starszych modeli LG G6 i LG G5 z prostego powodu: smartfony te były ocenianie wg innych zasad i idąc tym tokiem rozumowania należałoby stwierdzić, że LG G5 (z sumą pkt 613 za 7 kategorii) robi lepsze zdjęcia nie tylko od LG G7 ThinQ ale… od wszystkich innych smartfonów po 2017 roku, co jest oczywistą nieprawdą.

Przejdźmy jednak do meritum i próby sprawdzenia szacowania przez DxOMark oceny możliwości fotograficznych. Jak pewnie zauważyliście, punktacja w tym zakresie od dłuższego czasu przekracza 100 punktów, a pierwsze trzynaście modeli na liście otrzymało od 103 do 114 pkt w kategorii Photo. Pierwsza myśl, jaka przyszła mi do głowy, była następująca: skoro do 2017 roku wyciągano prostą średnią z 7 głównych kategorii, to po zmianie zasad oceny do tej średniej dodaje się dodatkowe punkty premiowe za Bokeh i Zoom. I faktycznie, wszystko na to wskazuje. Jeżeli odejmiemy od oceny końcowej Photo średnią punktów za pierwsze 7 kategorii, to otrzymana premia punktowa wynosi ok. 0,21 – 0,23 dwóch dodatkowych kategorii. I takie uogólnienie nawet by wystarczyło. W praktyce okazuje się jednak, że ocena za Zoom ma większy wpływ niż druga składowa za Bokeh, a zmiana Zoomu o 3 pkt podnosi ocenę o 1 pkt. To doprowadziło mnie do następującego wniosków:

1/7 ocen z 7 kategorii głównych + 1/3 oceny za Zoom + 1/9 oceny za Bokeh = ocena końcowa Photo

Spójrzmy na kilka przykładów:

model Mate 20 Pro HTC U12+ Pixel 3 LG G7 ThinQ LG V30
waga 7 x 1/7 85,1 83,1 81,6 71,9 72,9
waga 1 x 1/3 22,4 16,0 15 8 11,2
waga 1 x 1/9 6,6 5,5 5,5 4,4 2,8
Suma zaokr. 114 105 102 84 87
Ocena DxO 114 106 103 84 87

Jest to pewien schemat przybliżony, więc oczywiste jest, że dla modelu X lub Y ocena może być o 2 pkt inna niż powinna. Ma on oddawać ogólny sposób przeliczania ocen składowych na wynik końcowy Photo, a poszczególne wagi mogą być (i na pewno są) odrobinę inne. Szczególnie że Ekspozycja, Kolor i Autofokus wydają się mieć o jakieś 10% większe znaczenie, niż niżej obecnie oceniane Tekstury, Szum i Artefakty. Pomijam przy tym sensowność doboru tych kategorii (trzy składowe dotyczące szczegółowości + autofokus, czyli ocena za mechanikę działania obiektywu i szybkość oprogramowania), bo to tak, jakby przyznawać punkty w kategoriach: Sierść kota, Uśmiech kota, Pazury kota i Szybkość machania łapą). Halo. Wolałbym poza tym bardziej życiowe kategorie, np. jakość zdjęć dziennych, jakość zdjęć nocnych, jakość zdjęć portretowych, jakość zoomu / teleobiektywu, jakość szerokiego kąta i bez sumowania, bo suma ogólna nie mówi nam nic, jak wyżej przytoczony kot wygląda w dzień, a jak w nocy. Znamy tylko parametry jakościowe jego sierści, ale z oceny tej nie dowiemy się, jakie są składowe dzienne i nocne tej oceny. A chyba bardziej by nas interesowało jak dany aparat radzi sobie w nocy, niż jakie generuje artefakty, bo te mogą być różne w zależności np. od wybranej rozdzielczości zdjęcia i np. w trybie 40 Mpx Huaweia P20 Pro są nie do przyjęcia.

Wnioski

W każdym razie, jedno mogę napisać z całą odpowiedzialnością: metodyka oceny serwisu DxOMark jest wadliwa, ponieważ serwis zamiast wyciągać średnią ogólną z ocen, przyznaje punkty premiowe za Bokeh i Zoom, a waga kategorii Zoom jest znacznie wyższa od innych, przez co wszystkie smartfony z teleobiektywami mają zagwarantowany bonus na start do oceny. Jeżeli do tej pory wydawało nam się, że sposób wyliczania punktacji końcowej DxOMark jest nie do końca właściwy, to teraz widzimy to czarno na białym: smartfony wspierające optyczny zoom są premiowane wyższymi wagami kategorii Zoom. Dlatego jeśli ktoś chce wyciągać jakieś bardziej sensowne wniosku co do możliwości optycznych, powinien pomijać dwie końcowe składowe oceny, jak również pomijać punkty za ocenę Video. I wtedy otrzymamy dosyć podobną, ale nieco inną kolejność na liście:

miejsce DxOMark ilość pkt Photo model
1. 3. 598 Samsung Galaxy S10+
2. 1. 596 Huawei Mate 20 Pro
3. 2. 590 Huawei P20 Pro
4. 4. 588 Xiaomi Mi 9
4. 8. 588 Xiaomi Mi Mix 3
6. 10. 584 iPhone XR
7. 6. 582 HTC U12+
8. 5. 579 iPhone XS Max
9. 13. 575 Xiaomi Mi 8
10. 15. 573 OnePlus 6T
11. 11. 571 Google Pixel 3
12. 9. 570 Huawei P20
13. 7. 569 Samsung Galaxy Note 9
14. 14. 563 Google Pixel 2
15. 12. 556 Samsung Galaxy S9+

Powyższy przykład pokazuje, że prosta zmiana wagi czy też zmiana kategorii oceny i usunięcie Zoomu powoduje przemieszanie kolejności smartfonów na liście. Należy w tym miejscu zaznaczyć, że poszczególne różnice są na tyle niewielkie, że kolejność ta o niczym nie świadczy, a dwa wynika tylko i wyłącznie z przyjętych kategorii oceny. Gdybyśmy oceniali dodatkowo jakość oprogramowania i trybu manualnego, w tym wideo czy też jakość zdjęć w trybie ultraszerokokątnym, to znacznie wyżej na naszym zestawieniu zawitałyby urządzenia LG (V30, G7 ThinQ, V40 ThinQ). A właśnie. Czy w zestawieniach DxOMark znajdziecie ocenę topowego modelu LG V40 ThinQ, urządzeń Sony czy też sztandarowego modelu foto Microsoftu z 2015 roku Lumii 950XL? No właśnie. W zasadzie dopiero teraz zauważyłem, że na listach brakuje…. Sony. Poza jednym starym modelem XZ. Być może gdyby oceniano wszystkie telefony, a nie tylko wybrane, podium wyglądałoby inaczej.

Podsumowując:

  • ocena końcowa poszczególnych smartfonów to w 2/3 ocena Photo, w 1/3 ocena Video,
  • przy identycznej punktacji serwis stosuje kolejność alfabetyczną,
  • oceny dokonane przed zmianą sposobu oceny są niewspółmierne do nowych ocen z uwagi na inną skalę punktową dla szumów, tekstur i artefaktów,
  • ocena składowa Photo premiuje telefony z teleobiektywem, zawyżając wagę dla kategorii Zoom,
  • kategorie składowe oceny są subiektywne i nie pozwalają wyciągnąć wniosków np. co do jakości zdjęć dziennych czy też nocnych,
  • rzeczą znamienną jest brak ocen niektórych marek i niektórych modeli telefonów (LG V40 ThinQ, flagowce Sony).

Mam nadzieję, że powyższy artykuł rozjaśnił nieco meandry ocen wystawianych w serwisie DxOMark.

Wszystkie wyliczenia mają charakter własny. Źródło bazowe: DxOMark

PS Poprzednią część artykułu znajdziecie w tym miejscu.

  1. Oni oceniają parametry techniczne, a nie to co widzi ludzkie oko. Więc często wg nich telefon X robi lepsze zdjęcia od telefonu Y, ale wszyscy użytkownicy twierdzą, że to telefon Y jest lepszy.

    1. te parametry techniczne też są na koniec weryfikowane i oceniane przez ekspertów (gdzieś o tym pisali), stąd też wynik końcowy nie jest stricte maszynowy tylko ma domieszkę oceny subiektywnej

      1. Użytkownicy często twierdzą, że to samo zdjęcie, ale bardziej wyostrzone i z większym nasyceniem kolorów jest „ładniejsze”. Przerabiałem to pokazując to samo zdjęcie w różnych wariantach wywołania.

        1. no to jest odwieczne pytanie, które zdjęcie jest „lepsze” bardziej nasycone i ocieplone czy też bardziej mdłe ale oddające faktyczną temperaturę barwową, każdy wskaże na zdjęcie nr 1

          1. Nie każdy, ale większość rzeczywiście. Dlatego ocena zdjęć wykonywana przez ekspertów, którzy wiedzą co oceniają i mają pojęcie o technicznej stronie zdjęć, zawsze wypadnie inaczej niż przez ogół ludzi. Do tego dochodzi też, że zdjęcie wyostrzone niedostatecznie zawsze można jeszcze wyostrzyć. Wyostrzone nadmiernie jest zepsute i uratować się go nie da.

          2. eksperci też nie wydadzą prawidłowej oceny, jeśli nie otrzymają przykładowo zdjęcia wzorcowego wykonanego lustrzanką bo inaczej trudno im oceniać czy dana osoba miała włosy blond, szare, rude, czy pomarańczowe bo każdy aparat inaczej oddał ich temperaturę, dopiero jak widzimy modela albo mamy zweryfikowane zdjęcie poglądowe to możemy się do czegoś odnieść

          3. Eksperci wiedzą jak wygląda maska wyostrzająca i wiedzą jak wygląda w zbliżeniu zdjęcie przeostrzone. Dla uniknięcia większości problemów stosuje się jednolite plansze i sceny testowe, oświetlone światłem o doskonale znanej temperaturze barwowej. Do tego by ocenić wyniki nie potrzeba zdjęcia robionego lustrzanką, tak jak do stwierdzenia czy zdjęcie JPEG ma artefakty kompresji nie trzeba być zatrudnionym w Instytucie Fraunchofera

          4. nasuwa mi się tutaj jeden problem – eksperci oceniają jednolite plansze i sceny testowe, natomiast życie swoją drogą bo naraz okazuje się że smartfon X nie potrafi zrobić prawidłowego zdjęcia z automatu scenerii zimowej i śnieg jest lekko niebieski a nie biały, czyli testy walidacyjne swoją drogą a życie jest nieprzewidywalne i rzeczywistość ma swoje kaprysy

          5. Jak używasz młotka nie mając wprawy to też możesz uderzyć się w palec. Problemy z balansem bieli istnieją odkąd istnieje fotografia kolorowa i zwłaszcza przy scenach o dużej zmienności barw trudno trafić – człowiekowi zresztą również. Spróbuj kiedyś uzyskać spójny wygląd z RAWa, gdzie na jednym zdjęciu masz wieczorne resztki oświetlenia naturalnego i do tego sztuczne światło sodowe. Powodzenia.

            Sceny testowe są właśnie po to, by warunki były powtarzalne, a nie przypadkowe.

          6. tylko jak w ten sposób przetestować zdjęcia miejskie czy krajobrazowe? bo przyznasz, że zdjęcia studyjne nie oddają rzeczywistych warunków w terenie. Nawet jeśli będziemy wykonywać zdjęcia w tych samych miejscach o podobnej godzinie to i tak naświetlenie i zachmurzenie może być inne, wiatr raz będzie wiał mocniej raz słabiej, modelka też po roku będzie inaczej wyglądać, a w ogóle zdjęcia zdjęć lub makiet to już nie mówią kompletnie nic o aparacie, jak oddaje detale skóry, włosów, jedyne co widzimy to detale podkładu tektury i jakość farby

          7. Zdjęcia miejskie i krajobrazowe również są przecież częścią procedury testowej. Makiety są natomiast niezbędne by zapewnić 100 % powtarzalności warunków.

          8. To musialyby byc robione w prozni i w krotkim odstepie czasu, zeby byly w miare powtarzalne ( kurz, temp, gestosc i cisnienie atm)

  2. Przepraszam mojego redakcyjnego kolegę, ale:
    – to chyba oczywiste, że „smartfony wspierające optyczny zoom są premiowane wyższymi wagami kategorii Zoom”? Problem byłby chyba, gdyby taka możliwość nie była premiowana?
    – premiowanie jakości oprogramowania i trybu manualnego w takim teście w ogóle jest śliską sprawą, gdyż o jakim oprogramowaniu mówimy? Dostarczonym przez producenta? A może o innej aplikacji?
    https://www.dxomark.com/dxomark-mobile-scores-smartphone-cameras/
    – DxO testuje kamery dostarczone do testów przez producentów. Nie powinny więc chyba dziwić braki w zestawieniach.

    1. 1. chodzi mi nie tyle o to, że są premiowane, ale że waga dla zoom jest ok. dwa razy wyższa niż np. dla ekspozycji czy innych, głównych kategorii (33% vs 14%)
      1. z drugiej strony premiuje się telefony, które mają teleobiektyw ale już nie te, które mają ultraszeroki kąt, stąd takie V30 cierpi w ocenie końcowej bo ma inny zestaw obiektywów, czy to fair? dwa, takie podejście zaburza nieco ocenę końcową bo telefon z lepszą jakością foto ale bez tele dostanie dużo mniej punktów od nieco słabszego telefonu z super zoomem
      2. chodzi o premiowanie możliwości trybu manual dzięki którym np. możesz ustawić dłuższy czas naświetlania, bo czym to się różni od oceny szybkości autofokusa, który też jest cechą sprawności działania telefonu a nie jakości zdjęcia?
      3. strona ta była omawiania w poprzedniej części i nawet zamieściłem grafiki nt. obliczania sum cząstkowych, tyle że z tego linku nie dowiesz się nic o kryteriach wyznaczania oceny Photo lub Mobile
      4. niestety nie wiem czy LG V40 zostało wysłane i czeka w kolejce czy też to dxomark decyduje o dacie publikacji; przy okazji trochę dziwne jest publikowanie wyników przedpremierowej wersji Samsunga S10+, skoro wersja sklepowa może mieć nowszy soft, być może wysłali wersję finalną
      4. Ergo: skoro część producentów nie wysyła swoich urządzeń to w takich razie DxOMark wyznacza jakość co najwyżej wśród „smartfonów otrzymanych do testów” a nie wśród wszystkich smartfonów na rynku, tak więc nie mogę powiedzieć, że „P20 Pro jest najlepszym foto smartfonem na rynku”, tylko „najlepszym, wśród tych, które były ocenianie”, bo nie wiem, czy przykładowy V40 nie uzyskałby lepszej oceny z uwagi na trzy obiektywy i nowszą matrycę Sony.

      1. 1. Procedura testów zoomu przewiduje powiększenia od 1 do 10. Jeśli oprogramowanie nie włącza obiektywu szerokokątnego do zoomu, to jak procedura testowa miała by to brać pod uwagę? Nie wątpię jednak, że szersze pojawienie się obiektywów ultrawide spowoduje odpowiednią modyfikację procedury testowej.

        2. Ponawiam pytanie: a w której aplikacji tryb manualny podlegałby ocenie? Domyślna aplikacja aparatu w iPhone w ogóle nie pozwala na ustawienia manualne. Natomiast aplikacje w rodzaju Halide, ProCamera czy choćby i Lightroom pozwalają na modyfikację ustawień w takim zakresie, że udostępniają tryby fotograficzne o jakich w ogóle nie myślał producent. Która z nich miałaby podlegać ocenie w trybie manualnym?
        Działanie autofocusa, które podajesz jako kontrprzykład, akurat nie zależy od aplikacji, zajmuje się tym kontroler aparatu.

        3. Z tego co napisałeś też się tego nie dowiem – domowy reverse enginering algorytmów oceny może być fajną zabawą, ale niewiele wnosi do oceny wiarygodności punktacji.

        4. Ja tego też nie wiem, ale sam wiesz, że są firmy, które chętnie dostarczają sprzęt do recenzji i takie, gdzie możesz prosić i ewentualnie pisać na Berdyczów. Jeśli producent ryzykuje dostarczając do badania urządzenie z oprogramowaniem w wersji przedprodukcyjnej to jest to jego sprawa i także jego problem.

        1. no widzisz, piszesz, że skoro są telefony, które nie mają trybu manualnego, to lepiej go nie oceniać to ja napiszę, że skoro są telefony w sporej ilości, które nie mają trybu tele, to też nie powinno to być brane pod uwagę tylko jakoś osobno ocenianie tak jak obecnie selfie, które mogłoby być a nie jest wliczane do oceny końcowej, w końcu to też tylko kolejny obiektyw

          przynajmniej dowiedziałeś się, skąd bierze się ocena mobile, bo to jest raczej na 100% pewne i stanowi prostą sumę dwóch ważonych składowych, z oceną foto jest już większy problem

          tutaj niestety nigdy się nie dowiemy jak jest

          1. To nie telefony nie mają trybu manualnego tylko domyślne aplikacje. I nie, nie twierdzę, że nie należy oceniać trybu manualnego, tylko zadaję pytanie, jak chcesz to zrobić, by wyniki dało się porównywać?

            W tym wszystkim wiadomo tylko jedno: każdy telefon ma udostępnioną aplikację pracującą w trybie automatycznym. Wyniki ich pracy dają się porównać jako najbliższy wspólny mianownik.

            Jeśli zaczniemy oceniać tryb manualny w aplikacji własnej, na przegranej pozycji znajdą się wszystkie urządzenia, które mają doskonały aparat i manual, ale wyłącznie w oprogramowaniu dodatkowym.

          2. „To nie telefony nie mają trybu manualnego tylko domyślne aplikacje”

            chyba jednak nie zawsze, bo np. ProShot ma dostęp tylko do tych parametrów które są odblokowane w telefonie i nie da się zmieniać ISO tam gdzie się nie da w natywnej apce aparatu, przerabiałem to z Moto X Style, dodatkowe apki miały dostęp tylko do kilku wybranych parametrów typu temperatura i nic więcej :/ tak jest przynajmniej na Androidzie

          3. Jak producent ogranicza API to jego prawo. W Apple przykładowo zoom w domyślnej aplikacji nie zawsze jest realizowany optycznie, czasem jest to składanka z dwóch zdjęć z z obu aparatów, by ograniczyć szum. Tak to działa wyłącznie w trybie automatycznym, inne aplikacje do tego mają dostęp również wyłącznie w tym trybie. Lightroom i ProCamera mają natomiast dostęp do wszystkich typowych ustawień.

            Zresztą… obejrzenie rawów z Huawei Mate 20 Pro naprawdę potrafi zniechęcić do skądinąd udanego aparatu. Trudno się dziwić, że producent nie pozwala na zbyt wiele obcym aplikacjom, nie mającym dostępu do ich firmowego hokus pokus.

          4. A chocby pp jakosci otrxymsnych zdjec. Lg i Lumia maja tryb manualny w domyslnej aplikacji aparatu

          5. I za tryb manualny powinny miec ekstra punkty jak te co maja za zoom

          6. A iPhone nie ma, co nie przeszkadza mu uzyskiwać lepszej jakości zdjęć, niż w Lumii.

          7. Modeli z ultrawide jest parę sztuk. Jak będzie więcej na pewno będzie to uwzględnione w testach. Miło by było zresztą, gdyby producenci pomyśleli o uwzględnieniu tych obiektywów w automatycznym zoomie, bo póki co nikt z nich tego nie zrobił.

        2. 1. Uparty jestes…niech wiec szerokokatny bedzie zoomem ujemnym. Procedura testowa powinna przyznawac punkty za obiektyw szerokokatny i tyle.

          2. Dodatkowe punkty za tryb manualny w aplikacji podstawowej.
          Powszechnie wiadomo ze zdjecia wychodza lepiej

          1. I jeszcze punkt za możliwość użycia gcam który robi zawsze lepsze zdjęcia na telefonach ze Snapem niż inne apki aparatu?
            ;)

          2. 1. No to przekaż swoją sugestię producentom aparatów i oprogramowania do nich. Póki co ultraszeroki kąt nie jest w żadnej aplikacji dostępny automatycznie podczas zoomowania.

            2. Nie jest to prawdą.

          3. W Mate 20 Pro też, ale w niczym nie przypomina to płynnego zoomu.

          4. Da się, ale z płynnością nie ma to nic wspólnego.

  3. „Czy oceny DxOMark można traktować jako wiarygodne?” – oczywiście, że nie i żaden szanujący się użytkownik nie zwraca na te wyniki absolutnie żadnej uwagi. To tak samo bezsensowne testy jak benchmarki czy speed testy. Wyniki otrzymane od DxO są po prostu niczym, chociażby dlatego że:
    a) DxO to pay to win, o czym wielokrotni już pisano, wiec co to za zestawienie,
    b) producenci robili aparaty (chyba huawei czy samsung – do sprawdzenia), które po prostu miały dobrze wypadać w ich testach, anie robić możliwie najlepsze zdjęcia.

    Ocena aparatu na podstawie DxO ma takim sens jak wybranie lepszego telefonu na podstawie speed testu bądź antutu…

  4. Tak samo wiarygodne jak wartość SoT, podawana jako wyznacznik czasu działania na jednym ładowaniu. Wystarczy zacząć rzeźbić z jasnością wyświetlanego obrazu i wynik SoT na tym samym sprzęcie może się różnić o kilkadziesiąt procent..

    1. Przy czym jeśli weźmiesz taka GSMArenę i ich ranking, to tam wszystkie smartfony są testowane w identycznych warunkach. Jeśli więc dany model osiąga znacznie lepszy wynik od innego, to tak też będzie w rzeczywistości. Oczywiście od wszystkiego są wyjątki i testy nie zawsze wyłapią niuanse, ale jakąś wartość mają.

  5. Zdjęcia mają się podobać osobie która robi to zdjęcie.Dzisiejsze smartfony nawet że średniej półki robią przyzwoite fotki które ogląda się później na ekranie laptopa i prawie wszystkie smart robią na tyle dobre zdjęcia ze bez wstydu można wystawić na fejsa czy Instagram. Tylko fachowiec widzi różnice , większość nie zwraca na to uwagi

    1. Różnicy nie widać dopóki nie powiększy się zdjęcia na monitorze komputer. Wtedy wychodzi że taki P20Pro to mydelniczka. Wszystkie detale są usuwane i w sposób miły dla oka rozmydlane.

  6. Witam. Artykuł jest bardzo ciekawy i potwierdza moje doświadczenia. Mam tylko 1 pytanie czy oprócz Dxomark jest ktoś kto ocenia pod tym kątem smartfony. Natknąłem Się na ranking Chip który różnił się od Dxomark. Ale chyba do niego wrócę bo wydajemi się bardziej rzetelny. Co Pan o tym myśli?

    1. Jest VCX forum. Testy w powtarzalnych warunkach. Można obejrzeć fotografię planszy testowej i porównać z innymi aparatami.

    2. gsmarena porówanie S10+, Mate20Pro i zabytkowego XZ1. Który robi bardziej szczegółowe zdjęcia?
      https://www.gsmarena.com/piccmp.php3?idType=1&idPhone1=9535&idPhone2=9343&idPhone3=8804
      Tylko jeden z nich potrafi zachować detale z lewej strony banknotu. Najbardziej wszystko rozmydla Mate20Pro
      Dodam jeszcze że w porówaniu do S9, S10+ to krok w tył.
      https://uploads.disquscdn.com/images/0e4e2b2603f3fc66d77c00e3dbc95fc7a8f6cb39e447e4697c9edab057c51fc4.png

  7. Do jakiegoś czasu był to główny wyznacznik jakości dla applowców, bo iPhony zawsze tam przodowały, więc chyba można :D Argument nie do pobicia. Teraz jeszcze im zostały benchmarki CPU, jednak kto ma więcej niż 50iq ten jest świadom że i one są do niczego.

    1. Żebyż jeszcze taki Mate 20 Pro miał choć połowę tego wsparcia w oprogramowaniu firm trzecich co ma iPhone, Pixel, czy Galaxy S…

  8. Doskonała analiza tego portalu. Powiem szczerze , ten portal jest dla mnie najmniej wiarygodny ze wszystkich. Wystarczy poczytać anglojęzyczne komentarze aby dojść do tego samego lub podobnego wniosku.

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Reklama