Ważne

Tegra K1 – ostatnia szansa NVidii?

NVIDIA-Tegra-K1

NVidia już od ponad 6 lat próbuje zaistnieć na rynku zintegrowanych rozwiązań procesorowych (System-on-a-Chip – zwanych często po prostu procesorami) dla urządzeń mobilnych. Premierę Tegry datuje się na początek 2008 roku, a pierwszym urządzeniem wyposażonym w ten układ był Zune HD, który ujrzał światło dzienne w drugiej połowie 2009 roku. Zanim przejdę do szczegółów, myślę, że warto wyjaśnić kilka podstawowych pojęć związanych z architekturą procesorów.

Czasami można zauważyć, że nie do końca poprawnie, zamiennie używa się terminów takich jak SoC, procesor, CPU, jednostka obliczeniowa czy układ. Nie zagłębiając się w detale, System-on-a-Chip (SoC) jest to układ scalony integrujący wszystkie elementy obliczeniowe komputera lub innego systemu w jedno.  W przypadku urządzeń mobilnych, SoC może zawierać w sobie między innymi obliczeniową jednostkę centralną (CPU, procesor), procesor graficzny (GPU), mostek północny (odpowiadający za połączenia pomiędzy procesorem, pamięcią operacyjną i magistralą), mostek południowy (realizujący połączenie procesora do wolniejszej części wyposażenia mikrokomputera), modem LTE czy kontroler pamięci. Omówione zależności zostały zobrazowane na poniższym schemacie, na przykładzie SoC dla rozwiązań stacjonarnych:

Schemat_blokowy_chipsetu

Jeśli jeszcze nie zasnęliście, przejdę do prawdopodobnie ciekawszych, marketingowych aspektów pierwszych SoC, na przykładzie właśnie NVidii Tegry. Trudno powiedzieć czy Tegra przynosi pecha urządzeniom, które ją wykorzystują, czy może to te (nie zawsze dobrze wykonane) urządzenia sprawiły, że układ ów jest kojarzony z odwiecznymi problemami, a w brutalnym świecie anonimowego Internetu nawet wyszydzany i odsądzany od czci i wiary. Krytyka jest jednak przynajmniej częściowo zasłużona – Zune HD, smartfon KIN (Tegra), Motorola XOOM, Sony Tablet S (Tegra 2), Surface RT, HTC One X (Tegra 3), to tylko niektóre urządzenia wykorzystujące ten układ, którym mimo dużych oczekiwań nie udało się podbić rynku, a czasami stawały się wielkimi symbolami klęski.  Innowacyjna jak na owe czasy 4-rdzeniowa architektura Tegry 3 nie okazała się spektakularnym sukcesem ani wydajnościowym ani marketingowym, jednak na dobre zapoczątkowała wojnę na rdzenie i gigaherce. Rynek mobilny górnej półki został zdominowany przez Qualcomma ze swoimi Snapdragonami, Samsunga z własnymi SoC z rodziny Exynos i rosnącego ostatnio w siłę MediaTeka. Tegra 4 miała przełamać tą złą passę, ale mimo tego, że to solidny układ mogący jak równy z równym konkurować z najnowszymi Snapdragonami, nie trafił on do zbyt wielu urządzeń w ubiegłym roku. Wyjątkiem może być Surface 2, który dzięki znacznemu wzrostowi wydajności Tegry 4 w stosunku do poprzedniej generacji – wrócił do gry i odnotowuje znacznie lepsze wyniki sprzedaży niż jego poprzednik.

Tegra_kepler

Tegra K1 – 4 rdzenie + 1, 32 bity i Kepler na pokładzie

Tegra 2 była pierwszym 2-rdzeniowym procesorem ARM dla Androida – to miało ją wyróżniać. Podobnie było z Tegrą 3 – w tym przypadku zaskoczono nas po raz pierwszy 4 rdzeniami. Tegra 4 była po prostu szybsza i bardziej wydajna, ale na pewno nie przełomowa. K1 z kolei, wreszcie koncentruje się na podstawach. Tak jak Tegra 4, część CPU składa się z 4 rdzeni głównych Cortex A15 i piątego rdzenia „companion”, zoptymalizowanego do działania w niskich częstotliwościach i mocach, między innymi dla zadań w tle, takich jak notyfikacje czy stan bezczynności. Wraz ze wzrostem zapotrzebowania na moc obliczeniową – włączają się kolejne rdzenie – 1, 2, 3 i 4, ale nigdy 5 jednocześnie.

W stosunku do Tegry 4, K1 wyposażono w nowsze rdzenie A15 (r3p3 zamiast r2p1), które mają zapewnić jeszcze lepszą wydajność przy jednoczesnym zmniejszeniu poboru prądu, głównie dzięki zagęszczeniu clock gating oraz zmianie procesu technologicznego z 28nm HPL na 28nm HPM. Różnica między HPM a HPL polega głównie na zoptymalizowaniu poziomu wycieku (zjawisko kwantowe, którego skutkiem jest tunelowanie ładunków między warstwą izolatora, będące obecnie jednym z głównych czynników limitujących maksymalną moc obliczeniową procesora) do wydajności szczytowej. Taktowanie zwiększono z 1,9 GHz do 2,3 GHz, nie zmieniono natomiast układu pamięci podręcznej L1/L2 – wciąż mamy do czynienia z współdzielonymi 2 MB pamięci L2 i 32/32 kB L1 na rdzeń, a CPU i GPU komunikują się z pamięcią przez 64-bitowy interfejs LPDDR3.

O ile zmiany w CPU są kosmetyczne, dużo ciekawiej wygląda sytuacja z GPU. Dotychczas, wszystkie Tegry, jeśli chodzi o GPU, opierały się na niezunifikowanej architekturze o kiepskim API, kodowo nazwanej GeForce ULP – rdzenie te nigdy nie powalały jeśli chodzi o wydajność (limitowaną zwykle przez wąski interfejs pamięci) czy energooszczędność, a przemawiał za nimi jedynie niski koszt. Tegra K1 będzie pierwszym czipem z tej rodziny, wykorzystującym architekturę Kepler, znaną dotychczas tylko z rozwiązań pecetowych. Na pierwszy rzut oka może się to nie wydawać aż tak znaczące, ale wypowiedzi przedstawicieli firmy wskazują, że nowe rozwiązania GPU będą najpierw trafiać na procesory mobilne, a dopiero potem do kart graficznych – co może wreszcie pozwolić NVidii konkurować, a może nawet zostawić konkurentów w tyle. Jest to ogromny skok jakościowy nie do przecenienia – z uwagi na kompatybilność API z architekturą Kepler (OpenGL 4.4, DX11 i CUDA 6.0), gry wydane na konsole PS3 czy Xbox 360 mogą być portowane bezpośrednio, bez wprowadzania pracochłonnych zmian w kodzie. Gry z tych konsol dostępne tylko dla tabletów z Tegrą byłyby ogromną przewagą marketingową nad Qualcommem i resztą konkurencji. Dzięki temu pojedynczemu ruchowi, NVidia, z firmy która była krytykowana za brak wsparcia i udostępniania API dla Tegry, stała się (lub może się stać) liderem w tej dziedzinie.

Wracając do zastosowanej technologii – K1 wykorzystuje aż 192 rdzenie CUDA w praktycznie niezmienionej, w porównaniu do rozwiązań PC, architekturze Kepler, z tym samym rozmiarem rejestru i współdzieloną pamięcią L1. Wszystkie zmiany w architekturze, pozwoliły na ograniczenie poboru mocy przez GPU do poziomu poniżej 2 W. Daje to wynik jak najbardziej akceptowalny, dający nadzieję na dłuższy czas życia urządzenia na jednym ładowaniu, przy zachowaniu bardzo wysokiej mocy obliczeniowej. 32-bitowa Tegra K1 nie zachwyca CPU, ale przełom po stronie GPU jest naprawdę znaczący i rodzi ogromne potencjalne możliwości.

k1-wersje

Projekt Denver, czyli powrót do 2 rdzeni i krok w stronę świata 64 bitów

Tylko dwa rdzenie w flagowym układzie NVidii, która kilka lat temu rozpoczęła wyścig na liczbę rdzeni? To nie świat stanął na głowie, tylko po rozum do głowy poszli architekci, którzy zrozumieli wreszcie gdzie leżą priorytety. Zanim opowiem o szczegółowej strukturze drugiej wersji Tegry K1 (Project Denver), która światło dzienne ujrzy pod koniec tego roku, zastanówmy się o co chodzi w zamieszaniu związanym z wprowadzeniem procesorów 64-bitowych. Czy chodzi tylko o pamięć RAM? Większość czytelników zapewne spotkało się z twierdzeniem, że procesor 32-bitowy nie może zaadresować więcej pamięci operacyjnej niż 4 GB (a w praktyce jeszcze mniej, z uwagi na zastrzeżoną przestrzeń adresową). Skąd wynika to ograniczenie? Z prostego rachunku: 32 bity określają liczbę możliwych do zaadresowania komórek. Istnieje 2^32 wariacji 32-bitowego adresu, czyli bezpośrednio można adresować 4 294 967 296 (4 G) komórek pamięci. Czy jednak rzeczywiście stanowi to problem nie do przejścia dla 32-bitowej architektury? Nie koniecznie. Od dawna znane są rozwiązania zwiększenia przestrzeni adresowej np. przez zastosowanie segmentacji lub wirtualizacji pamięci – użycie PAE (Physical Adress Extension). Rozwiązanie to pozwala procesorowi na dostęp do więcej niż 4 GB pamięci RAM, ale nie zmienia rozmiaru wirtualnej przestrzeni adresowej dla pojedynczego procesu – każdy proces w pamięci będzie dalej ograniczony limitem 4 GB.

Po co komu zatem 64 bity? Czy 64-bitowy A7 w iPadzie Air to tylko chwyt marketingowy, jak twierdził Anand Chandrasekher, przedstawiciel Qualcomma? Qualcomm oficjalnie wycofał się z tego stanowiska, stwierdzając, że 64-bitowa architektura to przyszłość urządzeń mobilnych i przejście na nią jest nieuniknione. Jakie są zatem zalety 64 bitów? Architektura ta dostarcza więcej rejestrów, które są dwa razy szersze, co przyczynia się do wzrostu wydajności aplikacji, które są skompilowane dla 64 bitów. Z uwagi na większą liczbę rejestrów, rzadziej występuje potrzeba bezpośredniego odwoływania się do pamięci fizycznej. Dodatkowo, wywołania funkcji są szybsze z uwagi na możliwość przekazywania aż 4 argumentów w rejestrach na raz (pozwala uniknąć to przerzucania ich przez stos).

Dla K1 Denver, od 64-bitowej architektury, której nie wspierają obecnie dostępne aplikacje w Play czy Windows Store, ważniejsze jest zastosowanie rdzeni opartych o instrukcje ARMv8 (zamiast ARMv7 jak w przypadku 32-bitowej Tegry K1), które zwiększają wydajność między innymi przez szybsze operacje arytmetyczne, zwiększenie liczby rejestrów ogólnego przeznaczenia i wyeliminowanie niektórych starszych instrukcji, które były mało wydajne. Zrezygnowano z czterech rdzeni głownych i jednego rdzenia pomocniczego na korzyść dwóch większych (i szybszych zarówno jeśli chdozi o taktowanie jak i komunikacje międzyprocesową), ale oba układy są ze soba kompatybilne jeśli chodzi o piny, co może wskazywać na zastosowanie tego samego 64-bitowego interfejsu pamięci. Firma ogłosiła, że Denver (druga generacja K1) będzi miała 128 kB pamięci podręcznej L1 dla instrukcji i 64 kB L1 dla danych – taka asymetria jest rzadko spotykana i pokazuje, że układ ten jeszcze nie raz nas zaskoczy – nie tylko taktowaniem na poziomie 2,5 GHz. Ironicznym wydaje się fakt, że firma, która zaczęła ten wyścig zbrojeń, wraca do pierwotnego rozwiązania z dwoma silnymi rdzeniami, które od lat sprawdza się w procesorach Apple czy Intela. Najwyższy czas. Czy to zakończy szaleńczy wyścig na liczbę rdzeni? Raczej nie, bo już teraz mamy informacje o kolejnych procesorach Qualcomma i pozostałych producentów, z 8 rdzeniami, które będą mogły pracować jednocześnie. Czas pokaże której z firm udało się najlepiej zbalansować trudną równowagę maksymalnej mocy obliczeniowej, liczby rdzeni i poboru energii. Benchmarki, w których króluje 2-rdzeniowy, niskotaktowany A7 od Apple’a pokazują, że na końcową wydajność, wpływ ma wiele czynników, nie koniecznie bezpośrednio związanych z zegarem czy liczbą rdzeni – począwszy od szybkości komunikacji miedzy modułami, a skończywszy na optymalizacji samego oprogramowania.

Na targach CES zaprezentowano urządzenie referencyjne z Androidem 4.4 napędzane Tegrą K1 Denver. Czas pokaże czy ograniczenie liczby rdzeni na korzyść ich mocy obliczeniowej i szybkości transmisji danych okazało się słuszne. Wraz z bardzo szerokim i otwartym API, dobrym stosunkiem moc obliczeniowa/pobór energii oraz wsparciem dla 64 bitów, drugi model K1 wydaje się wyjątkowo ciekawym układem, który najprawdopodobniej znajdzie się w tablecie Surface trzeciej generacji, o ile Microsoft zdąży do tego czasu przygotować 64-bitową wersję Windows RT. Czy w świecie zdominowanym przez Qualcomma, NVidia ma szansę na odrodzenie się i namieszanie na rynku procesorów mobilnych? Czy urządzenia z Androidem jej w tym pomogą? Jeśli te szanse istnieją, ich najlepszym ucieleśnieniem jest właśnie 64-bitowa Tegra K1. Trzeba jednak pamiętać, że konkurencja nie śpi, mając w zanadrzu własne 64-bitowe rozwiązania, które również będą już wkrótce pojawiać się na rynku. Tylko czas, benchmarki i sam rynek zweryfikują moje prognozy. Ja trzymam za Tegrę kciuki – konkurencja jest potrzebna (między innymi do obniżania cen układów), co widać po sytuacji na rynku PC, zdominowanym niemalże całkowicie przez Intela. Czy za rok procesory ARM będą na tyle mocne, że producenci oprogramowania zaczną wytwarzać software do zastosowań profesjonalnych dla tej architektury? Chyba wszyscy byśmy sobie tego życzyli.

Jeżeli znalazłeś literówkę w tekście, to daj nam o tym znać zaznaczając kursorem problematyczny wyraz, bądź zdanie i przyciśnij Shift + Enter lub kliknij tutaj. Możesz też zgłosić błąd pisząc na powiadomienia@tabletowo.pl.

Komentarze

  • Karpaj

    Ciekawy artykuł.
    Tegra mogła by zaistnieć w środowisku „osób które się znają” – mocne dwa rdzenie ze świetną grafiką powinny zdystansować te zabaweczki 4rdzeniowe, – android jest, był i długo będzie systemem ograniczonym do poziomu używania głównie jednego rdzenia.

    Czy masz może jakieś rankingi wydajnościowe nowego GPU w porównaniu do jakiejś karty graficznej prosto z PC? Tak żeby mniej więcej widzieć miejsce i moc jaką dostaniemy i co będzie można ew. na tym odpalić (kiedyś czytałem że Tegra 4 ma moc porównywalną do Geforce GT220).

    • Tomash

      Poczekajmy na benchmarki. Na razie nikt nie podaje wiarygodnych danych.

      • kl

        Android jest, był i zawsze będzie systemem ŚWIETNIE PRZYSTOSOWANYM DO OBSŁUGI WIELU RDZENI PROCESORA!

        jeśli chcesz się o tym przekonać to są aplikacje w Google Play które w przezroczystym małym okienku pokazują obciążenie każdego z rdzeni w czasie rzeczywistym. Co by się w systemie nie robiło to wszystkie rdzenie są wykorzystywane.

        • To (korzystanie z 4 rdzeni NON STOP) świadczy o dobrej czy złej optymalizacji systemu? Przy regularnym obciążeniu (bez zasobożernego przetwarzania grafiki czy danych) powinny pracować 1-2 rdzenie i takie są założenia projektowe. To pozwoliłoby na oszczędzanie energii.

          A koledze chodziło raczej o to, że JEDNA aplikacja nie jest dostosowana do pełnego użycia wszystkich rdzeni przez problem ze zrównoleglaniem procesów – zadaniem zgoła nietrywialnym dla programistów.

    • Dochodzą sprzeczne opine więc nie chciałbym się wypowiadać kategorycznie. Od strony technologii są do takie same rdzenie, jednak obniżono taktowanie i inne parametry ograniczające pobór mocy. Czynnikiem limitującym będzie też wydajność termiczna – może się okazać, że układ nie będzie mig osiągać maksymalnych parametrów nie przekraczając granicznych wartości termicznych.

      Na dane musimy poczekać do benchmarków.

      • NiekrytyKrytyk

        A w tym czasie wyjdzie apple A8 i znowu konkurencja będzie rok w plecy…

        • Takie są zalety projektowania SoC i OSa jednocześnie. Pozostałe firmy nie mają takiego komfortu.

    • NiekrytyKrytyk

      I to jest właśnie problem. Ludzie będą się jarać gigahercami i rdzeniami w Androidzie, który przez brak optymalizacji softwareowej oraz brak kompatybliności z tymi prockami laguje i będzie lagowął – nawet na 8 rdzeniach 2.5 GHz. Nie tędy droga.

      • Niestety tak to bywa w sytuacji gdy Google musi wytwarzać uniwersalny OS dla setek różnych procesorów, a producenci SoC muszą wytwarzać rożne procesory dla dziesiątek różnych wersji Androida. O pełnej optymalizacji (takiej jak w przypadku iOS i procesorów A7) nie może być mowy.

        • Ależ oczywiście. Że może tylko trza przestać iść za moda javy i tym podobnym mulowatym. Rozwiązaniom a zacząć pisać choćby w C.
          .
          Myślę
          Że jest też inny aspekt specjalnie. Skrywa ny. Producentom jest bardzo na rękę krótki żywot urządzenia. Traktuje się klienta jak dziecko. Ma się chwilę pobawić, rzucić i zaraz kupić kolejna zabawkę.. w ten sposób zarabia się pieniądze. Jakby każdy korzystał latami z komórek i tabletki to rynek już dawno ny się nasycil. A tak ciągle sprzedaje nowe.

        • kl

          Piszesz całkowitą nieprawdę. Na przyzwoitym procesorze dobrej filmy jak Qualcomm Android jest wręcz pierońsko szybki i w większości aspektów iOS nawet pod tym względem nie jest mu w stanie dorównać.

          Nie wiem też o jakich różnych wersjach Androida bredzisz?! Widać że nie masz kompletnie pojęcia o sprawach w których próbujesz zabierać głos i udajesz że się znasz w dodatku.

          Producent optymalizuje swój układ do Androida i tylko do jednej wersji z reguły oczywiście najnowszej. Potem jeśli wychodzi nowa wersja systemu to jeśli taki producent SoC dał gwarancje aktualizacji i optymalizacji dla danego to to robi.

          Google nie zajmuje się optymalizacją systemu pod żadne układy, robi to producent układu.

          • NiekrytyKrytyk

            Wy fanboje androida jesteście chyba mitomanami i schizofrenikami. Android muli na większości urządzeń, nawet na Nexusach. Nexus 2012 po pół roku jest niezdolny do wykonywania jakichkolwiek działań. O Galaxy S3/S4 nie wspomnę. Flagowiec, który po roku muli aż miło.

            Producent optymalizuje układ pod androida? Co za bzdura. Ten sam model SoC Qualcomma ma działać dla Androida, Windows Phone, Windows RT, Blackberry OS itd… Nie ma tu mowy o jakiejkolwiek optymalizacji sprzętowej.

            Można optymalizować jedynie sterowniki do jak to powiedziałeś „z reguły oczywiście najnowszej” wersji Andka. A wiesz ile trwa zaprojektowanie i wytworzenie SoC? Ok 2-3 lata. Więc pomyśl do której wersji Androida są optymalizowane „najnowsze sterowniki”. 4.1? 4.2?

          • @NiekrytyKrytyk, nie nazywałbym fanów Androida w ten sposób i cenię Andka za wiele funkcjonalności i rozwiązań, ale zgodzę się z tym, że problem laga, shuttera i ogólnej braku płynności nie został rozwiązany.

            Wynika to głównie ze stosowania javy, widgetów i często ciężkich nakładek na OS. Google poszło tą drogą (otwartość, dostosowywalność) – drogą która ma swoje wady i zalety. Wybierając urządzenie z Androidem trzeba zdawać sobie z tego sprawę.

          • Android nie wymaga żadnej konkretnej optymalizacji pod sprzęt, ponieważ korzysta z kernela Linuksa, który świetnie radzi sobie z zarządzaniem pracą jednostki. Lagi też nie biorą się z braku tejże optymalizacji – biorą się tylko z faktu, że Android wykorzystuje wolny język programowania jakim jest Java oraz maszynę wirtualną.

            Google o tym wie, stąd wprowadzenie ART w Androidzie 4.4.

          • Zgadza się, nie ma problemu z wykorzystaniem pełnej mocy obliczeniowej CPU czy GPU. Jednak zaryzykowałbym stwierdzenie, że takie uniwersalne rozwiązanie (uniwersalne SoC + uniwersalne jądro OS) nigdy nie będzie tak wydajne jak dedykowane rozwiązania (np. A7 + iOS) gdzie architektura systemu, procesora i komunikacji między nimi jest w pełni zopytmalizowana.

          • @NiekrytyKrytyk:
            „po pół roku jest niezdolny do wykonywania jakichkolwiek działań”.
            .
            A cóż takiego się zmieniło w sprzęcie przez pół roku? Ubyło hertzów? Ubyło bitów? Czy też może jest uruchomionych 1000 programów równolegle?
            .
            Znowu porównujesz różne rozwiązania – porównujesz system system sadowników z wylewającą się propagandą, który nie jest systemem wielowątkowym z systemem wielowątkowym. Pokaż tablet z sadu z 200-300 apkami, uruchom choćby 50 z nich na raz – tyle, że mają działąć a nie być tylko w tle i chcę zobaczyć tą słynną płynność.
            .
            Tak samo z szybkością uruchamiania prg na japkach – naciskasz ikonę, wyskakuje rysunek/baner – user myśli, żę już jest prg a tu prg nadal się ładuje.

          • slv

            @Piotr Górecki
            Znowu nie sposób się nie zgodzić z Piotrem. Sam wiele lat korzystałem z Linuxa i KDE. I tak jak sam Linux działał i działa bardzo wydajnie, tak co do KDE już nie miałem takiego zdania. Działało to powiedzmy…. nie najszybciej. I może tu jest podobna sytuacja. Sam Android w tle może i działa sprawnie. Ale te widgety, dodatki itd. U mnie np pomaga usunięcie logów połączeń czy smsów. Telefon odzyskuje prędkość. „Coś tam, gdzieś tam z czymś tam” nie do końca jest dograne. Kiedyś poprawią. Zaleta otwartych środowisk

    • slv

      @Karpaj

      „android jest, był i długo będzie systemem ograniczonym do poziomu używania głównie jednego rdzenia.”

      Hmm, a czemu tak uważasz ? Nie siedzę jeszcze we wnętrznościach Androida, ale przy założeniu, że to Linux, to kernel decyduje na którym procesorze/rdzeniu wykonywany jest dany proces. Więc co do samego wykonywania danego procesu na jednym procesorze jestem w stanie w to uwierzyć (nie mam czasu sprawdzać), to co do uruchamiania wielu procesów na wielu procesorach/rdzeniach nie powinno Androidowi sprawiać żadnych kłopotów – załatwia to za niego kernel linuxowy. No, ale może czegoś nie wiem.

      p.s.
      Tak jak napisał niżej @Piotr Górecki.

  • barwniak

    Aby Tegra K1 mogła być użyta w urządzeniach, musi najpierw istnieć. Od czasów Tegry 3, Qualcomm wyprzedził Nvidię o lata świetlne. Nie z uwagi na jakościową zmianę, ale na częstą ilościową zmianę swoich produktów.

    • Wyprzedził jeśli chodzi o dostępność, portfolio i wsparcie. Jeśli chodzi o technologię – nie koniecznie.

    • NiekrytyKrytyk

      Producenci urządzeń z androidem nie zaufajną poraz drugi tej firmie. W hi end dominował będzie Qualcomm, Samsung ma własne rozwiązania, a Mediateki czy Allwinnery będa dominować low end i Nvidia jest w czarnej dupie.

      • NVidii potrzebne jest jedno urządzenie które odniesie duży sukces. Surface 3? Nic na to nie wskazuje, raczej będziemy mieli do czynienia z umiarkowanym sukcesem.

        Bez udanego flagowce z tym czipem ciężko będzie zaistnieć.

        • Jacek

          Ale co moglby dac Nvidi sprzet z WP skoro udzialy WP w sakli globalnej sa na poziomie 3-5%?Musieliby odniesc duzy sukces w urzadzeniach z Androidem ale tutaj sa juz raczej spaleni ze wzgledu na to jak traktowali poprzednie generacje Tegry.Nie bylo zadnego wsparcia.Urzadzenia po opuszczeniu fabryki byly praktycznie pozostawiane samemu sobie.Dedykowane aplikacje,gry czesto duzo lepiej dzialaly na innych procesorach niz na Tegrze.
          Niestety Nvidia poniosla kleske na rynku mobilnym i to co ich trzyma przy tym rynku to to ze ich stac.Zyski zapewnia im rynek PC i dzieki temu moga topic kase w mobliny rynek.Jest tylko jedno ale.Sytuacja powoli sie zmieni( a moze nawet szybciej niz sie spodziewamy) bo rynek mobilny zyskal nowego, powaznego gracza w postaci Intela.Intel niestety sprawi ze Nvidia kompletnie zniknie z rynku mobilnego chyba ze odniesie sukces na rynku motoryzacyjnym i to pozwoli jej trwac przy rozwiazania mobilnych

          • Ale kto tu mówi coś o WP? Nie ja :)

            NVidii bym nie skreślał, ale to tylko moje prywatne przemyślenia, które również wyraziłem w tym artykule.

  • zwierzak

    Jeżeli nVidia z Tegrą w ogóle chce zaistnieć na rynku SoC to niech da gwarancję, że przez 3 lata będzie wspierać swoje produkty i pisać na nie sterowniki! Przecież ostatnio całość się rozbiła o to, że HTC nie będzie mógł wypuścić Androida 4.4, ani nawet 4.3 dla modelu z Tegrą, bo nVidia stwierdziła, że nie napisze sterowników. W takim przypadku każdy producent woli wybrać Qualcomma, bo ten nie pozwala na taką sytuację. Nawet Samsung pomimo, że posiada własne procesory też wypuszcza sprzęt na Qualcommie.

    • Tomash

      Autor przecież pisal, ze to sie zmienilo za sprawa Keplera i api do niego

      • Nie o to biega – pod szyldem sterowniki kryje się także SDK dla CPU pod konkretny system. Nadal nie ma pełnego SDK i nie będzie już dla Tegry-2 @Android-4.0 i analogicznie dla Tegry-3/4 @A4.3 dlatego producenci wybierają innych producentów.
        .
        „Sterowniki” to nie tylko CPU+GPU – ale w SoC’ach także modem GSM, żyroskop, BT, WiFi 2,4/5GHZ, GPS i tysiące innych aspektów.
        .
        Patrzę tu przez pryzmat sterowników GPU do desktopowego Linuksa – jak się okazało, że userzy także grają w gry i to wymagające grafiki i część z nich patrzy w stronę AMD/ATI to od razu dopracowali swoje stery i działają tak szybko jak pod windą.
        .
        Natomiast czy wreszcie odrobili lekcję przy K-1 – to się okaże.
        .
        I jest jeszcze kwestia firm montujących urządzenia – jeśli dodadzą wolne RAMy – to nawet najszybszy procesor zaśnie.

        • Zgadza się. Wszystko zależy od tego jak poważnie NVIDIA podejdzie do tematu.
          Z zapowiedzi i deklaracji wynika, że są poważni w tym temacie, ale przyszłość to zweryfikuje.

          Jeśli chodzi o szybkość RAM czy prędkości na BUSach, to temat na cały artykuł.. Ludzie kupują tablety za 400 zł z niezłym procesorami i dziwią się, że wszystko muli i laguje. A problem leży często właśnie w szybkości transmisji danych między poszczególnymi elementami urządzenia albo systemowym trimmingu pamięci.

          • Jacek

            Ostatnie oswiadczenie Nvidi nie napawa optymizmem aby mieli odniesc sukces bo sami przyznali ze interesuje ich tylko rynek,urzadzenia z najwyzszej polki a tutaj sa przegrani.Zeby odniesc sukces trzeba sie skupic na urzadzeniach ze sredniej i niskiej polki cenowej tak wiec kolo sie zamyka.Jak dla mnie Nvidia za 2 lata zniknie z rynku mobilnego no chyba ze( jak wspomnialem w komentarzu wyzej) uda im sie odniesc sukces na rynku motoryzacyjnym.

  • Fidel

    Schemat blokowy od komputera stacjonarnego (AGP/PCI w jednostce mobilnej???), wyrażanie mocy w… GHz. Odechciało mi się czytać po 20%
    Każdy, kto ma jakieś pojęcie o architekturze komputerów będzie się łapał za głowę przy czytaniu tego :)

    • Schemat dotyczy rozwiązań SoC w ogólności, nie rozwiązań mobilnych w Tegrze K1, może powinienem sformułować to jaśniej, żeby nie było wątpliwoci.

      A moc? Pytasz o moc obliczeniową w liczbie operacji zmiennoprzecinkowychna sekundę, TDP w Wątkach czy taktowanie zegara w (G)Hz?

    • To iż jest jeden scalak to nie oznacza, że pewnych części blokowych w nim nie ma. Aby porównać trzeba jakoś przeliczyć/skonwertować do wspólnego mianownika w jedną lub drugą stronę – w stronę peceta akurat jest wg mnie czytelniej – więcej osób zna budowę/działanie.

      • Zgadza się :) Ale przedmówca też ma trochę racji – skoro to materiał, który ma wyjaśniać pewne terminy – powinienem być bardzie precyzyjny i nie używać skrótów myślowych.

    • Tomash

      Nie zrozumiales dobrze 2 zdan i krytykujesz caly art. Brawo

  • NiekrytyKrytyk

    Bardzo fajny, edukacyjny materiał.

    Ja natomiast watpię w sukces Nvidii i Tegry K1.

    Pytanie do wszyskich: CZY KTOŚ Z WAS ZNAJĄC HISTORIĘ TEGRY I WSPARCIA DLA TEGO PROCESORA ZDECYDOWAŁBY SIĘ NA KUPNO URZĄDZENIA Z TYM SOC?

    • Podchwytliwe pytanie. Odpowiem: To zależy.

      Jeśli byłby to tablet z Windowsem – nie uważam, że bym ryzykował. Jeśli natomiast z Androidem… tu sprawa jest mniej jasna i rozumiem osoby, które mają wątpliwości w tej kwestii.

    • Tomash

      Jeśli rzeczywiście pojda na tym gry z PS3, to warto zaryzykować. Poczekamy, zobaczymy.

      • Przez emulator?

        • Tomash

          Portowane. O ile ich wydawcy będą tego chcieli i wykażą sie dobrą wolą

          • NiekrytyKrytyk

            Nie liczyłbym na to – póki nie będzie tabów z Tegrą K1, producenci gier nie kiwną palcem, żeby pakować się w coś w ciemno.

    • Mam tabletki z Tegra 2@ Android 3.2.2. Działa szybko i sprawnie. Do tej pory nie poszły 2 aplikacje- gra z myszką miki disneya – jest 100 innych które działają i alka beton banku- dlatego nie mam czemu wymaga Andka4.
      .
      Reasumując j zaryzykował i kupił.

      • NiekrytyKrytyk

        Tegra 2, to były czasy :) Co to za tabki?

  • Jacko

    Cały ten układ nie doścignie w wydajności chociażby poczciwego 8600GT. Na prawdę nikogo to nie zastanowiło, że układ chłodzony pasywnie miałby być porównywalnie wydajny do układów chłodzonych nawet cieczą?

    ARMy są bardzo akceleratorowe. Gdyby procesory nie były przystosowane do np. odtwarzania filmow fhd to ich płynne odtwarzanie było by niemożliwe. Tylko wsparcie sprzętowe + programowe sprawiają że fajnie działają mobilne urządzenia. Wystarczy popatrzeć na produkty apple, na papierze są słabe a działają szybko.

    • Poruszyłeś dwie bardzo ważne sprawy.

      Jedną z nich jest wydatek termiczny, który jest niemalże liniowo zależny od TDP. Można by się pokusić o porównanie z GeForce 740M (architektura 2 SMX/384 CUDA). Mamy do czynienia z 19W. Ok 3W to IO pamięci, PCI i inne bajery nei związane z GPU. Możemy odjąć kolejne ok 5-6W na zjawisko wycieku i mamy ok 10 W. To dzielimy na połowę, bo mamy architekturę 2 SMX => 5W. Obniżamy taktowanie o 100-200 MHz i rozmawiamy o jakichś 3W bez jakiejkolwiek reorganizacji samej architektury. To wygląda na całkiem dobry start, uwzględniając, że optymalizacja sprzętowa i programowa jednak będzie miała miejsce.

      Druga rzecz którą poruszyłeś, to właśnie optymalizacja sprzętowo-programowa. Tak jak mówisz, Apple pokazało co można zyskać kontrolując OS, podzespoły oraz architekturę samego SoC. Pełna kompatybilność i mamy cud – nisko taktowany, 2-rdzeniowy procesor wygrywa z 4-rdzeniowymi potężnie taktowanymi CPU.

    • Pierwsze karty 8600 miały wiatraki jak dla Don Kichota. Teraz mamy model wyższy 9600 Gigabyte z radiatorem. Ostatnio widziałem nawet 440gr z radiatorem- oczywiście bardzo dużym 2 czy 3 sloty. Czyli jednak jest pole do manewru. O ile cpu SoCa ma biegać na gigaherze to już goi nie i myślę, że da sie tu zaoszczędzic na pradzie i temperaturże.

      • Tomash

        Wszystko rozbije sie o moc końcowa wyrażoną w watach. Fizyki sie nie oszuka. Moc procesora = cieplo.

        • Eee tam. Zaraz tam nie da. Kiedyś twierdzono, że nic cięższego od powietrza nie pofrunie. Co Niejaki Da Vinci skomentował ; ptaki są cięższe i fruwaja. Dziś gruszka jumbo jety po sto ton.
          .
          I tak samo z ciepłem. Musimy poznać zasady które ominą to ograniczenie.

          • Miało być fruwaja. Nie gruszka. Słownik lg.

          • Tomash

            Samej mocy/ciepla sie nie oszuka, ale sposoby na jego odprowadzanie… To juz inna bajka :)

  • Lawstorant

    Słownik:
    „Comapnion” – pomocniczy/dodatkowy
    tfu notyfikacje (od ang. notyfications) – powiadomienia

    Aha, no i raczej przydałoby się wrzucić grafikę przedstawiającą bardziej aktualną architekturę, jak bardzo bym chciał, FSB już nie ma. Wszystko leci po QPI/Hyper Transport i DMA. Mostek został tylko jeden i wchłonął Super I/O

    • NiekrytyKrytyk

      „notyfications”, to żeś się wziął za angielski chłopie, takich „doradców” nam trzeba ;)

    • Tomash

      Rozwiązania o których piszesz na końcu są dla x86 a nie arm o którym mowa, nieprawdaż?

    • „Companion Core” to nazwa własna używana przez NVidię.

      A co do schematu – tak jak pisałem we wcześniejszych komentarzach – jest to przykładowy / poglądowy rysunek mający zobrazować pewne ogólne zależności.

      Jeśli macie jakiś lepszy schemat dostępny NA WOLNEJ LICENCJI – dawajcie linki, chętnie podmienię.

  • Fedurrr

    Procesor Nvidi osiagnal pewien sukces, przeciez byl montowany w nexusie 7 v2012. Ktory do dzis dziala i zasuwa az milo. Jak komus zamula tablet po pol roku to chyba jest intelektualnym inwalida. Przy kazdym sprzecie trzeba czasem zrobic porządek. Nowe samochody tez potrzebija przegladow a maszyny konserwacji by dzialaly jak nalezy. Poczciwy win xp na starym lapku nigdy mi sie nie wysypal ani android poki co.

    • Może koledze chodzi o problemy z pamięcią flash i trimmingiem – to był realny problem, który został podobno rozwiązany wraz z Androidem 4.4 – ale głowy nie daję, nie siedzę głęboko w sprawach Androida.

    • Fedurrr

      Inwalidom.

      • Fedurrr

        Ps da sie jakos edytować komentarze? Byl program do trim ‚owalna. Osobiscie nie zauważyłam spowolnienia poza momentem jak sciagajac wieksze pliki nlzawalilem cala pamiec. Póki nie wyszedł kitkat, uzywalem paranoid android.

        • Problem trimowania istniał od dawna i Google powinno zareagować wcześniej, a nie zmuszać użytkowników do korzystania z aplikacji firm trzecich do wykonania tego zadania.

          • Przeglądam net ale nie kumam – co ma wspólnego ten trimming z wydajnością systemu?

          • Dostęp do pamięci, a właściwie szybkość dostępu do niej ma kluczowe znaczenie dla wydajności:

            http://en.wikipedia.org/wiki/Trim_(computing)

          • Pamięci SSD a nie RAM. Z podanego linku:
            ” TRIM) allows an operating system to inform a solid-state drive (SSD) which blocks of data are no longer considered in use and can be wiped internally.”
            czyli biega tu o kasowanie plików i formatowanie – co dalej zostało opisane. Te operacje to jakieś 0,001% pracy systemu, natomiast trza dociążyć CPU do wyliczania tego trima – więc nadal nie wiem jak ten feature ma pomóc w szybkości działania systemu.

          • Tak, dotyczy to pamięci w tym przypadku eMMC, czyli pamięci wewnętrznej flash. A przy otwieraniu i korzystaniu z aplikacji operacje na pamięci wykonywane są NON STOP.

Tabletowo.pl
Logowani/Rejestracja jest chwilowo wyłączona