+6Nasi autorzy
Ważne

Co z tymi 64 bitami w urządzeniach mobilnych?

conroe1_f

Jeszcze do całkiem niedawna, architektura 64-bitowa była kojarzona jedynie z typowymi komputerami na/pod naszymi biurkami. Jej popularyzacja, jak jeszcze pamiętam, nie spowodowała znaczącej rewolucji, nikt jakoś szczególnie nie przywiązywał do tego uwagi. Dodatkowo, pamiętam, że po zakupie nowego (wówczas) komputera z Phenomem 9500 zdecydowałem się na Windows XP x64, który wysypał się tuż po instalacji. Dopiero Vista oraz 7-ka była w miarę używalna na moim sprzęcie. Z tego też powodu do x64 podchodziłem bez entuzjazmu. Jest, bo jest.

O zmianie architektury na pecetach dawno już zapomniałem, aż tu Apple ni z tego, ni z owego zaskoczyło mnie procesorem A7 wykonanym właśnie w tej architekturze. Zastanawiałem się: „po co?” – i to dosyć długo. Nie było logicznych przesłanek, w świetle których Apple byłoby „usprawiedliwione” w swoim działaniu. Ani 5S nie przekroczył magicznej bariery 4GB RAM, ani nie chodzi tutaj o poprawę wydajności. O co zatem? Wszyscy trąbią o chwycie marketingowym i ja też się przyłączę. Dotąd uważałem, że to rzut kamieniem w stronę Samsunga oraz reszty „bardziej postępowego, niż Apple” rynku opierającym się na cyferkach – czy to w kwestii RAM-u, czy to w rdzeniach i gigahercach. Tak oto uważałem, że Samsung kolejnym flagowcem zaatakuje dzisiaj jeszcze bardzo wąską niszę mobilnych urządzeń opartych o architekturę 64-bitową.

I w tym przypadku się myliłem, bowiem Samsung zdecydował się tylko na face lifting swoich flagowych urządzeń, nie przekroczył magicznej bariery pamięci operacyjnej i dodał jedynie kilka funkcji do swojego sprzętu.

Apple to wszystko argumentowało potrzebnym skokiem wydajności w stosunku do poprzedników. Mawiano także o tym, że urządzenia takie jak iPhone, czy iPad to sprzęt dla profesjonalistów, którzy oczekują odrobinę więcej od tabletu, czy smartfona i wejście w architekturę 64-bitową będzie wstępem do zmian na tym polu. To dla mnie było odrobinę dziwne, bo wiem, że przejście na wyższą architekturę wcale nie musi powodować przytaczanych przez Apple korzyści. Ba, jestem pewien, że konsumenci nie odczują żadnej zauważalnej różnicy. Bo raz, że na takim urządzeniu rzadko kto rozpakowuje skompresowane pliki, czy koduje filmy, a dwa, że 5S posiada w zanadrzu tylko 1 GB pamięci RAM. Drodzy Państwo, widzicie jakąkolwiek różnicę między iPhone 4S, 5, 5C, 5S, jeśli chodzi o wydajność? Miałem w rękach wszystkie te urządzenia i właściwie, to one działają podobnie szybko. Słowo klucz: „szybko”, dodałbym, że „wystarczająco szybko”.

W założeniach, 64 bity wyglądają na papierku dużo lepiej od 32

Architektura jest modelem przetwarzania danych o rozmiarze 64 bitów przez procesor. Jak chodzi o pamięć, to do zaadresowania jest aż 16 eksabajtów danych, natomiast w 32 bitach zaadresujemy tylko 4 GB. Tym samym taka ilość pamięci zdatnej do zaadresowania wystarczy nam na długi czas. Tym samym otrzymujemy model przetwarzania danych, który z założenia gwarantuje nam wyższą wydajność, zwiększoną przestrzeń pamięci adresowej, czy też wyższą precyzję wykonywanych obliczeń przez procesor. Na 64-bitach będziemy w stanie także uruchomić aplikacje napisane na starszą architekturę dzięki mechanizmom zawartym w systemie operacyjnym – w systemach z rodziny Windows jest to WOW64 (WindowsOnWindows64). Nowa architektura to nie tylko zalety, ale również poważne, z punktu widzenia i systemu i deweloperów, wady. Po pierwsze, w wypadku 64 bitów zapotrzebowanie na pamięć jest nieco większe, a przejście na nową architekturę wywołuje potrzebę optymalizacji kodu dostępnych aplikacji. W przypadku iOS upłynie jeszcze wiele wody w Wiśle, zanim będzie można powiedzieć, że takich programów jest dużo. Przepisanie aplikacji to proces drogi i czasochłonny. I wydaje mi się, że w wielu przypadkach także jest on niewarty tego, by zaprzątać sobie nim głowę. Co innego, jeśli mówimy o naprawdę zaawansowanych aplikacjach, w których zastosowanie nowej architektury byłoby rozsądnym rozwiązaniem.

Jakoś ciężko jest mi wyobrazić sobie kodowanie filmów, czy rozpakowywanie dużych, skompresowanych plików na tabletach. Chyba, że…

Popatrzymy mocno w przyszłość?

Patrząc na przykład na urządzenia mobilne z Ubuntu na pokładzie, czy z Androidem – w ramach których korzystanie z zewnętrznych sprzętów wskazujących jest możliwe, nie można oprzeć się wrażeniu, że takie rozwiązanie może mieć sens.

Urządzenia z Windows 8.1 na pokładzie korzystają głównie z architektury 64-bitowej. Właściwie w całym spektrum dostępnych modeli można je podłączyć do zewnętrznego sprzętu pozwalającego na wyświetlanie obrazu, czy też używać ich za pomocą klawiatury oraz myszki. Po tym krótkim wstępie nowego akapitu już pewnie wiecie, do czego piję, prawda?

Architektura 64-bitowa ma zastosowanie w profesjonalnych rozwiązaniach. Jej walory docenią graficy, osoby pracujące nad obróbką wideo, programiści. Wszędzie tam, gdzie sprawdzi się większa przestrzeń adresowa i gdzie liczy się ilość pamięci RAM, 64-bity będą logicznym i zrozumiałym rozwiązaniem. W każdym innym przypadku – uważam to za przerost formy nad treścią. Po co komu wyższa architektura, skoro korzyści z niej mieszczą się w granicach błędu statystycznego?

I tak oto niedawno w sieci pojawiła się informacja, że Nexus 8 będzie pracować na tej właśnie architekturze, w ramach korzystania z dobrodziejstw procesora Intel Atom Bay Trail. I o ile ten procesor pozwoli na uzyskanie świetnej wydajności, to już jego architektura wskazuje, że Google szykuje się na coś naprawdę mocnego. Czy pojawi się tam więcej, niż 4 GB RAM (albo chociaż to 4 GB)? Zobaczymy – ale właściwie nic nie stoi temu na przeszkodzie. Ostatnie urządzenia Samsunga pojawiły się w konfiguracji z trzema gigabajtami, może Nexus podniesie poprzeczkę i tym samym zmusi innych producentów na przesiadkę na wyższą architekturę.

Do czego taki tablet może nam służyć? Cóż, gdybym posiadał tablet z Windows 8.1 pracujący na przynajmniej Core i5, przyzwoitej grafice i dużej ilości pamięci RAM, to zapewne mógłbym go użyć do bardziej profesjonalnych zastosowań. Bay Trail też zły nie jest, ale to zupełnie nie ta klasa urządzeń i myślę, że w przypadku Bay-Trail pewne wydajnościowe kompromisy dawałoby się odczuć.

To producenci wyznaczają kierunek rozwoju urządzeń, choćby był on absurdalny

Te 64 bity w urządzeniach mobilnych mają swoje zalety. Ale są one strasznie mgliste. I o ile w tabletach będzie to mieć jakiś sens (o ile będzie się dało je wykorzystać, tutaj już odbijam piłeczkę w stronę deweloperów aplikacji – czy to na iOS, czy na Androida), to w smartfonach… cóż. Nie porysujemy na nich w AutoCAD, obrabiać obrazu też nie. No, chyba, że będzie się dało ich używać, jak dotychczas komputery.

Jednak to, co obserwujemy jest w pewnym sensie nieuniknione. Prawo Moore’a zakłada, że w ciągu dwóch lat, osiągi naszych urządzeń będą się podwajać. Ale gdzieś jest granica. Tą granicą była architektura i zaczynamy ją powoli przekraczać. Bo kiedy stajemy przed granicą możliwości urządzeń, nie ma się już na co bić. A walka na specyfikacje dalej trwa w najlepsze. Najpierw megaherce, potem gigaherce, następnie rdzenie, a razem z nimi ilość pamięci RAM. Tuż za tymi wartościami były ekrany, wersje Androida, sloty na karty pamięci, pamięć flash. Rynek ostatnio lekko ostygł pod tym względem i bardziej przywiązano uwagę do usług. Microsoft ochrzcił Nokię X swoimi usługami tworząc (brzydko to ujmę): „Taniego bękarta z misją przemycenia usług Microsoftu do świata Androida”. Już pomijam fakt, że wszystkie znaki na niebie i ziemi wskazują na to, że będzie się on sprzedawał bardzo dobrze.

A teraz wygodnie rozsiądźmy się w fotelach i cierpliwie czekajmy na kolejne urządzenia w nowej architekturze.

Jeżeli znalazłeś literówkę w tekście, to daj nam o tym znać zaznaczając kursorem problematyczny wyraz, bądź zdanie i przyciśnij Shift + Enter lub kliknij tutaj. Możesz też zgłosić błąd pisząc na powiadomienia@tabletowo.pl.

Komentarze

  • barwniak

    Przyszłość, to smartphone w roli PC. W domu podpinamy pod stację dokującą z multiplikatorem portów lub wpinamy w dedykowany monitor (mamy wtedy AiO).
    Do tego smartphone-ów pracujących w układzie big/little. Czyli jak poczuje dock-a i zasilanie to włącza się drugi bieg, czyli Win 8, 4GB+ram i 4×2,5Ghz.

    W dodatku nasila się nacisk na usługi sieciowe, począwszy od office365 skończywszy na grach w streaming-u.
    Do usług sieciowych nie potrzeba będzie core i7 4770 i jego następców. Starczą nowe smartphone-y.
    Jeszcze parę lat i Autocad, Maya, Catia, 3d studio Max itd. będą sprzedawane jako usługi sieciowe.

    • elcede

      Juz jest możliwość zakupienia mocy obliczeniowej a nie konkretnego sprzętu. Z tym zastępowanie przez telefon to byłoby trochę ciężko, ale np taki dongle po hdmi łączący w sobie dobrą moc + właśnie wynajmowanie mocy obliczeniowej może być przyszłością zwłaszcza ze giganci rynku widzą w tym potencjał (Dell, IBM).

    • Azawakh

      Oj tak… Smartphone w roli malutkiego, przenośnego PC oraz modularne smartphony i tablety. To jest właśnie przyszłość branży mobilnej, która bardzo mi się podoba. To o czym piszesz może się niebawem ziścić i nie byłoby w tym nic dziwnego bo technologia idzie tak szybko do przodu.

  • AS

    Oczywiście, z dzisiejszej perspektywy jest to przede wszystkim chwyt marketingowy. Z bardzo prostego powodu: smartfony i tablety mają zamkniętą architekturę. Jeśli producent zdecyduje się na zamontowanie w urządzeniu np. 1 GB RAM i 16 GB pamięci dyskowej, to nie mamy możliwości zmiany tego stanu rzeczy.

    Ale jest i druga strona medalu. Przyszłość. Pomimo faktu, ze konkretne urządzenie ma takie, a nie inne parametry, nic nie stoi na przeszkodzie, aby programiści (nie cierpię użycia słowa deweloperzy) mieli na czym testować aplikacje, które będą mogły zaistnieć na przyszłym sprzęcie.

    • aaa

      E tam, podpinany. Osobiście liczę, że to wszystko będzie bezprzewodowe. :)

    • Azawakh

      Niebawem zamknięta architektura będzie miała alternatywę w postaci urządzeń o budowie modułowej (phoneblock, Motorola ARA) więc będzie istniała ich rozbudowa a więc już nie będzie to tylko chwyt marketingowy a rzeczywistość.
      A programiści (ja znów nie znoszę słowa phablet/fablet) będą mieli kolejne pole do popisu i testowania nowych rozwiązań.

  • aaa

    Magiczna bariera jest wcześniej niż 4GB na większości systemów. Na Windows jest to bodajże tylko 3.2GB, a na Ubuntu 3.6GB jeśli dobrze pamiętam. Także jeśli chcemy urządzenie z 4GB, to system 64-bitowy jest praktycznie wymagany. Ruch Apple zaś był tylko marketingowy, bo nie da tym urządzeniom nic, możliwe, że był wypadkową tego, że po prostu użyli najnowszej architektury ARM i te 64-bitów dostali gratis.

  • Michał Wojciul

    Przepraszam bardzo, ale czy autor tekstu wie co to jest LPAE? Wyjaśniam. Jest to akronim od słów Large Physical Adress Extensions. Otóż widząc problem z 32-bitowymi systemami i adresowaniem pamięci firma ARM wymyśliła taki właśnie dodatek do procesorów robionych na ich licencji. W uproszczeniu – do adresowania pamięci przeznaczono 40 bitów – czyli do 1 TB Ram-u. Jakie procesory to mają na pokładzie? Po pierwsze wszystkie Cortexy A7, A12, A15 i A17. Więc jeżeli ktoś ma cokolwiek z takim procesorem to gadka o maksimum 4 GM RAM-u jest zwyczajnie nieznajomością wewnętrznej architektury procesora.

    Druga sprawa – prawo Moore’a obowiązywało do 2010 roku. Potem dotarliśmy do barier technologicznych. (tunelowanie elektronów, problemy z naświetlaniem ścieżek i takie tam – nie będę przynudzał) Od 2010 roku podwojenie ilości tranzystorów jakie da się ekonomicznie umieścić na tym samym kawałku krzemu podwoiło się dopiero pod koniec 2013 roku – po dokładnie 38 miesiącach zamiast 12 do 18. Zresztą prawo Moore’a od początku zakładało że utrzyma się przez określony czas a potem przestanie obowiązywać (mówił o co najmniej 10 latach – wytrzymało 40)

    I tak przy okazji, Nokia X wcale nie zapowiada się nieźle. 1 milion zamówień przedpremierowych wynika z faktu że nie musisz się do niczego zobowiązywać, możesz złożyć do 3 zamówień (po 1 na każdy kolor) i masz szansę wygrać telefon za darmo. Więc najprawdopodobniej oznacza to że osób gotowych zakupić Nokię X na dzień obecny może być nawet poniżej 200 000 na całym świecie – a to już nie jest imponujący wynik.

    • Jakub Szczęsny

      Ok, ARM zaimplementował LPAE, większość kerneli Linuxa to obsługuje. Teraz mi powiedz, czy jesteś pewien, że to działa na Androidzie? :) Z tego, co wiem, to Google pod tym względem kuleje i na razie, to LPAE jest obiektem zainteresowań zapaleńców, którzy bawią się nie z Androidem, tylko z Debianem na ARM-ach.

      Dla komputerów do 2010 roku. Potem to stało się ze smartfonami i tabletami. Ten punkt odniesienia jest poprawny, jak chodzi o rewolucję mobilną.

      Rozumiem mechanizm „zamówień przedpremierowych”. Jednak sprzedawcy w Chinach nie biorą sobie tych zamówień z kosmosu, muszą mieć jakieś dane, analizy, które pozwoliły im na dokonanie takich wstępnych kroków. :)

      • Michał Wojciul

        Nawet jeżeli w tej chwili LPAE nie jest obsługiwane przez androida to jest to o wiele tańszy i prostszy sposób niż wymiana procesorów. Nie sprawdzałem czy zostało to dodane czy nie, ale mówimy wciąż o patchu programowym. Koszt implementacji to i tak najwyżej około 20 000$ – jak ktoś ma w planach sprzedać milion urządzeń – i tak się opłaci. Nawet nie samemu Google, ale np. Samsungowi czy ASUS-owi. Zresztą skoro osoby pracujące hobbystycznie dały radę to wykonać w Debianie, to czemu ma to się nie udać z Androidem? Wciąż mówimy o patchu.

        Co do prawa Moore’a to odnosiło się ono bezpośrednio do wielkości tranzystora. Smartfony i tablety nie wykorzystują tranzystorów większych niż komputery – mają identyczne. NVidia przygotowuje nowe karty graficzne na 17 nm Fin-Fetach i tak samo szykują się do takiej samej Tegry na tych samych 17 nm Fin-Fetach. Snapdragony 800 są 22 nm jak intele core i5. Rozwój układów mobilnych idzie w inną stronę – poszukiwania materiałów na których można robić procesory pracujące na niższych napięciach. W ten sposób zmniejsza się zużycie prądu i ilość generowanego ciepła – a to pozwala na zrobienie po prostu większego procesora z bardziej zaawansowanymi funkcjami – który dzięki temu jest wydajniejszy. To nie ma nic wspólnego z prawem Moore’a.

        Co do sprzedawców w chinach – nie mają oni masowych zamówień na Nokię X, mają je osoby prywatne. Nokia tak zbudowała cały ich mechanizm aby właśnie sztucznie nabić pulę zamówień, tak aby pokazać jaki to ich produkt jest pożądany. Złożenie zamówienia nie zobowiązuje ciebie do niczego – a daje gwarancję możliwości zakupu i szansę na wygranie darmowego telefonu. Wiele osób traktuje to jak konkurs – możesz wygrać darmowy telefon. A jak złożysz 3 zamówienia to masz 3 razy większe szanse – i tak większość osób robi, zamawia po 3 telefony z zamiarem zrezygnowania z 2 preorderów.
        Zresztą ciągle mówimy o telefonie z najniższej półki, z procesorem który był słaby podczas swojej premiery ponad dwa lata temu, sprzedawanym po bardzo niskiej cenie. Tak samo jak Nokia 3310 – będzie to tani sprzęt skierowany do mas a nie high-endowy telefon. Do takich 64-bitowe procesory mogą nie trafić jeszcze przez 5 lat, jak nie dłużej.

  • DeaD

    Jeśli chodzi o ilość ram to sama budowa procesora (którą można zmienić coś tu sie obijało o ilość kanałów ramu czy coś takiego jeśli ktoś się bardziej zna niech lepiej wyjaśni) ogranicza ilość ramu jesli chodzi o tablety itp. zmiana lekko budowy da 4GB albo i 8GB ale po co? android 8GB ramu milion rdzeni i wydajność snapdragona 2-rdzeniowego :D nie liczy się ilość a jakość i optymalizacja (jak zawsze)

  • ArtiDiTu

    Generalnie to jest wyścig zbrojeń . Rynek wymaga nowości , rynek dostaje. Ale nie rozumiem , dlaczego producenci ( sprzętu , softu, dostawcy czy jak tam ich zwał – od A jak ARM do Z jak ZTE ) nie dadzą tego , czego potrzebuje kolega barwniak . Lubię jego pragmatyzm: zgadzam się, że użytkownik potrzebuje urządzenia mobilnego , mieszczącego się w kieszeni, ale w domu to urządzenie powinno bezprzewodowo połączyć się z ekranem ( TV,monitor ) i peryferiami ( klawiatura, drukarka, myszka itp ) i zapewnić moc do wykonywania czynności wymaganych przez użytkownika . Jeden potrzebuje do : pracy biurowej , przeglądania neta, grania, inny do profesjonalnej obróbki grafiki , jeszcze inny do projektowania w CAD.
    każdy kupi sobie takie urządzenie ( moc obliczeniowa , grafika, pojemność pamięci ) jakie potrzebuje i na jakie go stać.
    I tutaj mamy odpowiedź dlaczego producenci czegoś takiego nam nie dadzą . Bo kupimy raz na 10 lat i koniec.

  • ArtiDiTu

    Aha, i na padnews piszą o ośmiordzeniowym ARMA57 w 64 bitach , że to chyba niewypał: zużycie energii , brak oprogramowania , brak stabilności ( nie wiem o co chodzi z tą stabilnością w tym wypadku : czy o architekturę ARM , sam model A57 czy o te osiem rdzeni , a może o system ?) – nawet chińczycy się śmieją z tego wyścigu o ilość rdzeni .
    Czytałem na verge test takiego samego tabletu z RK3188 i MTK6592 . faktyczna wydajnośc systemu wzrosła o coś ok. 5% , natomiast zużycie energii wzrosło o 12%.
    Było tez tam wyliczenie teoretyczne jednostki na 4 i 8 rdzeniach A7 , gdzie wydajność niewiele się zmieniała , natomiast cena , zużycie energii – skokowo.
    Tak przy okazji : mam blackBerry Playbook z nowym softem i po dwóch latach od zakupu chodzi lepiej i płynniej niż nówka Goclever od sąsiada. Zresztą ma do mnie pretensje , bo widział jak pracuje na BB i na Asus t100 i bardzo mu się tablety spodobały. poszedł do sklepu , a tam sprzedawca wiedział już co mu wcisnąć , teraz ma zabawkę co chodzi jak chodzi ( żeby nie było – mam starą nawi od goclevera i chodzi świetnie .

Tabletowo.pl
Logowani/Rejestracja jest chwilowo wyłączona