+6Nasi autorzy
Ważne

Zmierzch Doliny Krzemu – gdy kres innowacyjności dosięgnie urządzenia mobilne

 

celeron mikroprocesor

Dzisiejsze superkomputery znacznie przewyższają swoimi możliwościami ogólnodostępne stacje robocze skierowane do sprzedaży masowej. Taka maszyna, aby zasłużyć na swoje miano musi posiadać niewyobrażalną moc obliczeniową. Jej wydajność mierzona jest TFLOPS-ach. Niestety, w parze z mocą idą też potężne wymiary. Technika wciąż dąży do miniaturyzacji procesu litograficznego. Obecne superkomputery już nie zajmują dwóch hangarów, a wysłużone PC-ty przez przeciętnego użytkownika zostały zamienione na bardzo poręczne ultrabooki czy „mobilne” tablety. Dynamika rozwoju jest tak wielka, że daleko nam do rozważań na temat końca wyścigu zbrojeń. Czy jednak możemy być spokojni o przyszłość przenośnych komputerów? Zdania analityków są podzielone.

Oderwijmy się na chwilę od sektora mobilnego i popatrzmy na sytuację w krainie większych braci. Układy SoC komputerów obecnych w naszych czasach, oparte są o krzem. Pierwiastek, bez którego praca z dzisiejszymi PC-towymi pomocnikami w takiej formie, byłaby niemożliwa. Od czasów wykorzystania krzemu w elektronice, nauka nie wynalazła niczego lepszego. Pracę nad nowymi, grafenowymi układami są w powijakach. Bardziej można nazwać je wizją naukowców, niż realnym rozwiązaniem, które można wprowadzić do masowej produkcji. Tymczasem świat dynamicznie idzie do przodu. Żadna dziedzina nauki nie rozwija się tak mocno, jak informatyka. Powstają coraz szybsze procesory, pamięci RAM, interfejsy przy jednoczesnym zmniejszeniu objętości całych układów. Proces rosnących możliwości współczesnych komputerów determinuje osławione prawo Moore’a. Żyjący do dziś legendarny współzałożyciel Intela, Gordon Moore w 1965 roku odkrył, że istnieje zależność pomiędzy ilością tranzystorów a rozpiętością czasu potrzebnego na wymyślenie kolejnych układów. Dokładniej rzecz ujmując, ilość tranzystorów umieszczonych na układach SoC ( bardziej szczegółowo – mikroprocesorach), podwaja się z każdym rokiem. Dziesięć lat później teoria ta została skorygowana przez samego pomysłodawcę, a czas potrzebny na wymyślenie układu o podwojonej liczbie tranzystorów wynosił od tamtej pory w przybliżeniu 24 miesiące. Ostateczny kompromis osiągnięto przy wartości równej 18 miesięcy, czyli ni mniej, ni więcej – 1,5 roku. Pomimo, coraz częstszych głosów o upadłości tego prawa, obowiązuje ono do dziś. No właśnie. Mamy 2014 rok i przyrost wiedzy oraz możliwości rośnie w zastraszającym tempie. Jak długo inżynierowie będą w stanie podwajać ilość tranzystorów tak, aby zachować chociaż minimalny wzrost mocy obliczeniowej? Jak długo istnienie krzemowych układów będzie mieć sens, skoro powierzchnia jest ograniczona i ciężko upychać tranzystory w nieskończoność? Procesory Intel Haswell mają ich aż 1,4 mld. Ile jeszcze będziemy mogli mówić o innowacyjności współczesnych układów SoC, podczas gdy proces litograficzny zmniejsza się w zastraszającym tempie? Wymusza to przede wszystkim sektor urządzeń mobilnych, który dąży do miniaturyzacji komputerów. Dokładnie Wam nie odpowiem, ale czasu zostało niedużo. Sam Michio Kaku – popularny fizyk teoretyczny i kosmolog, uważa, że zostało nam mniej więcej 8 lat i w 2022 roku krzem osiągnie swoje końcowe możliwości rozwoju. Oznacza to, że obowiązujące od niespełna 50 lat prawo, stanie się martwe. Choć spekulacje na ten temat trwają od dawna, to i tak nie ma wątpliwości, że będzie to ważne wydarzenie, które może odwrócić przyszłość elektroniki do góry nogami.

Czym jest ten wspaniały krzem i jaką wartość stanowi?

Krzem – to jeden z pierwiastków znajdujących się na naszym globie. Jest często spotykany. Składa się z niego aż ¼ skorupy ziemskiej. Dzięki właściwościom półprzewodnikowym znalazł szerokie zastosowanie w elektronice. Oczywiście specjalne płytki krzemowe są dokładnie oczyszczane i odpowiednio przygotowane do użytku. Po specjalnej obróbce (pomijam tu kolejne złożone etapy) otrzymujemy mikroprocesor, którego najprostszym i najmniejszym elementem jest tranzystor. Spełnia on rolę tzw. „przełącznika” w procesie przepływu prądu elektrycznego w układzie mikroprocesora.

Nie będę jednak wykładał Wam tu całej fizyki i chemii, gdyż temat artykułu prowadzi w innym kierunku. Krótka wstawka na temat krzemu była po to, by unaocznić jak genialne właściwości ma ten pierwiastek. W zasadzie do dziś go nie zastąpiono w masowym zastosowaniu szeroko pojętej elektroniki. Cały czas jest on najtańszym i zarówno najlepszym zminiaturyzowanym półprzewodnikiem prądu, jaki zdołano wprowadzić. Co prawda istnieją prace badawcze nad innymi technologiami, o których napiszę niżej. Są one jednak w powijakach i napotykają kolejne problemy uniemożliwiające zastosowanie. Tranzystory krzemowe w chwili powstania miały swój niewątpliwy potencjał. Ponieważ krzemu jest dużo, zasoby wydają się być niemal niewyczerpalne.San Jose - Dolina Krzemowa

Od tego pierwiastka swój początek miała Dolina Krzemowa, która uznawana jest za centrum przemysłu komputerowego. Nigdzie na świecie nie ma takiej ilości firm skumulowanej na jednym terenie, zajmujących się badaniami, rozwojem i produkcją technologii półprzewodników opartych o krzem.

Zastosowanie i potencjał tego pierwiastka pozostaje bezdyskusyjny. Gdy jednak emocje już opadną widać, że genialny wynalazek ludzkości, nie jest taki idealny. Mimo, że z powodzeniem budowane są kolejne układy, to na przykładzie Ivy Bridge i Haswell (kolejnych generacji procesorów Intela) doskonale widać, że tempo rozwoju komputerów stacjonarnych i laptopów powoli wyhamowuje. Winę za to ponosi miniaturyzacja. Ilość tranzystorów upchana na małej powierzchni też przestaje być opłacalna. Gdzie zatem istnieje złoty środek? Przekonamy się w najbliższej przyszłości…

Znaczenie grafenu

nanorurkaKolejnym etapem i normalnym biegiem ewolucji jest wprowadzanie nowych technologii. Dotychczasowe układy krzemowe przez blisko 50 lat spełniały swoją rolę. Czas jednak na coś innowacyjnego. Pierwsze, co przychodzi mi na myśl, to grafen. W ostatnim artykule wspomniałem o nim w kontekście baterii. Sami doskonale rozumiecie, że postęp ten, jeśli dojdzie do skutku, zrewolucjonizuje urządzenia mobilne. Zapewniając 10-krotne możliwości dotychczasowych akumulatorów Li-Ion i skracając czas ładowania do zaledwie kwadransa, grafen stanie się pierwszym, który zerwie kajdany zniewolenia urządzeń mobilnych i uniezależni nas od gniazdka elektrycznego. Ale jakie on ma przełożenie na układy SoC? Otóż bardzo duże. Pomijając szczegółową książkową teorię, wynalazek ten to – jednoatomowa cząsteczka węgla, posiadająca tylko dwa wymiary. W odniesieniu do procesorów, struktury grafenowe miałyby stanowić warstwę cylindryczną nanorurek węglowych nowych tranzystorów. Na takiej technologii opierać się będzie terminal przyszłości. Mowa o komputerze kwantowym. Wiem, że wydaje Wam się to niezwykle naukowe wyłożenie wiedzy, jednak bez tego nie wyjaśnię możliwości grafenu. Wracając do tematu. Na świecie powstał już prosty komputer kwantowy – Cedric. Jego autorami są badacze z kalifornijskiego Uniwersytetu Stanforda. Naukowcy twierdzą, że to właśnie urządzenia oparte o nanorurkowe mikroprocesory stanowią przyszłość informatyki i komputeryzacji. Panuje też opinia, że grafenowe procesory wyprą powszechnie dziś stosowany krzem. Możliwości takiego urządzenia kwantowego są ogromne. Dzięki zastosowaniu nanorurek wydajność procesorów może sięgać kilkuset GHz, a w przyszłości nawet i THz (tysiąc GHz)! Skąd takie osiągi? Biorą się one z właściwości kubitu – podstawowej jednostki informacji w komputerach kwantowych. Współczesne komputery działają w systemie binarnym (dwójkowym). Pojedynczy bit opiera swoje działanie na dwóch operacjach ujętych w cyfrach 0 i 1. W przypadku „0” procesor nie reaguje, zaś „1” oznacza sygnał do działania. Natomiast, kubit nie przyjmuje żadnej z tych dwóch jednostek. Po prostu obiera wartości pośrednie, zarówno 0 jak i 1. W konsekwencji terminal kwantowy umożliwia przeprowadzenie wielu operacji naraz. To ogromny skok technologiczny! Zauważmy, że krzem źle znosi wysokie częstotliwości taktowania zegara. W przypadku grafenu, problem ten nie występuje. Innymi słowy – współczesny komputer nie pozwala na tak daleko posuniętą wielowątkowość, co technologia kwantowa. Zdaniem naukowców, Cedric wyprzedza obecną krzemową technologię, o co najmniej 10 lat. Trzeba sobie jednak zdawać sprawę, że istnieje wiele ograniczeń. Po pierwsze, obecne układy tranzystorowe z nanorurek węgla w temperaturze pokojowej działają krótko. Dotychczas prototypowy komputer kwantowy utrzymywał stabilność systemu przez zaledwie 39 minut. Po drugie, kwantowa technologia jest wciąż niestabilna. Część nanorurek nie zachowuje swoich właściwości półprzewodnikowych, wpuszczając przepływ prądu w sposób stały (bez możliwości odcięcia). Po trzecie, koszty produkcji, a także dostępne formy i technologie wykonania, są mało wydajne. Potrzebna jest nowa infrastruktura, aby produkcja komputerów kwantowych była opłacalna. Pomimo, że długa droga przed ludzkością, jako informatyk wierzę w powodzenie tej technologii.

Komputer kwantowy

 

 

Kres prawa Moore’a

Wróćmy jednak na ziemię. Póki co, technologie kwantowe są nutą przyszłości. Musimy się skoncentrować na tym, co mamy dostępne teraz. Wspaniały wynalazek ludzkości – układ scalony oparty o krzem, przeszedł wielką ewolucję. Od momentu, w którym powstał pierwszy procesor, aż do dziś możemy powiedzieć, że minęło kilka epok w świecie informatyki. Wszystko jednak co piękne z czasem ma swój koniec. Era oparta o dotychczasowe technologie nie może trwać wiecznie. Wiedział o tym sam Gordon Moore, wiedzą i współcześni inżynierowie, którzy borykają się z coraz większymi ograniczeniami. Trudniejszy niż kiedyś proces poprawy wydajności współczesnych terminali, poprzez upchanie większej ilości tranzystorów, przestaje być opłacalny. Biorąc pod uwagę to, o czym pisałem wyżej – teoria legendarnego twórcy potęgi Intela traci sens. Pomimo, że giganci rynku w najlepsze realizują wieloletnie plany technologiczne, któregoś dnia, prezesi liczących się korporacji będą musieli skapitulować. Oznajmią światu, że ich możliwości tworzenia innowacyjnych układów SoC opartych o krzem, skończyły się. Bez znaczenia czy będzie to okres, w którym ogólnodostępna idea komputerów kwantowych znajdzie zastosowanie, czy będzie to brak jakiejkolwiek alternatywy. Koniec innowacyjności najbardziej rozwijanego sektora – przemysłu komputerowego, będzie wydarzeniem na miarę epoki. A co wtedy? Szara rzeczywistość… Mocno napędzany rynek straci na wartości. Zanim nowa technologia zyska zaufanie klientów, a przede wszystkim koncernów produkujących takie układy, upłynie trochę czasu. Powstanie rynkowa próżnia. A jak wiadomo, przestój technologiczny nigdy nie wróżył niczego dobrego. Z punktu widzenia ekonomicznego, jest to klęska.

 

Proces litograficzny, a efektywność tranzystorów krzemowych

Każdy, kto poznał już prawo Moore’a, doskonale wie, że wydajność nowych układów determinuje coraz większa ilość tranzystorów użytych przy produkcji danego procesora. Tacy giganci jak Intel czy AMD doskonale zdają sobie sprawę z tego, że ilość już upchanych krzemowych „wafli” przypadających na jeden układ, jest spora.  Wiedzą także o tym, że zbliżają się do momentu, w którym na kolejne tranzystory braknie po prostu miejsca. Są również opinie, że ilość zastosowanych krzemowych elementów w odniesieniu do jednego procesora, przestanie być opłacalna. Ale o tym napiszę nieco później.Intel_Haswell_4771_CPU

Przejdźmy teraz do myśli przewodniej akapitu. Wielki „boom” na dotykowe urządzenia mobilne spowodował, że firmy produkujące układy SoC zaczęły kombinować. Aspektów, które wymagały udoskonalenia było wiele. Duży proces technologiczny pochłaniał spore ilości energii. O ile w komputerach stacjonarnych nie miało to większego znaczenia, to tablety czy smartfony potrzebowały solidnego ogniwa zasilającego urządzenie. Jak mogliście przeczytać z ostatniego mojego artykułu, technologia dzisiejszych akumulatorów jest – delikatnie mówiąc – mało wydajna. Naukowcy poszli więc tropem energooszczędności. Redukcję zapotrzebowania na energię opracowano dwufazowo. Z jednej strony zmniejszany jest proces technologiczny. Po czym, aby zwiększyć efektywność, układy i moduły łączności implementowane w urządzeniu są udoskonalane. W rezultacie całość pobiera mniej prądu. W rzeczywistości jednak ani tablety, ani smartfony, ani tym bardziej ultrabooki nie „trzymają” dłużej na jednym cyklu ładowania. Powodem jest wszechobecna pogoń za kasą. Marketing napędza sprzedaż, a ta jest wysoka. Ponieważ kolejne generacje są mocniejsze, wydajniejsze, wspanialsze producenci piorą mózgi potencjalnym klientom. Moc urządzeń mobilnych nie zawsze przez kupującego jest wykorzystywana, a baterie, jak były słabe, tak są dalej. Na ludzi działają cyferki, a nie zdrowy rozsądek, więc postęp jest pozorny.

Nie schodźmy jednak z tematu. Koncentrując swoją uwagę na obniżeniu procesu technologicznego, wedle założeń potentatów rynku, ma on przynieść zmniejszenie rozmiarów całego układu SoC. Wraz z tym idzie mniejszy pobór prądu. Zatem droga rozwoju firm wyznaczających trendy jest właściwa. I nawet nie poruszyłbym tego aspektu, gdyby nie jedna rzecz. Rozwój technologiczny determinuje prawo Moore’a. Intel czy AMD idąc tym tropem, wprowadzają swoje kolejne rozwiązania starając się zwiększyć wydajność procesorów. W tym celu upychają większą ilość tranzystorów w układzie mikroprocesora. Jednocześnie przy coraz niższej litografii ilość krzemowych „wafli” wzrasta. Okazuje się jednak, że ciaśniej upchane i bardziej kompaktowe tranzystory nie dają tak oczywistego przyrostu mocy, a cena układów rośnie. Między Ivy Bridge a Haswell różnica wydajności wynosi zaledwie 5-10%. W przeciwieństwie do nich druga generacja procesorów Intela – Sandy Bridge, ze swobodnie umieszczonymi krzemowymi elementami, dała aż 60% wzrost osiągów w stosunku do poprzednika. Nawet główny inżynier AMD, zauważył te problemy. W jednym z wywiadów powiedział:

„Jeżeli upakujesz za mało tranzystorów, chip będzie kosztował za dużo w przeliczeniu na tranzystor, ale jeżeli przesadzisz w drugą stronę, będzie tak samo. Czekając na przejście z technologii 28 nm na 20 nm okazało się, że zajęło to dłużej niż mogłoby wynikać z prawa Moore’a.”

Choć AMD wiecznie depcze ślady Intela, to ze słów Gustaffsona można wyczytać, że technologia krzemowa zderzyła się ze ścianą nie do przejścia. Lider rynku ratując sytuację stworzył nowej generacji tranzystor 3D – Tri Gate Transistor. Oferuje on 30% więcej mocy, niż zwykły odpowiednik. Jednak wynalazek ten nie jest rozwiązaniem na dłuższą metę.

Haswell_ChipCiężko przypuszczać, że kolejne zejścia procesu technologicznego coś zmienią w tej kwestii. W tym momencie walka toczy się o zachowanie jak największej ilości energii, efektywność i udoskonalenie tego, co zostało wynalezione. Intel oczywiście planuje zejść do 14 nm, potem 10nm i 7nm, aby proces miniaturyzacji zakończyć na 5 nm. Wszystko jest oczywiście z myślą o urządzeniach mobilnych. Wymagają one systematycznego pomniejszania dzisiejszych układów. Ponadto, przy mało wydajnym akumulatorze, często nie są w stanie wytrzymać na baterii do wieczora. W przypadku ultrabooków opartych o mocne podzespoły, nie możemy nawet mówić o takich osiągach. Jednak czy Intelowi uda się ta sztuka, tego nie wiedzą nawet ich inżynierowie. Data premiery przyszłych układów nie została podana (jest tylko termin orientacyjny). Może się okazać, że architektury 5, 7 i 10 nm są tylko czysto teoretyczne. Jestem oczywiście pełen nadziei i z racji dokonań Intela wierzę w jego sukces, ale w praktyce może być różnie. Oczywiście tak drastyczne obniżenie procesu technologicznego daje niesamowite możliwości, których już tu nie przytoczę. Choć czasem czuję, że to jedynie pobożne życzenie naukowców. Ważna uwaga. Rozgraniczam tutaj rozwiązania czysto przenośne od desktopowych. Wiadomo, że producenci stricte mobilnych układów SoC (Qualcomm, ARM, MediaTek) będą w stanie osiągnąć niższą litografię. Nie tędy jednak droga. Całemu światu zależy, by dzisiejsze komputery z powodzeniem przenieść na powierzchnie tabletów, a nawet smartfonów. Bez wydajnych jednostek Intela o takiej możliwości możemy tylko pomarzyć…

Umarł król, niech żyje król

Co w tym momencie bym nie napisał, krzem powoli traci swą innowacyjność. Jak z każdą technologią bywa, przychodzi moment, w którym trzeba ją zastąpić nowszym rozwiązaniem. Tradycyjny tranzystor wyczerpał swoje możliwości. Pora na jego grafenowego odpowiednika. Naukowcy, jak i cały świat techniki, pokładają ogromne nadzieje w tym świetnym wynalazku. Nie można jednak spoczywać na laurach. Komputer kwantowy jest jeszcze we wczesnej fazie rozwoju. Dużo wody w Wiśle może upłynąć, zanim ukaże się finalna, w pełni stabilna wersja. Pozostaje nam jedynie czekać na rozwój wydarzeń, ale myślę, że jest na co. Terminal oparty na grafenowych tranzystorach osiąga moc, o której współczesne komputery mogą pomarzyć. Jeszcze piękniej wygląda przyszłość, gdy dołożymy do tego rozbudowaną wielowątkowość tego układu. Żeby zobrazować Wam bardziej ten przeskok technologiczny, zestawię ze sobą małe, miejskie auto – Fiata Seicento i sportowego, ekskluzywnego Bugatti Veyrona. Oczywiście na obu samochodach pojeździmy, ale jakość i wrażenia z jazdy będą nieporównywalne. Podobnie sprawa ma się z komputerem krzemowym i kwantowym. Piszę o tym, dlatego, że jest to niewyobrażalna szansa na pozbycie się wielu ograniczeń. Przeciętna osoba posiadająca taki sprzęt mogłaby być elastyczna. Wcale nie uzależniając swoich codziennych czynności od ciągłego ładowania akumulatora, bądź przesiadania się na stację roboczą, która dostarcza odpowiedniej mocy obliczeniowej do skomplikowanych zadań. Kluczowy jednak nie jest klient indywidualny, a organizacje, które potrzebują zaawansowanego sprzętu o największych możliwych osiągach. Nie bez powodu pisałem na wstępie o superkomputerach. Ich rozwój i sens istnienia, a także należyte wykorzystanie, zależą w głównej mierze od powodzenia grafenowych układów. Teraz zajmuje sporą powierzchnię, ale w perspektywie kwantowego komputera nie będzie to mieć racji bytu. I dobrze. Wszak uważam, że sceny rodem ze Star Treka czy innych filmów Sci-Fi wcale nie muszą być nierealnym marzeniem. Być może z pomocą tak zaawansowanej, sztucznej inteligencji rozwój nauki znacznie by przyśpieszył. Lecz to już odległa polemika…

Czy mobilne urządzenia podzielą los większych braci?

układ scalonyPrzyszłość krzemu maluje się w czarnych barwach. Choć nie można powiedzieć, że w momencie wejścia na rynek kwantowego odpowiednika, tradycyjny komputer przestanie istnieć. To mam wrażenie, że cały ciężar oparty na obecnej technologii pójdzie z dymem. Ciekawi mnie, co w obliczu takiego scenariusza myślą sobie firmy „zamieszkujące” Dolinę Krzemową. Czy wejście grafenu sprawi, że ktoś z góry przemianuje to technologiczne zagłębie? Czy jednak miejsce to straci swój czar i możliwości?

Naprawdę ciężko wydać teraz odpowiedni osąd. Przyszłość to nadal wypadkowa sukcesów i klęsk naukowców. Jedno jest jednak pewne. Im dłużej świat będzie bazował na wysłużonej technologii, tym problemy będą się pogłębiać. Ludzkość oczekuje zmian. Gdy prawo Moore’a stanie się martwe, technika będzie musiała znaleźć sobie inny cel. Pompowanie pieniędzy w kolejne układy „bez” przyszłości może okazać się iście wątpliwe. Rozwijanie tego, co nie przyniesie oczekiwanego skutku to strata czasu i nie ukrywajmy, również kasy. Jednocześnie idea mobilnych superkomputerów znacznie się oddala.superkomputer

Przenieście się myślami w przyszłość. Wyobraźcie sobie tablet, który pracuje z prędkością 300 GHz i spokojnie wykonuje wszystkie zadania współczesnych komputerów i to z „zamkniętymi oczami”! Piękna wizja prawda? Chyba każdy chciałby mieć taką maszynę zawsze pod ręką. Obecnie mam wrażenie, że dzisiejsze urządzenia mobilne kręcą się w kółko. Wymiana stacjonarnych komputerów w ogóle mija się z celem. Wydźwięk tego faktu jest ogromny. Dziś z powodzeniem odpalimy super wydajne gry na sprzęcie sprzed 5 lat. Oczywiście na niższych detalach, ale jednak. Co kiedyś było po prostu niemożliwe. Chociaż do końca nie wiem czy jest sens rozpatrywać to jednostronnie – jako klęskę. Być może zanim krzem wyczerpie swoje możliwości komputery kwantowe wejdą w finalny etap rozwoju. Z drugiej strony gdyby jednak nie pozostała żadna alternatywa, naukowcy mocniej skupiliby się na innych aspektach, jak akumulator czy stabilność modułów. Efekt takiej pracy przyniósłby wymierne korzyści. Bardzo młody sektor mobilny wymaga zmian. Inżynierowie i badacze mają, nad czym pracować. Sporo wad obecnych tabletów nie powinna mieć racji bytu. Kres możliwości krzemu okazuje się łamać zęby dzisiejszym naukowcom. Choć mam wrażenie, że gdyby skoncentrowali się na tym, co ważne, problemy można by rozwiązać. Pytanie tylko czy technologia liczy się dla człowieka bardziej, niż pieniądze…

 

Fot. by wikipedia.org (CC) – mikroprocesor, Dolina Krzemowa, nanorurkaprocesor kwantowy, procesor Haswell, mikroarchitektura Haswell, układ scalony, superkomputer Titan

Jeżeli znalazłeś literówkę w tekście, to daj nam o tym znać zaznaczając kursorem problematyczny wyraz, bądź zdanie i przyciśnij Shift + Enter lub kliknij tutaj. Możesz też zgłosić błąd pisząc na powiadomienia@tabletowo.pl.

Komentarze

  • Berserker

    bardzo ciekawy artykuł.

  • janko

    To całe „prawo Moore’a”, co to za „prawo”, które się modyfikuje w zależności od bieżącej sytuacji, a tak w ogóle to ma „przestać obowiązywać”. To nie jest żadne „prawo”, tylko obserwacja bieżącego stanu, który z czasem się zmienia. Takich „praw naukowych” mogę od ręki wymyślić kilka, np. że dojazd do pracy zajmuje 20 minut, bo tyle mi teraz zajmuje, ale zakładam możliwość modyfikacji tego „prawa” w przyszłości, jak zmienię pracę, albo jak zmienię rower na kolarzówkę.

    A jeśli chodzi o urządzenia mobilne, to możliwości rozwoju są nadal praktycznie nieograniczone, bo wydajność procesorów mobilnych w porównaniu z prawdziwymi komputerami jest bardziej niż żałosna. Bez dokładania kolejnych milionów tranzystorów, tylko poprawiając technologię, pracy dla inżynierów na pewno nie zabraknie przez najbliższe ładnych parę lat, i na pewno dalej będzie używany krzem, bo ta technologia jest tania, opanowana i się sprzedaje. Dopóki coś się sprzedaje, dopóty nikt nie zainwestuje dużych pieniędzy w żadne rewolucje. I również z tego powodu, poprawa jakości będzie starannie dawkowana, a drobne zmiany nagłaśniane i medialnie pompowane do gigantycznych rozmiarów, żeby się za szybko nie wypstrykać z nowych pomysłów, które mogą sobie leżeć w szufladach jeszcze z 10 lat, albo i dłużej.

    • Nikt nie twierdzi, że Prawo Moore’a jest prawem naukowym, a jedynie ciekawą obserwacją pozwalającą na prognozy rozwoju techniki.

  • barwniak

    Układów złożonych o częstościach THz nigdy nie będzie, ze względu na skończoną prędkość światła. Dlatego dziś układy które mają wymiar do 3cm (w najdłuższym wymiarze) nie przekraczają 5GHz. Gdyby dać wyższą częstość odwołania poszczególnych modułów (tych najbardziej odległych geometrycznie) wysyłały by rozkazy, przed otrzymanie informacji zwrotnych od swoich poprzednich rozkazów. powstawała by niespójność.Pewną poprawę można osiągnąć poprzez obniżenie temperatury. Prędkość fazowa elektronów może być wyższa od c, ale o max kilkadziesiąt procent, a nie o rzędy.
    A dlaczego nie będzie THz procesorów? No dlatego, że przy tej częstości to światło przebywa drogę poniżej milimetra. Na 1mm2 nie zmieści się bilionów tranzystorów, bo musiały by być mniejsze od atomów :)
    Zbudowanie pojedynczego tranzystora, czy nawet tysięcy, które pracują w THz jest możliwe już przy dzisiejszej litografii. Ale nie miliardów.

  • Ja(ten prawdziwy)

    Już to gdzieś czytałem. To samo 0_o o_O

    • Może masz Alzheimera i już raz tu byłeś? :) Google twierdzi, że ten artykuł został opublikowany tylko tutaj. Chyba że to przedruk z jakiegoś pisma papierowego.

      • Ja(ten prawdziwy)

        Chyba ma Gadżetomania.pl było coś na ten temat :)

        • Marcin Mierzejewski

          Witam serdecznie,

          Skoro już pytacie, to temat „prawa” Moore’a przewija się od kilku dobrych lat. Stąd też mogliście zapewne przeczytać o nim na innych portalach. Każdy informatyk doskonale wie, że krzem nie jest nieskończenie idealny i kiedyś straci na wartości. Nie mniej, wypowiedź Gustaffsona, definicja Gordona Moore’a są powszechnie dostępne na internecie. Większość teorii to połączenie informatyki, fizyki (również tej kwantowej), powołującej się na źródła naukowe oraz wiedzę własną. Przełożona jest jedynie na prostszy język. Nie mogę tworzyć tutaj magisterskich wykładów, bo piszę również dla ludzi niezrzeszonych z tą dziedziną nauki.

          Odnośnie samego tematu, chciałem wyprzedzić nieco teraźniejszość i przenieść was do wcale nie tak odległych lat 2020+. Obecnie nie ma co się martwić. Sektor mobilny jest młody i ma wiele przed sobą. Ale doskonale wiemy, że czerpie on z tej samej krzemowej technologii co stacjonarne komputery. Więc czeka je ten sam los co większych braci. Druga rzecz, na przykładzie tabletów doskonale widać jak krzem je ogranicza. Niedoskonała technologia nie daje tyle możliwości. Dlatego wspomniałem o Cedricu, który może być „ojcem” komputerów nowej generacji. Jednak temat jest otwarty, a moje teorie są daleko idącymi przypuszczeniami. Nie mogę do końca przewidzieć przyszłości, dlatego zachęciłem was do otwartej polemiki.

          Na koniec dodam, że dla wielu może to być klepanie tego samego, starego problemu bez końca. Tabletowo jest poświęcone tabletom, a te należą do urządzeń mobilnych. O ścianie z jaką się zderzą nikt przede mną nie pisał, zapewniam. A sam artykuł jest nawiązaniem do poprzedniego wpisu o bateriach.

          Pozdrawiam,
          Marcin Mierzejewski

          • Ja(ten prawdziwy)

            Chodziło mi o to, że pisali to bardzo podobnie.
            Albo mam jakieś deżawi (wiem, źle to napisałem :p ).

          • Marcin Mierzejewski

            „De ja Vu” czytelniku :)

            A to, że pisali o tym inni i mieli bardzo podobne zdanie, utwierdza tylko w przekonaniu, że coś niedobrego dzieje się w świecie informatyki. Niejedna osoba już to również tutaj zauważyła. Zamiast pompować cyferki, należy skoncentrować się na kompleksach dzisiejszych terminali. Ciężko jednak przekonać w pojedynkę wielkich gigantów jak Intel. Na szczęście wielu specjalistów i blogerów, uważa podobnie (co zresztą potwierdziłeś). Być może głos „masy” wpłynie na kierunek rozwoju.

          • Ja(ten prawdziwy)

            Racja.
            Co do De ja Vu… i tak nie zapamiętam ;P

      • Nie jest to przedruk ani kopia żadnego innego artykułu. To wpis autorski Marcina, powstały w całości w jego głowie, skąd myśli zostały przelane na klawiaturę.
        Zapewne Marcin też odniesie się do komentarza użytkownika Ja.

  • Majkel

    W sumie, jak nie będzie już można zrobić mocniejszych procesorów, to producenci wezmą się za ulepszanie czegoś innego swoich urządzeniach mobilnych. Może urządzenia zaczną wychodzić rzadziej, a producenci skupia się na długiej pracy na baterii, na wytrzymałości, na świetnym wyglądzie i wykonaniu… Przecież teraz wszystkie oprogramowania są robione tak aby działały też na słabszych urządzeniach. Np Android 4,4 jest tak przystosowany by działał na 512 MB RAMU, i jest coraz stabilniejszy. Snapdragon 800 na androidzie kit kat działa idealnie. Skoro coś działa idealnie to po co to ulepszać? Nie lepiej wziąć się za coś co kuleje w smartfonach? Np czas pracy na baterii albo wytrzymałość naszych smartfonów?

    • max123

      I co z tego, producenci nie dadza nowej wersji andka na stare tel z 512 ram, bo nowe modele musza sie sprzedawac ;)

  • jacko

    Programisci sa w stanie tak zle napisac program ze bedzie mulil nawet na szybkich urzadzeniach, patrz android. Gwaltowny wzrost wydajnosci komputerow spowoduje rozleniwienie programistow i zwiekszone wymagania uzytkownikow (np trojwymiarowy intfejs, rozmycia ruchu, itd)

    • Zostań więc programistą i napisz lepsze oprogramowanie. Będziesz bogaty.

      Android i iOS najczęściej mulą z powodu ograniczeń dzisiejszego sprzętu, sporo cierpią na wolnych pamięciach flash – spróbuj sobie zostawić 3GB wolnego w pamięci wewnętrznej dowolnego nowoczesnego telefonu z Androidem, gwarantuję, że nie będzie mulić. Poprawa będzie gigantyczna gdy wreszcie telefony i tablety zaczną używać pełnoprawnych SSD albo chociaż tych co teraz ale większej pojemności.

      Dodatkowo też nawet „szybkie urządzenia” jak to określiłeś mobilne muszą oszczędzać energię, a to złożony proces, który może powodować spowolnienia – coś za coś.

      • uze

        Nie zmienia to faktu, że do pierwszego przecinka, w zdaniu które napisał Jacko ma on 100% racji.
        To czy program będzie dobrze zoptymalizowany zależy od wielu czynników. Najczęściej liczy się czas i pieniądze, więc pisze się po najmniejszej linii oporu.
        Jeśli nie wierzysz, to zrób eksperyment – ogłoś konkurs na Tabletowo na napisanie aplikacji mającej spełniać określone wymagania.
        Założę się że tyle ile nadejdzie prac tyle będzie różnic szybkości jej działania. Nawet prosty zegar można napisać, tak że będzie zabijał system ;)

  • max123

    Ja sie tam nie moge doczekac tego momentu, moze wtedy skupia sie na optymalizacji androida i zajma sie w koncu tymi bateriami

  • Meeeerrrrrttt

    „Ogólny” procesor to nie wszystko, dzisiaj elektronika idzie w kierunku specjalizowanych układów liczacych wbudowanych (graficzne, kompresujace – dekompresujące, szyfrujące) w ten wspomniany procesor czy komputer i dzięki temu cały czas wydajność wzrasta a jednocześnie spada zapotrzebowanie na energie.

    Kiedyś oprogramowanie dostosowywane było do elektroniki – mikroprocesora ogólnego przeznaczenia, dzisiaj wiemy, że bardzo dobrym kierunkiem rozwoju jest elektronika która jest dostosowana do konkretnego oprogramowania. To daje bardzo dobre efekty i nawet jeżeli to wspomniane Prawo Moore’a zostanie zakłócone to rozwój wcale sie nie skończy. Tą metodą można jeszcze przez 20 lat ciągnąć i unowocześniać, dostosowywać obecne procesory i układy elektroniczne – dzięki temu nie będzie żadnego zmierzchu czy zastoju.

    „Elektronika kwantowa” nie nadaje się do wszystkiego, klasyczna elektronika wciąż będzie w użyciu nawet po spopularyzowaniu tej kwantowej – po prostu urządzenia będą doposażane o kolejne nowe układy w tym te które będą „liczyć kwantowo”

    Warto też zwrócić uwage na nośniki danych i sieci których wydajność/ przepustowość też wzrasta a to ogromnie wpływa na wydajność naszych urządzeń -kiedyś mieliśmy dyskietki, dyski optyczne i magnetyczne dzisiaj zaczynają być coraz popularniejsze dyski flashowe -SSD króre zapewniają dziesiątki a w przyszłości setki razy większe prędkości zapisu/ odczytu.

Tabletowo.pl
Logowani/Rejestracja jest chwilowo wyłączona