Przyszłość komputerów według prezesów HP, Intela i Microsoftu

Mimo znaczącego wzrostu mocy obliczeniowej i pojawiania się nowych rodzin urządzeń, właściwie od wielu lat mamy do czynienia z tym samym modelem. Na rynku obecne są urządzenia z procesorem, pamięcią operacyjną, pamięcią wewnętrzną, obsługiwane przez interfejs systemu operacyjnego i aplikacji.

Komputery i urządzenia mobilne różnią się bardzo od tego z czym mieliśmy do czynienia jeszcze 10 lat temu, ale paradygmat jest wciąż ten sam. Czy to wystarczy? Zobaczmy co do powiedzenia w tej kwestii mają prezesi jednych z największych firm technologicznych na świecie – HP, Intela i Microsoftu. Okazją do wyciągnięcia od nich tych informacji była konferencja Discover, którą poprowadził Thomas Friedman.

Hewlett-Packard

Prowadzący zapytał prezes HP, Meg Whitman, o tak zwany „Internet of Things”, czyli zjawisko powstawania setek milionów urządzeń (a w ciągu najbliższych lat – dziesiątek miliardów), które wymagają podłączenia do Internetu i procesora obliczeniowego. I nie są to tylko tablety, smartfony czy komputery. Prezes odpowiedziała, że będziemy mieli do czynienia z „eksplozją danych”, która pojawi się już w ciągu najbliższych 2-3 lat, a nie w ciągu 10, jak twierdziło wielu ekspertów. Według niej, współczesna technologia i sposoby przetwarzania oraz gromadzenia danych nie sprostają tak szybkiemu rozwojowi. Co zatem zrobimy?

W tym momencie Whitman wróciła do zapowiedzi z wczoraj. „The Machine” to maszyna obliczeniowa o zupełnie innej architekturze niż dotychczasowe urządzenia. Obecne przetwarzanie danych w komputerach i innych urządzeniach polega na wykonywaniu prostych operacji binarnych oraz przenoszenia bloków danych między poszczególnymi rodzajami pamięci – od L1 i L2 w procesorze, poprzez pamięć RAM, aż do pamięci wewnętrznej urządzeń czy zewnętrznych nośników danych. Swego czasu było to rozwiązanie najlepsze z możliwych, ale obecnie niesie ze sobą wiele ograniczeń. Bieżąca architektura pozwala na stopniowe przyspieszanie poszczególnych elementów całego systemu (procesor, pamięć), ale nie umożliwia zdecydowanego skoku jakościowego.

HP zdaje sobie z tego sprawę i prezentuje „The Machine” – urządzenie będzie wykorzystywać pamięć bazującą na memrystorach, czyli rezystorach z pamięcią, które mogą przechowywać jeden bit informacji i pozwalają na budowę procesorów znacznie mniejszych niż obecnie. Użyte zostaną też bardzo szybkie fotoniczne łącza systemowe, zarówno dla podzespołów wewnętrznych, jak i urządzeń zewnętrznych. Będzie to wymagało również zastosowania nowego systemu operacyjnego, który należycie obsługiwałby szybki dostęp do danych. A co to oznacza? Najprościej rzecz ujmując – mielibyśmy do czynienia z nową architekturą procesora, który to procesor byłby podłączony bezpośrednio do uniwersalnej pamięci, łączącej w sobie zalety zarówno DRAM, jak i dysków SSD – bez rozgraniczenia na pamięć operacyjną i masową.

Dlaczego byłby to tak duży skok jakościowy? Po pierwsze, procesory takie pobierałyby znacznie mniej prądu i zajmowały mniej miejsca. Po drugie, szacuje się, że 80-90% mocy obliczeniowej „tracone” jest na przenoszenie bloków danych między poszczególnymi rodzajami pamięci, a tylko 10-20% tej mocy używa się do wykonywania obliczeń „znaczących”. Czy współdzielona pamięć i nowa architektura procesorów ma szanse na trwałe zmienić bieg technologii? Najprawdopodobniej dowiemy się o tym wcześniej niż sądzimy.

W 2012 roku, kiedy to dyrektorem technicznym firmy został Martin Fink (stając na czele zespołu HP Labs), dokładniej przyjrzano się wszystkim eksperymentalnym rozwiązaniom, opracowanym w tym dziale R&D firmy – a w szczególności właśnie memrystorom i wykorzystującym krzem rozwiązaniom fotonicznym. Wizja nowego paradygmatu obliczeniowego spodobała się prezes Whtiman, dzięki czemu Fink otrzymał zgodę na zaangażowanie aż 75% członków zespołu badawczo-rozwojowego do tego projektu.

Co tu dużo mówić – przyszło nam żyć w naprawdę ekscytujących czasach.

Intel

Szef Intela, Brian Krzanich, szacuje, że do końca tej dekady, do Internetu podłączonych będzie ok. 50 miliardów najróżniejszych urządzeń. Dodatkowo, według niego, powstaną zupełnie nowe grupy i rodziny urządzeń, które na razie aż trudno nam sobie wyobrazić. I to właśnie te urządzenia mają być najciekawsze. A wraz z nowymi produktami, pojawią się nowe, nieznane problemy obliczeniowe, którymi będą musiały zająć się procesory. W tym procesory Intela.

Prezes przedstawił podejście tej firmy do ogromnych ilości danych. Według niego, pierwszym i najważniejszym elementem jest ich gromadzenie w inteligentny sposób. A do tego potrzebne są procesory, które mają pojawić się w „inteligentnych” urządzeniach, w skali dotąd niespotykanej.

Krzanich był bardzo enigmatyczny w odpowiedziach na pytania dotyczące nowych procesorów i architektur Intela, jednak wskazał na to, że nie ma odwrotu – czipy będą coraz mniejsze, tańsze i bardziej powszechne, a zbieranie ogromniej ilości danych o świecie przez najróżniejsze urządzenia stanie się normą. Brzmi to ciekawie, ale i trochę przerażająco.

Microsoft

Satya Nadella, nowy prezes Microsoftu, zwracał uwagę nie na sprzęt, a na oprogramowanie, które niejako dowodzi samym urządzeniem. Standardowe źródła interakcji z systemami, czyli klawiatura, myszka, czy nawet dotyk, będą stopniowo wypierane przez naturalne interfejsy. Na znaczeniu tracił też będzie model oparty o zamknięte, niewspółpracujące ze sobą aplikacje, na korzyść zintegrowanych rozwiązań, idących w stronę „sztucznej inteligencji”. Szczególnie ważne ma być rozpoznawanie mowy, rozpoznawanie twarzy i gestów oraz automatyczne podpowiedzi i ułatwienia w obsłudze systemu, dostosowujące się do naszych zachowań i zwyczajów.

Kolejnym kluczowym aspektem ma być „głębokie uczenie maszynowe”, które jednoczy w sobie różne technologie i idee. Przywołano tu przykład interaktywnego tłumacza, który rozumie mowę ludzką, zamienia ją na tekst, przetwarza i przy pomocy syntezatora mowy i wizualnego awatara, w czasie rzeczywistym potrafi tłumaczyć osobę mówiącą. Jeśli dla kogoś brzmi to nieprawdopodobnie – warto zauważyć, że ta technologia była już wielokrotnie  prezentowana na konferencjach z udziałem Microsoft Research i wkrótce ma trafić do komercyjnej wersji Skype’a.

Naturalne interfejsy od wielu lat są oczkiem w głowie Microsoftu i wiele z koncepcji trafia do rynkowych produktów – miało to miejsce choćby w przypadku Xboxa One z Kinectem czy wspomnianego wcześniej Skype’a.

Po co te zmiany?

Lepsze jest wrogiem dobrego, zatem zmiany są naturalnym elementem rozwoju technologicznego. Obserwowana i spodziewana eksplozja danych niesie jednak ze sobą poważne wyzwania i kolejny krok milowy wydaje się być niezbędny. Już teraz centra danych zużywają 2% wytwarzanej na świecie energii, a do 2040 roku ma być to aż 25%. O ile nie zmienimy paradygmatu obliczeniowego. Czy „The Machine” od HP będzie odpowiedzią na zbliżające się kłopoty? Za wcześnie żeby to stwierdzić, ale już teraz można powiedzieć, że największe firmy świata podchodzą do tego problemu poważnie, łącząc siły i pomysły. Za kulisami dzieje się masa ciekawych rzeczy, o których najprawdopodobniej nigdy się nie dowiemy, ale już teraz, korzystając z najnowszych produktów, możemy poczuć przedsmak technologicznej przyszłości naszej cywilizacji. Oby wyszło nam to na dobre.

Exit mobile version