Dlaczego maszyny jeszcze nie rządzą światem, czyli rzecz o sztucznej inteligencji

Uczenie maszynowe to pojęcie, na które coraz częściej natykamy się na branżowych portalach. Na jednych kreśli się obraz świetlanej, niemal sterylnej przyszłości, na innych wieszczą bunt robotów i straszą nas rychłą zagładą współczesnej cywilizacji. Dokąd zaprowadzi nas Sztuczna Inteligencja?

Co to w ogóle jest: uczenie maszynowe? To nic innego, jak odpowiednie algorytmy. Ich szczególny rodzaj pozwala oprogramowaniu na automatyzację procesu pozyskiwania danych, ich analizy i wykorzystywania zdobytej w ten sposób „wiedzy” na ulepszanie i rozwój własnego systemu. Z założenia – ingerencja człowieka miałaby się ograniczać tylko przy popchnięciu metaforycznej pierwszej kostki domina. W praktyce jest tak, że algorytmy te wymagają nadzoru. Nie dlatego, że istnieje ryzyko przejęcia kontroli nad światem przez superinteligentny, samouczący się kod. Dlatego, że on często zawodzi.

Kto jest kim w świecie inteligentnych algorytmów

Uczenie maszynowe może wydawać się dość świeżym terminem – w końcu pojawia się w artykułach o sztucznej inteligencji od stosunkowo niedawna. W gruncie rzeczy jednak, nie jest niczym nowym. Amazon już w 1990 roku wprowadził na swojej stronie internetowej sekcję „Polecane dla Ciebie”, aby wyświetlać spersonalizowane propozycje. Kiedy szukamy czegoś w Google, za wynikami stoi właśnie ta technologia. Na niej oparte są też sugerowane strony na Facebooku albo rekomendacje produktów na stronie dowolnego sklepu internetowego. Za wszystko to odpowiada właśnie uczenie maszynowe.

W ten, czy inny sposób, strony te wiedzą o nas bardzo dużo. Każde kliknięcie lub wyszukiwanie jest rejestrowane i dostarcza masę informacji o nas, jednak ostatecznie żadna z nich nie wie o nas absolutnie wszystkiego.

Główny nurt wiedzy, którą mogą zgromadzić o nas algorytmy, rozdziela się na wiele pomniejszych strumieni danych. Google wie, czego szukamy, Allegro wie, co chcemy kupić, Spotify wie, czego lubimy słuchać, a Facebook zna schematy naszych społecznych zachowań. Ale żadna z tych firm nie wie nic o naszych preferencjach i wyborach w ciągu całego dnia. Dysponują jedynie danymi dotyczącymi wąskiego zakresu naszej aktywności. Mogą jedynie z pewną dokładnością przewidywać nasze działania, bazując na naszych interakcjach z tymi pojedynczymi platformami, interpretując nasze kliknięcia i ruchy kursora. Nie są w stanie spojrzeć na nas z szerszej perspektywy. Nie wiedzą, kim naprawdę jesteśmy. Jeszcze.

Przypuśćmy jednak, że istnieje algorytm, który potrafi połączyć ze sobą wszystkie ślady, które pozostawiamy po sobie w sieci. Algorytm, który wie, czego wyszukujemy w Google, co kupujemy na Allegro, jakiej muzyki słuchamy w Spotify, przy jakich serialach ślęczymy po nocach na Netfixie, wie, jakie statusy ustawialiśmy ostatnio na Facebooku i co udostępnialiśmy. Taki algorytm wiedziałby o nas znacznie, znacznie więcej i miałby zdecydowanie wyraźniejszy obraz naszej osoby. Taki potężny algorytm nadrzędny jest przedmiotem pracy Pedra Domingosa, autora książki „The Master Algorithm: How the Quest for the Ultimate Learning Machine Will Remake Our World”.

Wiedzę gromadzimy dzięki tworzeniu nowych połączeń między neuronami. W analogicznej sytuacji, w wypadku sztucznych sieci neuronowych, szkoli się je tak długo, aż algorytm uzyska poprawny wynik, omijając błąd w obliczeniach. Poprawne dane są utrwalane – algorytm, dzięki wykonaniu serii korzystnych operacji, uczy się, jak rozwiązać dany problem.

Geoff Hinton z Uniwersytetu w Toronto, jest jednym z czołowych badaczy w tej dziedzinie uczenia maszyn. Można go nazwać guru Sztucznej Inteligencji. Współpracuje obecnie z Google i jest człowiekiem stojącym za sukcesem wielu projektów tego giganta technologicznego, dotyczących „deep learning”. Zrewolucjonizowały one obraz SI w różnych dziedzinach, takich jak rozpoznawanie mowy, określanie cech charakterystycznych zdjęć czy generowanie sensownie brzmiących zdań.

Wszyscy wielcy giganci branży tech, w tym Facebook, Microsoft i Google używają tego samego modelu uczenia sztucznej inteligencji, by ulepszać swoje systemy. Navdeep Jaitly, który prowadził badania pod czujnym okiem Hintona, pracował jako jeden z naukowców zespołu „Brain” w Google. Wykorzystał ten model uczenia się algorytmu, by ulepszyć sposób, w jaki Android rozpoznaje mowę.

Innym godnym wymienienia nazwiskiem z tej „gildii”, jest Yann LeCun, dyrektor Facebook AI Research (FAIR). To kolejny pojętny uczeń Hintona, który uczynił z uczenia maszynowego swoją specjalizację i zrobił z tej dziedziny doktorat. Jest odpowiedzialny za rozwój inteligentnych algorytmów w Facebooku. Kiedy serwis pyta o to, czy oznaczyć Cię na na zdjęciu, bo rozpoznaje na nim twoją twarz, jest to wynik pracy LeCuna. Dzięki niemu algorytm wie, że „ty to ty”.

Jest jeszcze Yoshua Bengio, który jest szefem Montreal Institute of Learning Algorithms. Człowiek ten prowadzi obiecujące badania związane z uczącymi się algorytmami, organizuje różne wydarzenia związane z AI, w tym warsztaty szkoleniowe. Pokazuje on w praktyce, jak wyhodować inteligentną hydrę na własnej piersi. Ma oprócz tego jeszcze kilku innych znajomych. Bengio współtworzył algorytm Deep Learning wraz ze swoim studentem, Ianem Goodfellow oraz Aaronem Corville.

Wielu naukowców z tego grona, wierzy, że rozwijanie algorytmów uczenia się, jest odpowiedzią na wszystkie problemy Sztucznej Inteligencji i że ostatecznie doprowadzi to do utworzenia algorytmu nadrzędnego. Oczywiście nie wszyscy do końca się z nimi zgadzają. Jedni doszukują się podobieństw pomiędzy jego rozwojem SI a teorią ewolucji, tak jak John Holland, który starał się przemycić zasady rządzące genami wprost do algorytmów. Inni badacze, jak choćby Judea Pearl, usilnie rozwijają pomysły leżące u podstaw filtrów antyspamowych w naszych skrzynkach e-mail. W końcu – filtry te segregują naszą pocztę coraz skuteczniej.

W każdej dziedzinie i miejscu, w którym stosowane są uczące się algorytmy, pojawiają się inne problemy, i w różny sposób są rozwiązywane. Prawdziwym wyzwaniem byłoby napisanie takiego algorytmu nadrzędnego, który potrafiłby nie tylko zbierać dane z „podległych” mu algorytmów, ale też rozwiązywał problemy logiczne ze wszystkich tych źródeł.

Czas, w którym obecnie się znajdujemy, to właściwie pierwsze dni uczenia maszynowego i Sztucznej Inteligencji. Technologie te jeszcze nie idą naprzód – one jeszcze nawet nie raczkują. Na razie uczą się rozpoznawać słowa, kształty i twarze na zdjęciach i filmach. Pełzają. Do tej pory udało się im osiągnąć zdumiewające wyniki, ale tylko w zakresie niesamowicie wąskich strumieni specjalizacji. Prawdziwym osiągnięciem byłoby połączenie wszystkich tych strumieni w jeden, szeroki i wartki nurt.

Całkiem możliwe, że niebawem napotkamy na tej drodze problem, którego przez długi czas nie przeskoczymy – ani my, ani napisane przez nas algorytmy. A taki problem pojawi się na pewno i przyniesie tymczasową „zimę SI”, której pierwsze wiatry odczuwamy już dzisiaj – powstaje coraz więcej algorytmów i systemów wykorzystujących uczenie maszynowe, ale wszystkie te urządzenia projektowane po to, by zaspokoić bieżące potrzeby i wypełnić aktualne zadania.

Naprawdę niewielka grupa ludzi pracuje nad tym, by przełamać nadchodzący chłód postępu, który choć wydaje się oczywisty, może nie mieć jednego konkretnego kierunku, i w rezultacie rozdrobnić się na setki strużek przejawów sztucznej inteligencji, biegnących w różne strony świata naszej przyszłości.

Są badacze, którzy wierzą, że progres w uczeniu maszynowym będzie przypominał założenia ewolucyjne. Że na początku maszyny będą rozwijać się szybko, tak jak bakterie, które potrafią dzielić się co chwilę, i generować kolejne pokolenia, różniące się od siebie szczegółami, ale finalnie decydującymi o rośnięciu kolonii w siłę. Według tych przewidywań, Sztuczna Inteligencja napotka kiedyś mur, gdy algorytmy będą zbyt skomplikowane, by szybko się rozwijać, tak jak bardzo złożone gatunki zwierząt przystosowują się do zmieniających się warunków znacznie wolniej od prostszych form życia.

Wraz z nadrzędnym algorytmem mogą pojawić się pewne niebezpieczeństwa. „Idealny” algorytm wiedziałby o nas wszystko. Mimo, że uczenie maszynowe nie odbywa się za pstryknięciem palcem i ingerencja człowieka jest obecnie niemal ciągła, to w końcu Sztuczna Inteligencja może dojść do wniosku, że ludzie nie są jej potrzebni. Ewidentne różnice w podejściu do świata mogłyby ostatecznie doprowadzić ludzkość nad skraj przepaści, z której jedyną drogą ucieczki byłby skok w dół.

To tylko jeden z możliwych scenariuszy. Trzeba przyznać, że jest on kreślony pewną kreską optymizmu, zakładającą, że algorytmy byłyby w stanie wykształcić coś na podobieństwo samoświadomości. Inne, bardziej hollywoodowe pomysły, prowadzą do innych rozważań. Dajmy na to, że z powodzeniem zbudowalibyśmy mechanizm kontroli nad tymi superinteligentnymi maszynami (co jest dość bliskie idei, że mrówki byłyby w stanie sterować ludźmi). Nawet wtedy wystąpiłyby znaczące podziały i konflikty interesów między narodami, grupami i pojedynczymi ludźmi, co mogłoby doprowadzić do powstania swoistego Skynetu.

Oczywiście nie każdy musi widzieć w Sztucznej Inteligencji zagrożenia tak wielkiego, jakim straszy nas w swych apokaliptycznych wizjach przyszłości Steven Hawking. Jak już wspomniałem, Sztuczna Inteligencja jest zbyt rozproszona, by można było na poważnie doszukiwać się w niej zagrożeń dla ludzkości. Obecnie jeden algorytm po prostu „nie rozumie” drugiego, bo nie zostały w tym celu napisane. Jeden rozpoznaje mowę, drugi pismo, trzeci twarze na zdjęciach, a czwarty przeszukuje sklep z obuwiem, by zaprezentować Ci skuteczną reklamę nowych butów do biegania. Tylko tyle i aż tyle. Nie „rozmawiają” ze sobą, nie knują i nie marzą o przejęciu władzy nad światem, bo nie mogą. Przynajmniej na razie, dopóki im tego nie umożliwimy.

Sztuczna Inteligencja służy uprzejmie

Jest wiele firm, które obecnie korzystają z dobrodziejstw inteligentnych algorytmów. Powstają nowe startupy, które skupiają się na różnych implikacjach inteligentnych rozwiązań, w celu rozwiązywania różnych problemów dnia codziennego. Co ważniejsze: każdy z gigantów technologicznych całkowicie takie dążenia popiera. DeepMind wykupiony przez Google, skupia się głównie na opiece zdrowotnej i z pomocą uczenia maszynowego pracuje nad lekiem na raka. Inicjatywa Chan Zuckerberg, poparta przez Facebooka, zakłada zainwestowanie 3 miliardów dolarów w ciągu dziesięciolecia na pomoc, zapobieganie i leczenie chorób. Ważną rolę w tym mają odegrać właśnie inteligentne algorytmy.

Istnieje też coś takiego jak Partnership on AI, zrzeszające wszystkie wielkie firmy technologiczne świata, takie jak Amazon, Facebook, Google i Microsoft. Dzielą się one swoimi osiągnięciami oraz współdzielą ogromną bazę danych, by wyszukiwać i opracowywać najlepsze sposoby wykorzystania Sztucznej Inteligencji.

Czy podejmując wysiłki w celu ulepszenia AI, nie kopiemy tak naprawdę własnego grobu? Trudno powiedzieć. Szpadel SI, którym operujemy, może zaprowadzić nas sześć stóp pod ziemię, ale równie dobrze może być narzędziem, którym dokopiemy się do skarbu nie zaznaczonego jeszcze na żadnej znanej nam mapie.

 

źródła: Redgar Rodriguez, TechCrunch, Pedro Domingos, Nick Bostrom