Google nie zrezygnuje ze współpracy z wojskiem, ale publikuje 7 zasad wykorzystania Sztucznej Inteligencji

Wielu nie spodobało się to, że Google współpracuje z amerykańską armią w zakresie wykorzystania sztucznej inteligencji w projektach czysto militarnych. Choć Pentagon dalej będzie korzystał z pomocy badaczy z Mountain View, postarali się oni o opublikowanie zestawu zasad, którym włodarze Google będą kierować się przy wybieraniu, w których projektach wojskowych firma będzie brać czynny udział.

Swego rodzaju kodeks sztucznej inteligencji Google opublikowano na blogu firmy. Wyjaśniono tam, że Google nigdy nie zaprojektuje sztucznej inteligencji do użycia w broni, w technikach inwigilacji lub innej technologii, która spowodowałaby szkody. Jednocześnie podkreślono, że nie oznacza to całkowitej rezygnacji z udziału w projektach rządowych lub wojskowych.

Wytyczne, zatytułowane „SI w Google: nasze zasady”, składają się z siedmiu celów sztucznej inteligencji oraz sekcji o kierunku rozwoju SI, do którego Google nie zamierza dążyć. W tekście firma przyznaje, że inteligentne algorytmy mają już teraz silny wpływ na społeczeństwo, oraz że poczuwa się do odpowiedzialności za to, by sztuczna inteligencja rozwijała się w odpowiedni sposób.

Post na stronie Google’a pojawił się jakiś czas po kontrowersjach, jakie wywołała nowina, że Google współpracuje z Pentagonem przy projekcie Maven. Jego założenia obejmują dostarczenie sztucznej inteligencji do dronów wojskowych, która pomagałaby rozpoznawać obiekty na obrazie odbieranym przez kamery. Ponad 3000 pracowników Google podpisało petycję z prośbą do zarządu firmy o wycofanie się z projektu, a co najmniej 12 z nich odeszło od swojego pracodawcy na znak protestu.

https://www.tabletowo.pl/2018/05/15/odchodza-z-google-bo-nie-chca-wspolpracowac-z-pentagonem/

Google podkreślało od początku, że współpraca nie obejmuje badań nad implementacją sztucznej inteligencji w dronach bojowych, a chodzi jedynie o ich pracę rozpoznawczą, ale najwyraźniej albo Pentagon wyjaśnił Google, do czego tak naprawdę będą używane drony, albo nacisk pracowników był na tyle silny, że firma zdecydowała o opuszczeniu projektu Maven zaraz po zakończeniu obecnego kontraktu. Współpraca Google ze strukturami wojskowymi obejmować będzie nadal „cyberbezpieczeństwo, szkolenia, rekrutację wojskową, opiekę zdrowotną – w tym nad weteranami, oraz ratownictwo”.

Siedem celów dla Sztucznej Inteligencji wg Google to:

  • Bądź społecznie korzystny
  • Unikaj tworzenia lub umacniania podziałów i uprzedzeń
  • Bądź budowany i testowany pod kątem bezpieczeństwa
  • Bądź odpowiedzialny przed ludźmi i przez nich kontrolowany
  • Uwzględniaj obowiązujące zasady zachowania prywatności
  • Zachowuj wysokie standardy naukowe
  • Bądź powszechnie dostępny do użytku zgodnie z powyższymi zasadami

Przypomina mi to trochę trzy fikcyjne prawa robotyki, określone przez amerykańskiego pisarza Isaaca Asimova. Rzecz jasna, w wypadku Google mamy do czynienia z zasadami, których muszą się trzymać ludzie pracujący nad narzędziem, jakim jest sztuczna inteligencja, a nie prawami autonomicznych maszyn, ale występują w nich pewne podobieństwa.

Sundar Pichai, wypowiadający się w omawianym poście, wydaje się być zarówno ostrożny i jednocześnie optymistycznie nastawiony do zastosowań sztucznej inteligencji. Wcześniej w tym roku przyrównał SI do ognia, który można wykorzystać dla dobra ludzkości.

Pełny tekst zasad Google dotyczący Sztucznej Inteligencji można znaleźć na oficjalnym blogu firmy.

 

źródło: Google przez AndroidAuthority