Sztuczna inteligencja, Google, AI, logo
(źródło: Google)

Google zmienia zasady etyczne sztucznej inteligencji

Technologiczny gigant zmienił zasady AI. Z listy zniknęła obietnica, że Google nie będzie „projektować ani wdrażać” narzędzi opartych o sztuczną inteligencję, które mogłyby pomagać w użytkowaniu broni. W zamian powstała nowa, bardzo ogólna sekcja na temat odpowiedzialności.

Zmiany w polityce Google dotyczącej sztucznej inteligencji

Sztuczna inteligencja to potężna technologia, która prężnie się rozwija. Narzędzia są w stanie wykonywać coraz więcej zadań, boty korzystają z ogromnej wiedzy, a rządzący usiłują ujarzmić AI – choćby za pomocą AI Act, którego pierwsze zasady już obowiązują w Europie.

Przedsiębiorstwa udostępniające narzędzia oparte o sztuczną inteligencję także działają zgodnie z pewnymi, ustalonymi zasadami. Jednym z technologicznych gigantów, który już w 2018 roku opublikował pierwszy taki dokument i sukcesywnie go aktualizuje, jest Google. Teraz, po 7 latach, okazuje się, że niektóre obietnice z zasad usunięto.

Właściciel Gemini początkowo zobowiązał się, iż nie będzie „projektować ani wdrażać” narzędzi korzystających z AI, które miałyby posłużyć do użytku broni lub technologii nadzoru. Jednak The Washington Post zauważył, że sekcja „aplikacje, których nie będziemy realizować” zniknęła. W zamian za nią Google stworzyło nową pod tytułem „odpowiedzialny rozwój i wdrażanie”.

Jakie nowe zasady ustaliło Google?

Nowa sekcja przekazuje informacje na temat odpowiedzialnego podejścia wobec narzędzi i technologii wykorzystujących sztuczną inteligencję. Google tym razem zobowiązuje się do:

  • wdrożenia nadzoru ludzkiego, utrzymania staranności i mechanizmów, dostosowania produktów do celów użytkownika, odpowiedzialności społecznej oraz zasad międzynarodowych czy praw człowieka;
  • inwestycji w branżę badawczą, realizowania testów porównawczych dotyczących bezpieczeństwa czy wsparcia w tworzeniu pionierskich rozwiązań;
  • zastosowania rygorystycznych testów, procedur projektowych oraz monitoringu, a także zabezpieczeń chroniących przez niezamierzonymi i szkodliwymi skutkami;
  • promowania bezpieczeństwa, prywatności oraz działania zgodnie z prawem własności intelektualnej.

Jak zaznacza portal Engadget, wcześniej Google wspominało miedzy innymi, że nie będzie tworzyć narzędzi, które mogłyby pomóc w tworzeniu broni bądź technologii służących do powodowania obrażeń u ludzi. Takie deklaracje zniknęły. Przedstawiciele technologicznego giganta wytłumaczyli się z tej zmiany.

Z komunikatu opublikowanym na blogu wynika, że zastosowanie sztucznej inteligencji jako technologii „ogólnego przeznaczenia” wiązało się z koniecznością zmiany polityki. Nie wspomniano w nim nic na temat sekcji dotyczącej broni, a jedynie przedstawiono zaktualizowane zasady dotyczące AI.

W nowej wersji Google ma zamiar skupić się na trzech aspektach: odważnej innowacji, odpowiedzialnym rozwoju i wdrażaniu oraz wspólnym postępie. W komunikacie przedsiębiorstwo zobowiązało się do przestrzegania powszechnie akceptowanych praw międzynarodowych i praw człowieka. Każdy z produktów ma być oceniany pod względem potencjalnego ryzyka, a ponadto gigant weźmie też pod uwagę niestandardowe badania i rozwój.