Głowa robota
(fot. Alena Darmel, Pexels, CC0)

Założyciel Apple i Książę Harry mają wspólnego wroga. Dobrze go znacie

Ludzie mają w zwyczaju rozwijać technologie w sposób, który może doprowadzić do tragedii. Ponad 800 osób, w tym wiele znanych nazwisk, podpisało się pod listem ostrzegającym przed nowym zagrożeniem.

Możemy, ale czy powinniśmy?

Sztuka próbuje czasami swoim językiem pokazać, że ludzie mają skłonność do tworzenia rzeczy nie myśląc wcześniej o konsekwencjach. Idealnym tego przykładem jest chociażby seria Jurassic Park, gdzie chęć stworzenia nietypowego parku rozrywki doprowadzała do „niespodziewanej” katastrofy.

A jak to wygląda w przypadku technologii? Tutaj materiału źródłowego jest od groma. Od „Raportu mniejszości” przez „Ex Machinę” po „Ghost in the Shell”. W przypadku sztucznej inteligencji najłatwiej byłoby wymienić serię „Matrix”, „Terminator” czy (dla odmiany) opowiadanie Harlana Ellisona „Nie mam ust, a muszę krzyczeć”. W każdym z tych przypadków powiedzieć, że los ludzi jest nie najlepszy, to jak nic nie powiedzieć. Wygląda na to, że niektórzy przeczuwają, że takie scenariusze wcale nie muszą być częścią fikcji i chcieliby bardziej odpowiedzialnego rozwoju AI.

Założyciel Apple i książę Wielkiej Brytanii przeciwko AI

Ponad 800 osób, wśród których można wymienić takie osoby, jak Steve Wozniak (jeden z założycieli Apple), Henryk, książę Sussexu, Steve Bannon (doradca polityczny za czasów pierwszej kadencji Donalda Trumpa), podpisali oświadczenie domagające się „wstrzymania prac nad superinteligencją do momentu, kiedy nie pojawi się naukowy konsensus, że proces jest bezpieczny i kontrolowalny, a poparcie społeczne wobec technologii będzie dostatecznie silne”.

Źródłem oświadczenia jest Future of Life Institute – organizacji non-profit, zajmującej się kierowaniem zmian technologicznych w stronę rozwiązań, które mają poprawić naszą jakość życia i ograniczyć zagrożenia egzystencjalne. Za zagrożenie dla tej idei uważa się AGI – ogólną sztuczną inteligencję, której zdolności poznawcze przewyższają ludzkie. Rychłe nadejście superinteligencji w najbliższych latach zwiastuje m.in. Mark Zuckerberg, Elon Musk czy Sam Altman, prezes OpenAI, który podał nawet przybliżoną datę debiutu rozwiązania – do 2030 roku. Nie powinno raczej nikogo zdziwić, że żadna z wyżej wymienionych osób nie podpisała listu Instytutu.

Choć science-fiction niekoniecznie musi pokrywać się z rzeczywistością, to jest jednak jeszcze jeden film, o którym warto wspomnieć w tekście. Tym razem jest to scenariusz oparty na faktach, który dobitnie pokazuje, że nauka i etyka nie zawsze idą ze sobą w parze – chodzi oczywiście o „Oppenheimera”. Czy jednak od platform społecznościowych, skupionych na treściach AI, za kilka lat czeka nas doświadczenie „Skynetu” na własnej skórze? Oby taki scenariusz nigdy się nie spełnił.