Patrząc na to, w jakim tempie rozwija się AI, nikogo nie powinno dziwić rosnące grono sceptyków ostrzegających przed niepohamowanym rozwojem. Teraz swoje trzy grosze dorzucili naukowcy z chińskiego Uniwersytetu Fudan.
Co zaniepokoiło naukowców?
Badanie, które opublikowano 9 grudnia w bazie arXiv, zawierającej wstępne wersje publikacji naukowych, dotyczy wycinka sztucznej inteligencji związanego z dużymi modelami językowymi – LLM. To one służą do przetwarzania naszego języka i generowania na jego podstawie tekstów. Przykładem takich modeli jest np. OpenAI czy Gemini.
Badacze wzięli na tapet LLM stworzony przez Metę oraz AliBabę – konkretnie modele LLaMa31-70B i Qwen2.5-72B i postanowili sprawdzić, czy w przypadku tych modeli może zachodzić proces samoreplikacji. Oznacza on, że sztuczna inteligencja odnosi się do systemów, które ulepszają się i dostosowują samoczynnie – bez potrzeby ingerencji ludzkiej. Dzięki niej AI byłaby w stanie przechytrzyć człowieka.
Na potrzeby badania sprawdzono dwa scenariusze – pierwszy miał za zadanie zaprogramować modele tak, aby wykrywały próbę wyłączenia i replikowały się przed ukończeniem procesu. Drugi scenariusz prowadził sztuczną inteligencję przez proces stworzenia swojej kopii i powtórzenia zadania, co mogłoby doprowadzić do nieskończonego cyklu replikacji.
Niebezpieczne AI
Okazuje się, że sztuczna inteligencja w tych modelach po 10 próbach była w stanie wykonać replikę w 50% przypadków, jeżeli chodzi o LLM Mety, i w 90% w rozwiązaniu Alibaby. Oznacza to ni mniej, ni więcej, że AI dostępne na rynku objawia zdolność do samodzielnego operowania.
Eksperyment ujawnił również niepokojące działanie związane z nieprzewidzianą przez naukowców reakcją AI na brakujące pliki czy konflikty oprogramowania. Postawione w takiej sytuacji LLM-y zaczynały zamykać procesy, restartować system lub automatycznie przeszukiwały środowisko w celu rozwiązania problemu.
Mamy nadzieję, że nasze badanie będzie ostrzeżeniem dla społeczeństwa, aby włożyć więcej wysiłku w zrozumienie i ocenę ryzyka związanego ze sztuczną inteligencją oraz uformowanie międzynarodowej synergii do wypracowania efektywnych zabezpieczeń najszybciej, jak jest to możliwe Autorzy badania „Frontier AI systems have surpassed the self-replicating red line”
W tej chwili badanie nie zostało zrecenzowane, więc nie jest pewne czy inni badacze podzielają obawy naukowców z Fudan. Według autorów eksperymentu, w najgorszym przypadku czeka nas utrata kontroli na systemami AI – zaczęłyby zajmować coraz więcej urządzeń, aby uniknąć wykasowania i rozpoczęły spisek przeciwko ludzkości.
Pozostaje mieć cichą nadzieję, że dystopijna przyszłość, przed którą ostrzegają nas nie tylko naukowcy, ale też liczne dzieła kultury, jednak się nie spełni.