Sztuczna inteligencja coraz bardziej ułatwia codzienne życie, ale jej potencjał dostrzegli także cyberprzestępcy. Najnowszy raport Google ujawnia, że hakerzy z Chin, Rosji, Iranu i Korei Północnej próbują wykorzystywać Gemini do swoich działań. Do czego AI jest potrzebne przestępcom?
Sztuczna inteligencja w rękach cyberprzestępców
Modele AI, takie jak Gemini, powstały po to, by pomagać w pracy, edukacji i codziennych zadaniach, ale ich zaawansowane możliwości przyciągają również osoby, które chcą ułatwić sobie swoją przestępczą działalność. Według raportu przygotowanego przez Google Threat Intelligence Group sztuczna inteligencja jest coraz częściej wykorzystywana przez cyberprzestępców, którzy próbują sprawdzić, w jaki sposób mogą użyć jej do własnych celów.
Hakerzy wykorzystują AI głównie w dwóch obszarach. Pierwszy z nich to analiza zabezpieczeń. W raporcie czytamy, że grupy cyberprzestępców wykorzystują Gemini do przeszukiwania informacji na temat podatności systemów, analizowania kodu źródłowego i identyfikowania potencjalnych celów ataku.
Drugi obszar to wsparcie w tworzeniu złośliwego oprogramowania. Choć Google wprowadziło zabezpieczenia uniemożliwiające bezpośrednie generowanie kodu malware’u, niektórzy próbują obejść te ograniczenia, prosząc AI o fragmenty kodu lub sugestie dotyczące ich modyfikacji.
Jak podkreśla Google, Gemini jest zaprojektowane tak, by odmawiać odpowiedzi na zapytania związane z cyberprzestępczością. Zdecydowana większość prób wykorzystania AI do nielegalnych celów kończy się niepowodzeniem, ponieważ wbudowane mechanizmy blokują podejrzane zapytania. Jednak samo zainteresowanie cyberprzestępców AI pokazuje, że sztuczna inteligencja staje się kluczowym elementem w nowoczesnym świecie technologii – zarówno w rękach ekspertów, jak i osób, które chcą ją wykorzystać w nielegalny sposób.
Warto także dodać, że mimo optymizmu Google dotyczącego blokowania prób wykorzystania Gemini przez hakerów, przecież wiele osób specjalizuje się w „obchodzeniu” wbudowanych w chatbota zabezpieczeń, np. używając zaawansowanych technik promptowania.
Gemini jako narzędzie propagandy
Jeszcze większe zagrożenie może wynikać z wykorzystania Gemini w operacjach propagandowych. Google zwraca uwagę, że grupy powiązane z rządami niektórych krajów np. Chin, Rosji, Iranu i Korei Północnej stosują AI do tworzenia i optymalizowania treści dezinformacyjnych. Dzięki temu fałszywe wiadomości mogą być generowane szybciej i w większej ilości.
Z pomocą Gemini można też tłumaczyć treści na różne języki, generować fałszywe analizy oraz dopracowywać strategię narracyjną, co sprawia, że wykrycie manipulacji staje się trudniejsze dla zwykłych użytkowników. Mimo że Google stale monitoruje te działania i aktualizuje mechanizmy zabezpieczające, wciąż pojawiają się nowe metody nadużywania „dobroci” AI.
Sztuczna inteligencja rozwija się w błyskawicznym tempie i z każdą nową aktualizacją staje się coraz bardziej wszechstronna. Warto pamiętać, że oprócz pozytywnych zastosowań, pojawiają się również poważne zagrożenia.