Jak oszukać asystentów głosowych za pomocą ultradźwięków?

Najnowsze badania chińskich naukowców z Uniwersytetu Zhejiang dowiodły, że można sterować asystentami głosowymi za pomocą komend wydawanych przy pomocy ultradźwięków, niesłyszalnych dla ludzkiego ucha. Nowy typ ataku został ochrzczony jako Dolphin Attack.

Temat wpływania na zachowanie urządzenia poprzez wydawanie komend ultradźwiękowych asystentom głosowym pokroju Cortany, Siri, S Voice i Google Now, nie jest nowy. Chińczycy jednak jako pierwsi podeszli do tematu kompleksowo – przetestowali aż szesnaście różnych asystentów, w tym te już wymienione. Naukowcy nagrali komendy głosowe, a potem wyemitowali je w częstotliwości wyższej niż 20 kHz, co jest granicą słyszalności dla ludzkiego ucha.

To, że ludzkie ucho nie potrafi usłyszeć dźwięków o bardzo wysokiej częstotliwości, nie oznacza jednak, że nie potrafią wyłapać ich mikrofony zainstalowane w naszych smartfonach. Za pomocą Dolphin Attack możemy bez wiedzy właściciela sprzętu wydawać komendy i wchodzić w interakcję z danym smartfonem. Udało się m.in. włączyć tryb samolotowy w smartfonie za pomocą Google Now oraz manipulować nawigacją za pomocą systemu zainstalowanego w samochodzie Audi.

Jak można zastosować powyższy atak w praktyce? Przy jego użyciu możemy na przykład nakazać, aby smartfon połączył się z zainfekowaną stroną internetową albo zadzwonił pod numer premium. Z mniej groźnych rzeczy, pokusić można się o psikus ze zmianą punktu docelowego w nawigacji czy też włączenia jakiejś niepożądanej przez właściciela smartfona funkcji.

Całość brzmi dosyć groźnie, ale tak naprawdę… nie ma czym się martwić. Po pierwsze, aby przeprowadzić Dolphin Attack trzeba dysponować odpowiednim sprzętem. Po drugie, zasięg takiego ataku i szanse jego powodzenia są raczej niskie – głośnik emitujący ultradźwięki musie znajdować się bardzo blisko mikrofonu smartfona. Ponadto otoczenie powinno być raczej ciche. W biurze więc, przy spełnieniu warunku odległości, szanse powodzenia ataku oscylują w granicach 80%, jednak na ulicy maleją do zaledwie 30%. Po trzecie, w większości przypadków jest tak, że musimy odblokować smartfona, aby w ogóle wydać mu polecenie za pomocą głosu. A oprócz tego – na ogół asystenci odpowiadają na zadane komendy, przez co właściciel może szybko zorientować się, że coś jest nie tak. Wszystkie te czynniki powodują, że przeprowadzenie podobnego ataku na dużą skalę jest raczej mało prawdopodobne.

Jak widać, nie ma się czym martwić, a wyniki badań chińskich naukowców traktować należy raczej jako ciekawostkę. Zaskakuje jednak fakt, że twórcy asystentów głosowych najzwyczajniej w świecie nie przewidzieli, że w ogóle istnieje możliwość manipulowania ich produktami w ten sposób.

Źródła: FastcoDesign via PhoneArena