Naukowcom udało się zhakować Siri, Alexę i Google Home za pomocą lasera

post-thumb

Naukowcy zhakowali siri, alexę i google home świecąc na nie laserem

Zespół naukowców z University of Michigan i Amherst College odkrył potencjalną słabość systemów sterowania głosowego Siri, Alexa i Google Home. Naukowcy z powodzeniem zhakowali te urządzenia, po prostu kierując na nie wiązkę lasera.

Spis treści

Badacze wykorzystali efekt znany jako “asystent głosowy przez ściany”, który umożliwia sterowanie urządzeniami sterowanymi głosowo przez szklane okna, a nawet ściany. Podczas eksperymentu naukowcy byli w stanie zhakować Siri, Alexę i Google Home, uzyskując pełną kontrolę nad tymi urządzeniami.

Podstawowym pomysłem jest użycie lasera do interakcji z wbudowanym mikrofonem urządzenia. Kiedy wiązka lasera uderza w mikrofon, wibruje i tworzy falę dźwiękową, którą mikrofon interpretuje jako polecenie głosowe.

Ta technika hakerska może zostać wykorzystana przez atakujących do przejęcia kontroli nad urządzeniami sterowanymi głosowo w domach i biurach. Badacze zgłosili tę lukę twórcom Siri, Alexy i Google Home, którzy już zaczęli naprawiać problem. Przypomina nam to jednak, jak ważne jest zabezpieczenie urządzeń osobistych i wdrożenie dodatkowych funkcji bezpieczeństwa.

Naukowcy zhakowali asystentów głosowych Siri, Alexa i Google Home za pomocą wiązki laserowej

Zespół naukowców z University of Michigan i University of Exeter w Wielkiej Brytanii odkrył luki w zabezpieczeniach asystentów głosowych Siri, Alexa i Google Home, które umożliwiają atakującym zdalne sterowanie urządzeniami za pomocą specjalnych wiązek laserowych.

Naukowcy przeprowadzili serię eksperymentów, w których wykorzystali lasery do interakcji z mikrofonami asystentów głosowych. Odkryli, że zmiana intensywności światła, na które skierowana jest wiązka lasera, może wywołać nieoczekiwane i niepożądane reakcje urządzeń.

Naukowcy wykazali, że taka podatność może zhakować asystentów głosowych znajdujących się w odległości do 110 metrów. Nie jest wymagane ani celowe działanie użytkownika, ani widoczne zmiany w pomieszczeniu. Atakujący może przeniknąć do sfery prywatnej danej osoby i uzyskać dostęp do jej danych osobowych.

Luka polega na tym, że mikrofony asystentów głosowych reagują na zmiany natężenia światła, co umożliwia określenie odległości od urządzenia i, poprzez modulowanie wiązki laserowej, przesyłanie poleceń sterujących asystentem głosowym.

Naukowcy zaproponowali szereg środków mających na celu ochronę przed takimi atakami, w tym stosowanie filtrów optycznych, modyfikowanie algorytmów w celu wykrywania poleceń głosowych oraz edukowanie użytkowników w celu rozpoznania potencjalnego ryzyka.

Odkrycia te podkreślają znaczenie bezpieczeństwa asystentów głosowych i potrzebę ciągłego doskonalenia mechanizmów obronnych w celu zapobiegania potencjalnym atakom i ochrony prywatności użytkowników.

Nowa, ulepszona metoda hakowania

Naukowcy poinformowali o opracowaniu nowej i ulepszonej metody hakowania inteligentnych asystentów, takich jak Siri, Alexa i Google Home. Metoda ta opiera się na wykorzystaniu lasera i umożliwia niezauważalny dostęp do danych osobowych użytkowników.

Wcześniej naukowcy wykazali już zdolność do hakowania asystentów głosowych za pomocą złośliwego oprogramowania lub odtwarzania nagrań audio o wysokiej częstotliwości. Nowa metoda hakowania jest jednak bardziej wyrafinowaną i ukrytą techniką, którą trudniej jest wykryć i jej zapobiec.

Naukowcy odkryli, że podświetlanie mikrofonu inteligentnych asystentów laserem wytwarza niewielkie wibracje, które można rejestrować i analizować za pomocą specjalistycznego sprzętu. Pozwala to atakującym na uzyskanie informacji o rozmowach i poleceniach przesyłanych przez inteligentnych asystentów.

Podstawową zasadą nowej metody hakerskiej jest kierunkowe oddziaływanie wiązki laserowej na powierzchnię, na której skupiony jest mikrofon. Gdy wiązka lasera uderza w mikrofon, pojawiają się mikroskopijne wibracje spowodowane ogrzewaniem i rozszerzaniem się powietrza. Wibracje te można wykryć i przekształcić w sygnały analogowe zawierające informacje przesyłane przez inteligentnego asystenta.

Naukowcy ostrzegają, że należy podjąć środki w celu ochrony przed tą ulepszoną metodą hakowania. Zalecają stosowanie specjalnych osłon ochronnych dla mikrofonu zdolnych do pochłaniania światła laserowego, a także wdrażanie algorytmów do wykrywania i blokowania takiej ekspozycji.

Oprócz środków technicznych, użytkownicy powinni również być bardziej świadomi bezpieczeństwa swoich danych osobowych i monitorować warunki korzystania z inteligentnych asystentów. Obejmuje to ograniczenie gromadzenia danych audio, używanie złożonych haseł i regularne aktualizowanie oprogramowania.

Czytaj także: Co to jest UPI Lite i jak włączyć go na dowolnym urządzeniu (2022)

Naukowcy nadal pracują nad rozwojem nowych technik bezpieczeństwa, a także współpracują z producentami inteligentnych asystentów w celu wyeliminowania zidentyfikowanych luk w zabezpieczeniach.

Luki w zabezpieczeniach

Wszyscy trzej najpopularniejsi asystenci głosowi - Siri firmy Apple, Alexa firmy Amazon i Google Home firmy Google - mogli zostać zhakowani przez naukowców za pomocą laserów, co budzi obawy o bezpieczeństwo tych systemów.

Naukowcy z Centrum Bezpieczeństwa Elektroniki i Technologii Informacyjnych oraz Uniwersytetu Michigan odkryli, że możliwe jest wykorzystanie prostego i niedrogiego hakowania za pośrednictwem aplikacji mobilnych do atakowania asystentów głosowych za pomocą lasera ultrafioletowego.

Metodologia ataku była następująca: badacze użyli lasera i skierowali go na mikrofon asystenta głosowego przez okna lub drzwi. Laser przetwarzał dźwięk z mikrofonu i generował sygnały elektryczne, które były wysyłane do asystenta.

Czytaj także: Jak naprawić pęknięty ekran w telefonie Google Pixel: Przewodnik krok po kroku

Dzięki lukom w zabezpieczeniach asystentów głosowych stało się jasne, że nawet najbardziej zaawansowane technologie nie są odporne na nietypowe pomysły atakujących. Nawet urządzenia konsumenckie mogą być podatne na ataki, szybkie i skuteczne sposoby na uzyskanie nieautoryzowanego dostępu do informacji.

Dlatego deweloperzy powinni zwracać większą uwagę na bezpieczeństwo i sprawdzać poziom zabezpieczeń swoich produktów przed włamaniami. Również użytkownicy asystentów głosowych mogą zachować ostrożność i zapewnić dodatkowe środki bezpieczeństwa podczas korzystania z tych systemów.

Pomimo swojej wygody, asystenci głosowi powinni mieć zapewniony wysoki poziom bezpieczeństwa, aby chronić dane osobowe użytkowników przed włamaniami i nieautoryzowanym dostępem.

Potencjalne zagrożenia dla użytkowników

Laserowe hakowanie cyfrowych asystentów, takich jak Siri, Alexa i Google Home, stanowi poważne zagrożenie dla użytkowników. Możliwość kontrolowania i uzyskiwania dostępu do urządzeń za pomocą wiązki laserowej może być wykorzystywana przez atakujących do różnych podstępnych celów.

Oto niektóre z potencjalnych zagrożeń dla użytkowników:

  1. Pozyskiwanie prywatnych informacji: Atakujący mogą wykorzystywać lasery do włamywania się do cyfrowych asystentów i uzyskiwania dostępu do prywatnych informacji użytkowników, takich jak kontakty, harmonogramy, dane finansowe i inne.
  2. Zagrożenie bezpieczeństwa fizycznego: Używając laserów, atakujący mogą zakłócić działanie asystentów cyfrowych i spowodować problemy z bezpieczeństwem fizycznym. Mogą na przykład otwierać drzwi, włączać lub wyłączać określone urządzenia i powodować awaryjne przerwy w dostawie prądu.
  3. Manipulacja inteligentnymi urządzeniami domowymi: Cyfrowi asystenci są często połączeni z inteligentnymi urządzeniami domowymi, takimi jak systemy bezpieczeństwa, inteligentne zamki, oświetlenie itp. Zhakowanie cyfrowego asystenta umożliwia intruzowi dostęp do inteligentnych urządzeń domowych i manipulowanie nimi, co może prowadzić do włamania do domu lub niewłaściwej kontroli systemu.

W świetle tych potencjalnych zagrożeń użytkownicy powinni podjąć dodatkowe kroki w celu ochrony swojej prywatności i bezpieczeństwa. Ważne jest, aby być na bieżąco z aktualizacjami oprogramowania od producentów, ustawiać hasła dla swoich cyfrowych asystentów, umieszczać je w bezpiecznych lokalizacjach i być czujnym na nieoczekiwane aktywacje lub nietypowe zachowanie urządzenia.

Sugestie dotyczące poprawy bezpieczeństwa asystentów głosowych

Po tym, jak naukowcy byli w stanie zhakować asystentów głosowych Siri, Alexa i Google Home za pomocą lasera, stało się jasne, że potrzebne są lepsze systemy ochrony danych. Oto kilka sugestii, które mogą pomóc poprawić bezpieczeństwo asystentów głosowych:

  1. Wzmocnienie uwierzytelniania: Podczas pracy z asystentami głosowymi należy wdrożyć silniejsze uwierzytelnianie, aby zapobiec nieautoryzowanemu dostępowi do danych osobowych. Na przykład wykorzystanie danych biometrycznych (odciski palców, rozpoznawanie twarzy) może być silniejszym sposobem identyfikacji użytkownika.
  2. Poprawa bezpieczeństwa fizycznego: Aby zapobiec włamaniom laserowym do asystentów głosowych, należy wzmocnić fizyczne bezpieczeństwo urządzeń. Na przykład można dodać dodatkowe warstwy zabezpieczeń, takie jak czujniki ruchu lub czujniki światła, aby wykryć, czy ktoś próbuje użyć urządzenia laserowego do ataku.
  3. Aktualizacje oprogramowania: Producenci asystentów głosowych powinni regularnie wydawać aktualizacje oprogramowania w celu naprawienia pojawiających się luk i poprawy bezpieczeństwa. Użytkownicy powinni regularnie sprawdzać dostępność aktualizacji i instalować je tak szybko, jak to możliwe.
  4. Szkolenie modeli uczenia maszynowego: Asystenci głosowi opierają się na modelach uczenia maszynowego, które mogą być szkolone na różnych rodzajach sygnałów wejściowych, w tym impulsach laserowych. Producenci muszą szkolić modele, aby stały się odporne na takie ataki i mogły odróżniać prawdziwe polecenia głosowe od impulsów laserowych.
  5. Ulepszone ostrzeżenia o potencjalnych atakach: Asystenci głosowi powinni być wyposażeni w mechanizmy ostrzegające użytkownika o potencjalnych atakach. Może to obejmować alerty dźwiękowe lub wizualne, które ostrzegałyby użytkownika o próbie włamania lub nieautoryzowanym dostępie do systemu.

Wdrożenie tych propozycji pomoże lepiej chronić asystentów głosowych i poprawić bezpieczeństwo danych użytkowników.

FAQ:

Którzy naukowcy zhakowali Siri, Alexę i Google Home?

Naukowcy z Uniwersytetu Michigan w USA z powodzeniem zhakowali asystentów głosowych Siri, Alexa i Google Home za pomocą laserów.

Jak naukowcy zhakowali asystentów głosowych?

Naukowcy użyli wiązki laserowej, która została skierowana na mikrofony asystentów głosowych. Byli w stanie modulować światło podczerwone, aby nakłonić mikrofony do przesyłania do nich poleceń.

Jakie polecenia mogły być przesyłane przez zhakowanych asystentów głosowych?

Za pośrednictwem zhakowanych asystentów głosowych można było wykonywać różne polecenia, takie jak otwieranie i zamykanie drzwi, łamanie inteligentnych zamków, uzyskiwanie informacji o kodzie PIN itp.

Jakie urządzenia były podatne na tego typu włamania?

Urządzenia, które były podatne na tego typu włamania, to te z mikrofonami dalekiego zasięgu, które znajdowały się w pobliżu okien. Najbardziej narażone były Apple iPhone XR, Amazon Echo 3 i Google Pixel 2.

Co producenci mówią o tego typu włamaniach?

Przedstawiciele Google, Amazon i Apple powiedzieli, że uważnie badają tę kwestię i podejmują kroki w celu ochrony swoich urządzeń przed takimi atakami. Wezwali również użytkowników do zachowania ostrożności i zainstalowania wszystkich najnowszych aktualizacji dla swoich urządzeń.

Które urządzenia zostały zhakowane?

Asystenci głosowi Siri, Alexa i Google Home zostali pomyślnie zhakowani przez naukowców.

Jak naukowcom udało się zhakować asystentów głosowych?

Naukowcy byli w stanie zhakować asystentów głosowych za pomocą lasera, który przechodził przez okna i aktywował urządzenia.

Zobacz także:

comments powered by Disqus

Możesz także polubić