Wetenschappers hebben met succes Siri, Alexa en Google Home gehackt met behulp van een laser

post-thumb

Onderzoekers hebben siri, alexa en google home gehackt door er met een laser op te schijnen

Een team onderzoekers van de Universiteit van Michigan en Amherst College heeft een potentiële zwakte ontdekt in de spraakbesturingssystemen Siri, Alexa en Google Home. De wetenschappers zijn erin geslaagd om deze apparaten te hacken door er simpelweg een laserstraal op te richten.

Inhoudsopgave

De onderzoekers gebruikten een effect dat bekend staat als “spraakassistent door muren”, waardoor apparaten voor spraakbesturing door glazen ramen en zelfs muren heen kunnen worden bediend. Tijdens het experiment waren de wetenschappers in staat om Siri, Alexa en Google Home te hacken en volledige controle over deze apparaten te krijgen.

Het basisidee is om een laser te gebruiken voor interactie met de ingebouwde microfoon van het apparaat. Wanneer de laserstraal de microfoon raakt, trilt deze en creëert een geluidsgolf die de microfoon interpreteert als een stemcommando.

Deze hacktechniek kan door aanvallers worden gebruikt om controle te krijgen over spraakgestuurde apparaten in huizen en kantoren. Onderzoekers hebben deze kwetsbaarheid gemeld aan de ontwikkelaars van Siri, Alexa en Google Home en zij zijn al begonnen met het oplossen van het probleem. Dit herinnert ons echter aan het belang van het beveiligen van persoonlijke apparaten en het implementeren van extra beveiligingsfuncties.

Wetenschappers hebben de spraakassistenten Siri, Alexa en Google Home gehackt met een laserstraal

Een team van onderzoekers van de Universiteit van Michigan en de Universiteit van Exeter in het Verenigd Koninkrijk heeft kwetsbaarheden ontdekt in de spraakassistenten Siri, Alexa en Google Home waardoor aanvallers de apparaten op afstand kunnen bedienen met behulp van speciale laserstralen.

De wetenschappers voerden een reeks experimenten uit waarbij ze lasers gebruikten om te communiceren met de microfoons van de stemassistenten. Ze ontdekten dat het veranderen van de intensiteit van het licht waarop de laserstraal is gericht onverwachte en ongewenste reacties van de apparaten kan veroorzaken.

De onderzoekers toonden aan dat een dergelijke kwetsbaarheid spraakassistenten tot op 110 meter afstand kan hacken. Er zijn geen opzettelijke gebruikersacties of zichtbare veranderingen in de kamer nodig. Een aanvaller kan binnendringen in iemands privésfeer en toegang krijgen tot zijn persoonlijke gegevens.

De kwetsbaarheid ligt in het feit dat microfoons van spraakassistenten reageren op veranderingen in lichtintensiteit, waardoor het mogelijk is om de afstand tot het apparaat te bepalen en, door de laserstraal te moduleren, commando’s te verzenden om de spraakassistent te besturen.

De onderzoekers stelden een aantal maatregelen voor om zich tegen dergelijke aanvallen te beschermen, waaronder het gebruik van optische filters, het aanpassen van algoritmes om spraakopdrachten te detecteren en het opleiden van gebruikers om de potentiële risico’s te herkennen.

Deze bevindingen benadrukken het belang van de beveiliging van spraakassistenten en de noodzaak om verdedigingsmechanismen voortdurend te verbeteren om potentiële aanvallen te voorkomen en de privacy van gebruikers te beschermen.

Nieuwe verbeterde hackmethode

Onderzoekers hebben melding gemaakt van de ontwikkeling van een nieuwe en verbeterde methode voor het hacken van slimme assistenten zoals Siri, Alexa en Google Home. Deze methode is gebaseerd op het gebruik van een laser en maakt onmerkbare toegang tot persoonlijke informatie van gebruikers mogelijk.

Eerder hebben wetenschappers al aangetoond dat het mogelijk is om spraakassistenten te hacken door malware te gebruiken of hoogfrequente geluidsopnames af te spelen. De nieuwe hackmethode is echter een meer geavanceerde en heimelijke techniek die moeilijker te detecteren en te voorkomen is.

De onderzoekers ontdekten dat het verlichten van de microfoon van slimme assistenten met een laser lichte trillingen produceert die kunnen worden opgenomen en geanalyseerd met gespecialiseerde apparatuur. Hierdoor kunnen aanvallers informatie verkrijgen over gesprekken en commando’s die door slimme assistenten worden verzonden.

Het basisprincipe van de nieuwe hackmethode is de gerichte impact van een laserstraal op het oppervlak waarop de microfoon is gericht. Wanneer de laserstraal de microfoon raakt, treden er microscopische trillingen op die worden veroorzaakt door verwarming en uitzetting van de lucht. Deze trillingen kunnen worden gedetecteerd en omgezet in analoge signalen die de informatie bevatten die door de slimme assistent wordt verzonden.

Wetenschappers waarschuwen dat er maatregelen moeten worden genomen om zich te beschermen tegen deze verbeterde hackmethode. Ze raden aan om speciale beschermkappen voor de microfoon te gebruiken die laserlicht kunnen absorberen, en om algoritmes te implementeren die een dergelijke blootstelling detecteren en blokkeren.

Lees ook: Hoe problemen oplossen en oplossen 'Mobiel netwerk niet beschikbaar' fout op Galaxy S8

Naast technische maatregelen moeten gebruikers ook bewuster omgaan met de beveiliging van hun persoonlijke gegevens en de gebruiksvoorwaarden van slimme assistenten in de gaten houden. Dit omvat het beperken van het verzamelen van audiogegevens, het gebruik van complexe wachtwoorden en het regelmatig updaten van software.

Onderzoekers blijven werken aan de ontwikkeling van nieuwe beveiligingsmethoden en werken ook samen met fabrikanten van slimme assistenten om vastgestelde kwetsbaarheden aan te pakken.

Kwetsbaarheden in de beveiliging

Alle drie de populairste spraakassistenten - Siri van Apple, Alexa van Amazon en Google Home van Google - konden door wetenschappers worden gehackt met behulp van lasers, waardoor bezorgdheid ontstond over de veiligheid van deze systemen.

Onderzoekers van het Centre for Electronics and Information Technology Security en de Universiteit van Michigan ontdekten dat het mogelijk is om met een eenvoudige en goedkope hack via mobiele apps spraakassistenten aan te vallen met een ultraviolette laser.

De aanvalsmethode was als volgt: de onderzoekers gebruikten een laser en richtten deze via ramen of deuren op de microfoon van de stemassistent. De laser bewerkte de audiomicrofoon en genereerde elektrische signalen die naar de assistent werden gestuurd.

Met de kwetsbaarheden in de beveiliging van spraakassistenten is het duidelijk geworden dat zelfs de meest geavanceerde technologieën niet immuun zijn voor ongewone ideeën van aanvallers. Zelfs apparaten voor consumenten kunnen gevoelig zijn voor aanvallen, snelle en effectieve manieren om ongeautoriseerde toegang tot informatie te krijgen.

Lees ook: Een back-up maken van het Windows-register en dit herstellen: gedetailleerde handleiding

Ontwikkelaars moeten dus meer aandacht besteden aan beveiliging en het beveiligingsniveau van hun producten tegen hacken controleren. Ook gebruikers van spraakassistenten kunnen voorzichtig zijn en zorgen voor extra veiligheidsmaatregelen bij het gebruik van deze systemen.

Ondanks hun gebruiksgemak moeten spraakassistenten een hoog beveiligingsniveau hebben om de persoonlijke gegevens van gebruikers te beschermen tegen hacken en ongeoorloofde toegang.

Potentiële bedreigingen voor gebruikers

Het hacken van digitale assistenten zoals Siri, Alexa en Google Home vormt een ernstige bedreiging voor gebruikers. De mogelijkheid om apparaten met behulp van een laserstraal te bedienen en er toegang toe te krijgen, kan door aanvallers voor allerlei verraderlijke doeleinden worden gebruikt.

Hier zijn enkele van de potentiële bedreigingen waarmee gebruikers te maken krijgen:

  1. Privégegevens verkrijgen: Aanvallers kunnen lasers gebruiken om digitale assistenten te hacken en toegang te krijgen tot privégegevens van gebruikers, zoals contacten, agenda’s, financiële gegevens en meer.
  2. Fysieke beveiligingsbedreiging: Door lasers te gebruiken, kunnen aanvallers digitale assistenten verstoren en fysieke beveiligingsproblemen veroorzaken. Ze kunnen bijvoorbeeld deuren openen, bepaalde apparaten in- of uitschakelen en noodstroomstoringen veroorzaken.
  3. Manipulatie van smart home apparaten: Digitale assistenten zijn vaak gekoppeld aan smart home apparaten zoals beveiligingssystemen, slimme sloten, verlichting, enz. Door een digitale assistent te hacken, kan een indringer toegang krijgen tot smart home-apparaten en deze manipuleren, wat kan leiden tot een inbraak in huis of ongepaste controle van het systeem.

In het licht van deze potentiële bedreigingen moeten gebruikers extra maatregelen nemen om hun privacy en veiligheid te beschermen. Het is belangrijk om op de hoogte te blijven van software-updates van fabrikanten, wachtwoorden in te stellen voor hun digitale assistenten, ze op veilige locaties te plaatsen en waakzaam te zijn voor onverwachte activeringen of ongewoon gedrag van apparaten.

Suggesties om de beveiliging van spraakassistenten te verbeteren

Nadat wetenschappers in staat waren om spraakassistenten Siri, Alexa en Google Home te hacken met een laser, werd het duidelijk dat er betere systemen nodig waren om gegevens te beschermen. Hier zijn een paar suggesties die kunnen helpen om de beveiliging van spraakassistenten te verbeteren:

  1. Versterking van de authenticatie: Bij het werken met spraakassistenten moet sterkere authenticatie worden geïmplementeerd om ongeautoriseerde toegang tot persoonlijke gegevens te voorkomen. Het gebruik van biometrie (vingerafdrukken, gezichtsherkenning) kan bijvoorbeeld een sterkere manier zijn om de gebruiker te identificeren.
  2. De fysieke beveiliging verbeteren: Om te voorkomen dat stemassistenten worden gelaserd, moet de fysieke beveiliging van de apparaten worden versterkt. Er kunnen bijvoorbeeld extra beveiligingslagen zoals bewegings- of lichtsensoren worden toegevoegd om te detecteren of iemand het laserapparaat probeert te gebruiken om aan te vallen.
  3. Software-updates: Fabrikanten van spraakassistenten moeten regelmatig software-updates uitbrengen om nieuwe kwetsbaarheden te verhelpen en de beveiliging te verbeteren. Gebruikers moeten regelmatig controleren of er updates zijn en deze zo snel mogelijk installeren.
  4. Machine-learning modeltraining: Spraakassistenten zijn gebaseerd op machine-learningmodellen die kunnen worden getraind op verschillende soorten invoersignalen, waaronder laserpulsen. Fabrikanten moeten de modellen trainen zodat ze bestand worden tegen dergelijke aanvallen en echte stemcommando’s kunnen onderscheiden van laserpulsen.
  5. **Spraakassistenten moeten worden uitgerust met mechanismen om de gebruiker te waarschuwen voor mogelijke aanvallen. Hierbij kan worden gedacht aan akoestische of visuele waarschuwingen die de gebruiker waarschuwen voor een hackpoging of ongeautoriseerde toegang tot het systeem.

De uitvoering van deze voorstellen zal bijdragen tot een betere bescherming van spraakassistenten en de beveiliging van gebruikersgegevens verbeteren.

FAQ:

Welke wetenschappers hebben Siri, Alexa en Google Home gehackt?

Wetenschappers van de Universiteit van Michigan in de VS hebben met succes de spraakassistenten Siri, Alexa en Google Home gehackt met behulp van lasers.

Hoe hebben de wetenschappers de spraakassistenten gehackt?

De wetenschappers gebruikten een laserstraal die gericht was op de microfoons van de spraakassistenten. Ze waren in staat om infrarood licht te moduleren en zo de microfoons te misleiden om commando’s naar hen door te sturen.

Welke commando’s konden worden verzonden via de gehackte spraakassistenten?

Verschillende commando’s zoals deuren openen en sluiten, slimme sloten openbreken, pincode-informatie opvragen, enz. konden worden uitgevoerd via gehackte stemassistenten.

Welke apparaten waren kwetsbaar voor dit soort hacking?

Apparaten die kwetsbaar waren voor dit type hack waren apparaten met microfoons met groot bereik die zich dicht bij ramen bevonden. De Apple iPhone XR, Amazon Echo 3 en Google Pixel 2 waren het meest kwetsbaar.

Wat zeggen fabrikanten over dit type hack?

Vertegenwoordigers van Google, Amazon en Apple zeiden dat ze de kwestie nauwlettend bestuderen en stappen ondernemen om hun apparaten te beschermen tegen dergelijke aanvallen. Ze spoorden gebruikers ook aan om voorzichtig te zijn en alle nieuwste updates voor hun apparaten te installeren.

Welke apparaten zijn gehackt?

De spraakassistenten Siri, Alexa en Google Home zijn met succes gehackt door wetenschappers.

Hoe hebben wetenschappers spraakassistenten kunnen hacken?

Wetenschappers konden spraakassistenten hacken door een laser te gebruiken die door ramen ging en de apparaten activeerde.

Zie ook:

comments powered by Disqus

Dit vind je misschien ook leuk