Forskare har lyckats hacka Siri, Alexa och Google Home med hjälp av en laser

post-thumb

Forskare hackade siri, alexa och google home genom att lysa på dem med laser

Ett forskarlag från University of Michigan och Amherst College har upptäckt en potentiell svaghet i röststyrningssystemen Siri, Alexa och Google Home. Forskarna lyckades hacka dessa enheter genom att helt enkelt rikta en laserstråle mot dem.

Forskarna använde en effekt som kallas “röstassistent genom väggar”, vilket gör att röststyrningsanordningar kan styras genom glasfönster och till och med väggar. Under experimentet kunde forskarna hacka Siri, Alexa och Google Home och få full kontroll över dessa enheter.

Innehållsförteckning

Grundidén är att använda en laser för att interagera med enhetens inbyggda mikrofon. När laserstrålen träffar mikrofonen vibrerar den och skapar en ljudvåg som mikrofonen tolkar som ett röstkommando.

Denna hackningsteknik kan användas av angripare för att få kontroll över röststyrda enheter i hem och på kontor. Forskare har rapporterat denna sårbarhet till utvecklarna av Siri, Alexa och Google Home, och de har redan börjat åtgärda problemet. Detta påminner oss dock om vikten av att säkra personliga enheter och implementera ytterligare säkerhetsfunktioner.

Forskare har hackat Siri, Alexa och Google Home röstassistenter med en laserstråle

Ett team av forskare från University of Michigan och University of Exeter i Storbritannien har upptäckt sårbarheter i röstassistenterna Siri, Alexa och Google Home som gör det möjligt för angripare att fjärrstyra enheterna med hjälp av speciella laserstrålar.

Forskarna genomförde en serie experiment där de använde lasrar för att interagera med röstassistenternas mikrofoner. De fann att en ändring av intensiteten på det ljus som laserstrålen är riktad mot kan orsaka oväntade och oönskade reaktioner från enheterna.

Forskarna visade att en sådan sårbarhet kan hacka röstassistenter på upp till 110 meters avstånd. Det krävs varken medvetna åtgärder från användaren eller synliga förändringar i rummet. En angripare kan tränga in i en persons privata sfär och få tillgång till dennes personuppgifter.

Sårbarheten ligger i det faktum att röstassistentens mikrofoner reagerar på förändringar i ljusintensiteten, vilket gör det möjligt att bestämma avståndet till enheten och, genom att modulera laserstrålen, överföra kommandon för att styra röstassistenten.

Forskarna föreslog ett antal åtgärder för att skydda mot sådana attacker, bland annat att använda optiska filter, modifiera algoritmer för att upptäcka röstkommandon och utbilda användare så att de inser de potentiella riskerna.

Dessa resultat understryker vikten av säkerhet för röstassistenter och behovet av att kontinuerligt förbättra försvarsmekanismerna för att förhindra potentiella attacker och skydda användarnas integritet.

Ny förbättrad hackningsmetod

Forskare har rapporterat om utvecklingen av en ny och förbättrad metod för att hacka smarta assistenter som Siri, Alexa och Google Home. Metoden bygger på användning av laser och ger obemärkt tillgång till användarnas personliga information.

Tidigare har forskare redan visat att det går att hacka röstassistenter genom att använda skadlig kod eller spela upp högfrekventa ljudinspelningar. Den nya hackningsmetoden är dock en mer sofistikerad och smygande teknik som är svårare att upptäcka och förhindra.

Forskarna fann att om man belyser mikrofonen på smarta assistenter med en laser uppstår små vibrationer som kan registreras och analyseras med specialutrustning. På så sätt kan angriparna få information om konversationer och kommandon som överförs av smarta assistenter.

Grundprincipen för den nya hackningsmetoden är att en laserstråle riktas mot den yta som mikrofonen är fokuserad på. När laserstrålen träffar mikrofonen uppstår mikroskopiska vibrationer som orsakas av uppvärmning och expansion av luften. Dessa vibrationer kan detekteras och omvandlas till analoga signaler som innehåller den information som överförs av den smarta assistenten.

Forskarna varnar för att man måste vidta åtgärder för att skydda sig mot denna förbättrade hackningsmetod. De rekommenderar att man använder speciella skyddshöljen för mikrofonen som kan absorbera laserljus, samt att man implementerar algoritmer för att upptäcka och blockera sådan exponering.

Förutom tekniska åtgärder bör användarna också vara mer medvetna om säkerheten för sin personliga information och övervaka användarvillkoren för smarta assistenter. Detta inkluderar att begränsa insamlingen av ljuddata, använda komplexa lösenord och regelbundet uppdatera programvaran.

Forskare fortsätter att arbeta med att utveckla nya säkerhetstekniker och samarbetar också med tillverkare av smarta assistenter för att åtgärda identifierade sårbarheter.

Läs också: 7 bästa snabbladdande typ C-kabel för Galaxy S20 - Toppval 2021

Sårbarheter i säkerheten

Alla de tre mest populära röstassistenterna - Apples Siri, Amazons Alexa och Google Home från Google - kunde hackas av forskare med hjälp av laser, vilket väckte oro för säkerheten i dessa system.

Forskare från Centre for Electronics and Information Technology Security och University of Michigan fann att det är möjligt att använda ett enkelt och billigt hack via mobilappar för att rikta in sig på röstassistenter via en ultraviolett laser.

Läs också: 10 second life-liknande spel som du kan spela 2023

Angreppsmetoden var följande: forskarna använde en laser och riktade den mot röstassistentens mikrofon genom fönster eller dörrar. Lasern bearbetade ljudet från mikrofonen och genererade elektriska signaler som skickades till assistenten.

Med säkerhetsbrister i röstassistenter har det blivit tydligt att även den mest avancerade tekniken inte är immun mot ovanliga idéer från angripare. Även konsumentutrustning kan utsättas för attacker, och det finns snabba och effektiva sätt att få obehörig åtkomst till information.

Utvecklare bör därför ägna mer uppmärksamhet åt säkerhet och kontrollera säkerhetsnivån för sina produkter mot hackning. Även användare av röstassistenter kan vara försiktiga och vidta ytterligare säkerhetsåtgärder när de använder dessa system.

Trots att röstassistenter är praktiska bör de ha en hög säkerhetsnivå för att skydda användarnas personuppgifter från hackning och obehörig åtkomst.

Potentiella hot mot användare

Laserhackning av digitala assistenter som Siri, Alexa och Google Home utgör ett allvarligt hot mot användarna. Möjligheten att styra och komma åt enheter med hjälp av en laserstråle kan användas av angripare för en mängd olika försåtliga syften.

Här är några av de potentiella hot som användarna står inför:

  1. Få tillgång till privat information: Angripare kan använda laser för att hacka sig in i digitala assistenter och få tillgång till användarnas privata information som kontakter, scheman, finansiella data och mycket mer.
  2. Fysiskt säkerhetshot: Genom att använda laser kan angripare störa digitala assistenter och orsaka fysiska säkerhetsproblem. De kan t.ex. öppna dörrar, slå på eller av vissa enheter och orsaka strömavbrott.
  3. Manipulering av smarta hem-enheter: Digitala assistenter är ofta kopplade till smarta hem-enheter som säkerhetssystem, smarta lås, belysning osv. Genom att hacka en digital assistent kan en inkräktare få tillgång till och manipulera smarta hem-enheter, vilket kan leda till intrång i hemmet eller felaktig kontroll av systemet.

Mot bakgrund av dessa potentiella hot bör användarna vidta extra åtgärder för att skydda sin integritet och säkerhet. Det är viktigt att hålla sig uppdaterad med programvaruuppdateringar från tillverkare, ange lösenord för sina digitala assistenter, placera dem på säkra platser och vara vaksam på oväntade aktiveringar eller ovanligt beteende hos enheten.

Förslag för att förbättra säkerheten för röstassistenter

Efter att forskare lyckats hacka Siri, Alexa och Google Home röstassistenter med en laser blev det tydligt att det behövdes bättre dataskyddssystem. Här är några förslag som kan bidra till att förbättra säkerheten för röstassistenter:

  1. Förstärkt autentisering: När man arbetar med röstassistenter måste man införa starkare autentisering för att förhindra obehörig åtkomst till personuppgifter. Att använda biometri (fingeravtryck, ansiktsigenkänning) kan till exempel vara ett bättre sätt att identifiera användaren.
  2. Förbättrad fysisk säkerhet: För att förhindra att röstassistenter laserhackas måste den fysiska säkerheten hos enheterna stärkas. Till exempel kan ytterligare säkerhetslager som rörelsesensorer eller ljussensorer läggas till för att upptäcka om någon försöker använda laserenheten för att attackera.
  3. Programvaruuppdateringar: Tillverkare av röstassistenter bör regelbundet släppa programvaruuppdateringar för att åtgärda nya sårbarheter och förbättra säkerheten. Användare bör regelbundet söka efter uppdateringar och installera dem så snart som möjligt.
  4. Träning av maskininlärningsmodeller: Röstassistenter är baserade på maskininlärningsmodeller som kan tränas på olika typer av insignaler, inklusive laserpulser. Tillverkarna måste träna modellerna så att de blir motståndskraftiga mot sådana attacker och kan skilja riktiga röstkommandon från laserpulser.
  5. Förbättrade varningar för potentiella attacker: Röstassistenter bör vara utrustade med mekanismer som varnar användaren för potentiella attacker. Det kan handla om hörbara eller visuella varningar som varnar användaren om ett försök till hackning eller obehörig åtkomst till systemet.

Om dessa förslag genomförs kommer det att bidra till ett bättre skydd av röstassistenter och förbättra säkerheten för användardata.

VANLIGA FRÅGOR:

Vilka forskare hackade Siri, Alexa och Google Home?

Forskare vid University of Michigan i USA har lyckats hacka röstassistenterna Siri, Alexa och Google Home med hjälp av laser.

Hur hackade forskarna röstassistenterna?

Forskarna använde en laserstråle som riktades mot mikrofonerna i röstassistenterna. De kunde modulera infrarött ljus för att lura mikrofonerna att överföra kommandon till dem.

Vilka kommandon kunde överföras via de hackade röstassistenterna?

Olika kommandon som att öppna och stänga dörrar, bryta upp smarta lås, få information om pinkoder etc. kunde utföras via hackade röstassistenter.

Vilka enheter var sårbara för denna typ av hackning?

Enheter som var sårbara för denna typ av hackning var de med långdistansmikrofoner som var placerade nära fönster. Apple iPhone XR, Amazon Echo 3 och Google Pixel 2 var de mest sårbara.

Vad säger tillverkarna om denna typ av hackning?

Representanter från Google, Amazon och Apple sa att de noga studerar frågan och vidtar åtgärder för att skydda sina enheter från sådana attacker. De uppmanade också användarna att vara försiktiga och installera alla de senaste uppdateringarna för sina enheter.

Vilka enheter har hackats?

Röstassistenterna Siri, Alexa och Google Home hackades framgångsrikt av forskare.

Hur lyckades forskarna hacka röstassistenter?

Forskarna lyckades hacka röstassistenterna genom att använda en laser som passerade genom fönster och aktiverade enheterna.

Se även:

comments powered by Disqus

Du kanske också gillar