Forskere har lykkes med å hacke Siri, Alexa og Google Home ved hjelp av laser.

post-thumb

Forskere hacket siri, alexa og google home ved å lyse med laser på dem

Et forskerteam fra University of Michigan og Amherst College har oppdaget en potensiell svakhet i stemmestyringssystemene Siri, Alexa og Google Home. Forskerne klarte å hacke disse enhetene ved ganske enkelt å rette en laserstråle mot dem.

Innholdsfortegnelse

Forskerne brukte en effekt som kalles “voice assistant through walls”, som gjør det mulig å styre stemmestyringsenheter gjennom glassvinduer og til og med vegger. I løpet av eksperimentet klarte forskerne å hacke Siri, Alexa og Google Home og fikk full kontroll over disse enhetene.

Den grunnleggende ideen er å bruke en laser til å samhandle med enhetens innebygde mikrofon. Når laserstrålen treffer mikrofonen, vibrerer den og skaper en lydbølge som mikrofonen tolker som en talekommando.

Denne hackingteknikken kan brukes av angripere til å ta kontroll over stemmestyrte enheter i hjemmet og på kontoret. Forskere har rapportert denne sårbarheten til utviklerne av Siri, Alexa og Google Home, og de har allerede begynt å fikse problemet. Dette minner oss imidlertid om hvor viktig det er å sikre personlige enheter og implementere ekstra sikkerhetsfunksjoner.

Forskere har hacket stemmeassistentene Siri, Alexa og Google Home med en laserstråle.

Et forskerteam fra University of Michigan og University of Exeter i Storbritannia har oppdaget sårbarheter i stemmeassistentene Siri, Alexa og Google Home som gjør det mulig for angripere å fjernstyre enhetene ved hjelp av spesielle laserstråler.

Forskerne gjennomførte en rekke eksperimenter der de brukte laserstråler til å samhandle med mikrofonene til stemmeassistentene. De fant ut at endring av intensiteten på lyset som laserstrålen rettes mot, kan forårsake uventede og uønskede reaksjoner fra enhetene.

Forskerne viste at en slik sårbarhet kan hacke taleassistenter på opptil 110 meters avstand. Det kreves verken bevisst handling fra brukeren eller synlige endringer i rommet. En angriper kan trenge inn i en persons private sfære og få tilgang til personopplysninger.

Sårbarheten ligger i at stemmeassistentens mikrofoner reagerer på endringer i lysintensiteten, noe som gjør det mulig å bestemme avstanden til enheten og ved å modulere laserstrålen overføre kommandoer for å styre stemmeassistenten.

Forskerne foreslo en rekke tiltak for å beskytte seg mot slike angrep, blant annet bruk av optiske filtre, modifisering av algoritmer for å oppdage talekommandoer og opplæring av brukerne slik at de blir klar over den potensielle risikoen.

Disse funnene understreker hvor viktig det er med sikkerhet i taleassistenter og behovet for kontinuerlig å forbedre forsvarsmekanismene for å forhindre potensielle angrep og beskytte brukernes personvern.

Ny forbedret metode for hacking

Forskere har rapportert om utviklingen av en ny og forbedret metode for å hacke smartassistenter som Siri, Alexa og Google Home. Metoden er basert på bruk av laser og gir usynlig tilgang til brukernes personlige opplysninger.

Tidligere har forskere allerede demonstrert muligheten til å hacke stemmeassistenter ved hjelp av skadelig programvare eller avspilling av høyfrekvente lydopptak. Den nye hackingmetoden er imidlertid en mer sofistikert og snikende teknikk som er vanskeligere å oppdage og forhindre.

Forskerne fant ut at det å belyse mikrofonen på smartassistenter med en laser gir små vibrasjoner som kan registreres og analyseres ved hjelp av spesialutstyr. På denne måten kan angriperne skaffe seg informasjon om samtaler og kommandoer som smartassistenter sender.

Det grunnleggende prinsippet i den nye hackingmetoden er at en laserstråle rettes mot overflaten som mikrofonen er rettet mot. Når laserstrålen treffer mikrofonen, oppstår det mikroskopiske vibrasjoner forårsaket av oppvarming og utvidelse av luften. Disse vibrasjonene kan detekteres og konverteres til analoge signaler som inneholder informasjonen som sendes av smartassistenten.

Forskerne advarer om at det må iverksettes tiltak for å beskytte seg mot denne forbedrede hackingmetoden. De anbefaler å bruke spesielle beskyttelsesdeksler for mikrofonen som kan absorbere laserlys, samt å implementere algoritmer for å oppdage og blokkere slik eksponering.

I tillegg til tekniske tiltak bør brukerne også være mer bevisste på sikkerheten til personopplysningene sine og følge med på vilkårene for bruk av smartassistenter. Dette innebærer blant annet å begrense innsamlingen av lyddata, bruke komplekse passord og regelmessig oppdatere programvaren.

Forskere jobber kontinuerlig med å utvikle nye sikkerhetsteknikker og samarbeider også med produsenter av smartassistenter for å utbedre identifiserte sårbarheter.

Les også: Topp 8 Straight Talk-telefoner i 2023: Finn din perfekte enhet i dag!

Sikkerhetssårbarheter

Alle de tre mest populære stemmeassistentene - Apples Siri, Amazons Alexa og Google Home fra Google - har blitt hacket av forskere ved hjelp av laser, noe som har skapt bekymring for sikkerheten i disse systemene.

Forskere fra Centre for Electronics and Information Technology Security og University of Michigan fant ut at det er mulig å bruke et enkelt og billig hack via mobilapper til å angripe stemmeassistenter med ultrafiolett laser.

Les også: Enkle trinn for å løse problemet med at PS4 Wifi ikke fungerer og fikse tilkoblingsproblemer

Angrepsmetoden var som følger: Forskerne brukte en laser og rettet den mot stemmeassistentens mikrofon gjennom vinduer eller dører. Laseren behandlet lydmikrofonen og genererte elektriske signaler som ble sendt til assistenten.

Med sikkerhetshullene i stemmeassistenter har det blitt tydelig at selv de mest avanserte teknologiene ikke er immune mot uvanlige ideer fra angripere. Selv forbrukerutstyr kan være utsatt for angrep, og det er raske og effektive måter å skaffe seg uautorisert tilgang til informasjon på.

Derfor bør utviklere være mer oppmerksomme på sikkerhet og sjekke sikkerhetsnivået i produktene sine mot hacking. Også brukere av stemmeassistenter kan være forsiktige og sørge for ekstra sikkerhetstiltak når de bruker disse systemene.

Selv om taleassistenter er praktiske, bør de ha et høyt sikkerhetsnivå for å beskytte brukernes personopplysninger mot hacking og uautorisert tilgang.

Potensielle trusler mot brukerne

Laserhacking av digitale assistenter som Siri, Alexa og Google Home utgjør en alvorlig trussel mot brukerne. Muligheten til å kontrollere og få tilgang til enheter ved hjelp av en laserstråle kan brukes av angripere til en rekke lumske formål.

Her er noen av de potensielle truslene brukerne står overfor:

  1. **Få tak i privat informasjon: Angripere kan bruke laserstråler til å hacke seg inn i digitale assistenter og få tilgang til brukernes private informasjon som kontakter, timeplaner, økonomiske data og mer.
  2. Fysisk sikkerhetstrussel: Ved å bruke laser kan angripere forstyrre digitale assistenter og forårsake fysiske sikkerhetsproblemer. De kan for eksempel åpne dører, slå visse enheter av eller på og forårsake strømbrudd.
  3. Manipulering av smarthusenheter: Digitale assistenter er ofte koblet til smarthusenheter som sikkerhetssystemer, smartlåser, belysning osv. Ved å hacke en digital assistent kan en inntrenger få tilgang til og manipulere smartenheter i hjemmet, noe som kan føre til innbrudd eller utilbørlig kontroll over systemet.

I lys av disse potensielle truslene bør brukerne ta ekstra forholdsregler for å beskytte personvernet og sikkerheten. Det er viktig å holde seg oppdatert med programvareoppdateringer fra produsentene, sette passord for sine digitale assistenter, plassere dem på sikre steder og være på vakt for uventede aktiveringer eller uvanlig oppførsel.

Forslag til hvordan du kan forbedre sikkerheten til stemmeassistenter

Etter at forskere klarte å hacke stemmeassistentene Siri, Alexa og Google Home med laser, ble det klart at det var behov for bedre databeskyttelsessystemer. Her er noen forslag som kan bidra til å forbedre sikkerheten til stemmeassistenter:

  1. Styrke autentiseringen: Når man arbeider med stemmeassistenter, må man implementere sterkere autentisering for å hindre uautorisert tilgang til personopplysninger. Bruk av biometri (fingeravtrykk, ansiktsgjenkjenning) kan for eksempel være en bedre måte å identifisere brukeren på.
  2. Forbedre den fysiske sikkerheten: For å forhindre at stemmeassistenter blir laserhacket, må den fysiske sikkerheten til enhetene styrkes. Man kan for eksempel legge til flere sikkerhetslag, som bevegelsessensorer eller lyssensorer, for å oppdage om noen prøver å bruke laserenheten til å angripe.
  3. Programvareoppdateringer: Produsenter av stemmeassistenter bør jevnlig lansere programvareoppdateringer for å fikse nye sårbarheter og forbedre sikkerheten. Brukerne bør jevnlig se etter oppdateringer og installere dem så snart som mulig.
  4. Trening av maskinlæringsmodeller: Stemmeassistenter er basert på maskinlæringsmodeller som kan trenes opp på ulike typer inngangssignaler, inkludert laserpulser. Produsentene må trene opp modellene slik at de blir motstandsdyktige mot slike angrep og kan skille ekte talekommandoer fra laserpulser.
  5. Forbedret varsling av potensielle angrep: Stemmeassistenter bør utstyres med mekanismer som varsler brukeren om potensielle angrep. Dette kan omfatte hørbare eller visuelle varsler som advarer brukeren om forsøk på hacking eller uautorisert tilgang til systemet.

Implementering av disse forslagene vil bidra til bedre beskyttelse av taleassistenter og forbedre sikkerheten for brukerdata.

OFTE STILTE SPØRSMÅL:

Hvilke forskere hacket Siri, Alexa og Google Home?

Forskere ved University of Michigan i USA har hacket stemmeassistentene Siri, Alexa og Google Home ved hjelp av laser.

Hvordan hacket forskerne stemmeassistentene?

Forskerne brukte en laserstråle som ble rettet mot mikrofonene på stemmeassistentene. De klarte å modulere infrarødt lys for å lure mikrofonene til å sende kommandoer til dem.

Hvilke kommandoer kunne overføres via de hackede stemmeassistentene?

Ulike kommandoer som å åpne og lukke dører, bryte opp smartlåser, innhente PIN-kodeinformasjon osv. kunne utføres via hackede stemmeassistenter.

Hvilke enheter var sårbare for denne typen hacking?

Enheter som var sårbare for denne typen hacking, var de som hadde mikrofoner med lang rekkevidde og som var plassert i nærheten av vinduer. Apple iPhone XR, Amazon Echo 3 og Google Pixel 2 var de mest sårbare.

Hva sier produsentene om denne typen hacking?

Representanter fra Google, Amazon og Apple sa at de studerer problemet nøye og iverksetter tiltak for å beskytte enhetene sine mot slike angrep. De oppfordret også brukerne til å være forsiktige og installere alle de nyeste oppdateringene for enhetene sine.

Hvilke enheter har blitt hacket?

Siri, Alexa og Google Home stemmeassistenter ble hacket av forskere.

Hvordan klarte forskerne å hacke stemmeassistenter?

Forskere klarte å hacke stemmeassistenter ved hjelp av en laser som gikk gjennom vinduer og aktiverte enhetene.

Se også:

comments powered by Disqus

Du vil kanskje også like