Det er lykkedes forskere at hacke Siri, Alexa og Google Home ved hjælp af en laser

post-thumb

Forskere hackede siri, alexa og google home ved at lyse på dem med en laser

Et hold forskere fra University of Michigan og Amherst College har opdaget en potentiel svaghed i stemmestyringssystemerne Siri, Alexa og Google Home. Det lykkedes forskerne at hacke disse enheder ved simpelthen at rette en laserstråle mod dem.

Forskerne brugte en effekt, der er kendt som “stemmeassistent gennem vægge”, som gør det muligt at styre stemmestyringsenheder gennem glasvinduer og endda vægge. Under eksperimentet var forskerne i stand til at hacke Siri, Alexa og Google Home og få fuld kontrol over disse enheder.

Indholdsfortegnelse

Den grundlæggende idé er at bruge en laser til at interagere med enhedens indbyggede mikrofon. Når laserstrålen rammer mikrofonen, vibrerer den og skaber en lydbølge, som mikrofonen fortolker som en stemmekommando.

Denne hackingteknik kan bruges af angribere til at få kontrol over stemmestyrede enheder i hjemmet og på kontoret. Forskere har rapporteret denne sårbarhed til udviklerne af Siri, Alexa og Google Home, og de er allerede gået i gang med at løse problemet. Men det minder os om, hvor vigtigt det er at sikre personlige enheder og implementere ekstra sikkerhedsfunktioner.

Forskere har hacket Siri, Alexa og Google Home stemmeassistenter med en laserstråle

Et hold forskere fra University of Michigan og University of Exeter i Storbritannien har opdaget sårbarheder i stemmeassistenterne Siri, Alexa og Google Home, der gør det muligt for angribere at fjernstyre enhederne ved hjælp af specielle laserstråler.

Forskerne udførte en række eksperimenter, hvor de brugte lasere til at interagere med stemmeassistenternes mikrofoner. De fandt ud af, at ændring af intensiteten af det lys, som laserstrålen er rettet mod, kan forårsage uventede og uønskede reaktioner fra enhederne.

Forskerne viste, at en sådan sårbarhed kan hacke stemmeassistenter på op til 110 meters afstand. Der kræves hverken en bevidst brugerhandling eller synlige ændringer i rummet. En angriber kan trænge ind i en persons private sfære og få adgang til deres personlige data.

Sårbarheden ligger i, at stemmeassistentens mikrofoner reagerer på ændringer i lysintensiteten, hvilket gør det muligt at bestemme afstanden til enheden og ved at modulere laserstrålen sende kommandoer til at styre stemmeassistenten.

Forskerne foreslog en række foranstaltninger til at beskytte mod sådanne angreb, herunder brug af optiske filtre, ændring af algoritmer til at registrere stemmekommandoer og uddannelse af brugere til at genkende de potentielle risici.

Disse resultater understreger vigtigheden af stemmeassistentens sikkerhed og behovet for løbende at forbedre forsvarsmekanismerne for at forhindre potentielle angreb og beskytte brugernes privatliv.

Ny forbedret metode til hacking

Forskere har rapporteret om udviklingen af en ny og forbedret metode til at hacke smarte assistenter som Siri, Alexa og Google Home. Metoden er baseret på brug af laser og giver ubemærket adgang til brugernes personlige oplysninger.

Tidligere har forskere allerede demonstreret evnen til at hacke stemmeassistenter ved at bruge malware eller afspille højfrekvente lydoptagelser. Men den nye hackingmetode er en mere sofistikeret og snigende teknik, som er sværere at opdage og forhindre.

Forskerne fandt ud af, at når man belyser mikrofonen på smart assistenter med en laser, frembringer det små vibrationer, som kan optages og analyseres ved hjælp af specialudstyr. Det giver angriberne mulighed for at få oplysninger om samtaler og kommandoer, der sendes af smart-assistenterne.

Grundprincippet i den nye hackingmetode er en laserstråles retningsbestemte påvirkning af den overflade, som mikrofonen er fokuseret på. Når laserstrålen rammer mikrofonen, opstår der mikroskopiske vibrationer forårsaget af opvarmning og udvidelse af luften. Disse vibrationer kan registreres og omdannes til analoge signaler, der indeholder de oplysninger, som den smarte assistent sender.

Forskerne advarer om, at man skal træffe foranstaltninger for at beskytte sig mod denne forbedrede hackingmetode. De anbefaler, at man bruger særlige beskyttelsesdæksler til mikrofonen, som kan absorbere laserlys, og at man implementerer algoritmer til at opdage og blokere en sådan eksponering.

Læs også: Multiverse crasher på PC: årsager og rettelser

Ud over tekniske foranstaltninger bør brugerne også være mere bevidste om sikkerheden af deres personlige oplysninger og overvåge vilkårene for brug af smarte assistenter. Dette omfatter begrænsning af indsamling af lyddata, brug af komplekse adgangskoder og regelmæssig opdatering af software.

Forskere arbejder fortsat på at udvikle nye sikkerhedsmetoder og samarbejder også med producenter af smart-assistenter om at løse identificerede sårbarheder.

Sikkerhedssårbarheder

Alle tre af de mest populære stemmeassistenter - Apples Siri, Amazons Alexa og Google Home fra Google - kunne hackes af forskere ved hjælp af lasere, hvilket gav anledning til bekymring for sikkerheden i disse systemer.

Forskere fra Centre for Electronics and Information Technology Security og University of Michigan fandt ud af, at det er muligt at bruge et simpelt og billigt hack via mobilapps til at målrette stemmeassistenter via en ultraviolet laser.

Angrebsmetoden var som følger: Forskerne brugte en laser og pegede den mod stemmeassistentens mikrofon gennem vinduer eller døre. Laseren behandlede lydmikrofonen og genererede elektriske signaler, som blev sendt til assistenten.

Med sikkerhedshuller i stemmeassistenter er det blevet klart, at selv de mest avancerede teknologier ikke er immune over for usædvanlige ideer fra angribere. Selv forbrugerenheder kan være modtagelige for angreb, hurtige og effektive måder at få uautoriseret adgang til information på.

Læs også: Sådan løser du fejlen 'Din IT-administrator har begrænset adgang' - trin-for-trin-guide

Derfor bør udviklere være mere opmærksomme på sikkerhed og kontrollere sikkerhedsniveauet for deres produkter mod hacking. Brugere af stemmeassistenter kan også være forsigtige og sørge for yderligere sikkerhedsforanstaltninger, når de bruger disse systemer.

På trods af deres bekvemmelighed bør stemmeassistenter have et højt sikkerhedsniveau for at beskytte brugernes personlige oplysninger mod hacking og uautoriseret adgang.

Potentielle trusler mod brugerne

Laserhacking af digitale assistenter som Siri, Alexa og Google Home udgør en alvorlig trussel mod brugerne. Evnen til at kontrollere og få adgang til enheder ved hjælp af en laserstråle kan bruges af angribere til en række lumske formål.

Her er nogle af de potentielle trusler, brugerne står over for:

  1. Få private oplysninger: Angribere kan bruge lasere til at hacke sig ind i digitale assistenter og få adgang til brugernes private oplysninger som kontakter, tidsplaner, økonomiske data og meget mere.
  2. Fysisk sikkerhedstrussel: Ved at bruge lasere kan angribere forstyrre digitale assistenter og forårsage fysiske sikkerhedsproblemer. De kan f.eks. åbne døre, tænde og slukke for visse enheder og forårsage strømafbrydelser.
  3. Manipulation af smart home-enheder: Digitale assistenter er ofte forbundet med smart home-enheder som sikkerhedssystemer, intelligente låse, belysning osv. Hacking af en digital assistent giver en ubuden gæst adgang til og mulighed for at manipulere smart home-enheder, hvilket kan føre til indbrud i hjemmet eller ukorrekt kontrol af systemet.

I lyset af disse potentielle trusler bør brugerne tage ekstra skridt for at beskytte deres privatliv og sikkerhed. Det er vigtigt at holde sig opdateret med softwareopdateringer fra producenterne, indstille adgangskoder til deres digitale assistenter, placere dem på sikre steder og være på vagt over for uventede aktiveringer eller usædvanlig adfærd på enheden.

Forslag til forbedring af stemmeassistentens sikkerhed

Efter at forskere var i stand til at hacke Siri, Alexa og Google Home stemmeassistenter med en laser, blev det klart, at der var behov for bedre databeskyttelsessystemer. Her er et par forslag, der kan hjælpe med at forbedre sikkerheden for stemmeassistenter:

  1. Stærkere autentificering: Når man arbejder med stemmeassistenter, skal der implementeres stærkere autentificering for at forhindre uautoriseret adgang til personlige data. For eksempel kan brug af biometri (fingeraftryk, ansigtsgenkendelse) være en stærkere måde at identificere brugeren på.
  2. Forbedring af den fysiske sikkerhed: For at forhindre, at stemmeassistenter bliver laserhacket, skal den fysiske sikkerhed af enhederne styrkes. For eksempel kan der tilføjes ekstra sikkerhedslag som bevægelsessensorer eller lyssensorer for at opdage, hvis nogen forsøger at bruge laserenheden til at angribe.
  3. Softwareopdateringer: Producenter af stemmeassistenter bør regelmæssigt udgive softwareopdateringer for at rette nye sårbarheder og forbedre sikkerheden. Brugere bør regelmæssigt tjekke, om der er opdateringer, og installere dem så hurtigt som muligt.
  4. Træning af maskinlæringsmodeller: Stemmeassistenter er baseret på maskinlæringsmodeller, der kan trænes på forskellige typer af inputsignaler, herunder laserpulser. Producenterne skal træne modellerne, så de bliver modstandsdygtige over for sådanne angreb og kan skelne ægte stemmekommandoer fra laserpulser.
  5. Forbedrede advarsler om potentielle angreb: Stemmeassistenter bør være udstyret med mekanismer, der advarer brugeren om potentielle angreb. Det kan være hørbare eller visuelle alarmer, der advarer brugeren om et forsøg på hacking eller uautoriseret adgang til systemet.

Implementering af disse forslag vil hjælpe med at beskytte stemmeassistenter bedre og forbedre sikkerheden for brugerdata.

OFTE STILLEDE SPØRGSMÅL:

Hvilke forskere hackede Siri, Alexa og Google Home?

Forskere ved University of Michigan i USA har hacket stemmeassistenterne Siri, Alexa og Google Home ved hjælp af lasere.

Hvordan hackede forskerne stemmeassistenterne?

Forskerne brugte en laserstråle, der blev rettet mod mikrofonerne på stemmeassistenterne. De var i stand til at modulere infrarødt lys for at narre mikrofonerne til at sende kommandoer til dem.

Hvilke kommandoer kunne transmitteres via de hackede stemmeassistenter?

Forskellige kommandoer som at åbne og lukke døre, bryde smartlåse op, indhente pinkodeoplysninger osv. kunne udføres via hackede stemmeassistenter.

Hvilke enheder var sårbare over for denne type hacking?

Enheder, der var sårbare over for denne type hacking, var dem med langtrækkende mikrofoner, der var placeret tæt på vinduer. Apple iPhone XR, Amazon Echo 3 og Google Pixel 2 var de mest sårbare.

Hvad siger producenterne om denne type hack?

Repræsentanter fra Google, Amazon og Apple sagde, at de studerer problemet nøje og tager skridt til at beskytte deres enheder mod sådanne angreb. De opfordrede også brugerne til at være forsigtige og installere alle de nyeste opdateringer til deres enheder.

Hvilke enheder er blevet hacket?

Siri, Alexa og Google Home stemmeassistenter blev hacket af forskere.

Hvordan lykkedes det forskerne at hacke stemmeassistenter?

Det lykkedes forskerne at hacke stemmeassistenterne ved hjælp af en laser, der gik gennem vinduer og aktiverede enhederne.

Se også:

comments powered by Disqus

Du kan også lide