Deze website maakt gebruik van cookies. Voor meer informatie over de cookies waarvan deze website gebruik maakt klik hier.
Door verder op deze website te surfen geeft u de toestemming aan Minoc Media Services om cookies te gebruiken. verder gaan Created with Sketch.
LEES DIT:  Encryptie ontcijferd: download het gratis e-book

Digitale assistenten hackbaar met ultrasoon geluid

Stemgestuurde assistenten zijn te misbruiken door middel van geluiden die we met onze eigen oren niet kunnen waarnemen, zo demonstreren Chinese onderzoekers.

 
siri

Met behulp van ultrasone geluiden hebben Chinese wetenschappers een onverdachte zwakke plek aangetoond in digitale assistenten. Ze slaagden erin om zowat elke populaire stemgestuurde AI te activeren door gebruik te maken van geluiden die niet met een menselijk oor zijn waar te nemen. Ze hebben de techniek DolphinAttack gedoopt, een verwijzing naar de gelijkaardig communicatietechniek met hoge frequentie van dolfijnen.

Het team van de universiteit van Zhejiang maakte gebruik van het feit dat wij dan wel geen ultrasone geluiden kunnen oppikken, maar microfoons wel. Om hun cyberaanval te laten werken moesten ze één belangrijk obstakel passeren: de low-pass filter. De microfoons die in de meeste eletronica worden gebruikt zijn erop gebouwd om enkel aandacht te schenken aan menselijke geluiden. De microfoon registreert wel ultrasone geluiden die boven de frequentie van 20 kilohertz gaan, maar die worden door een low-pass filter onderdrukt.

Harmonische aanval

Om die filter te omzeilen maakten de onderzoekers handig gebruik van een natuurlijk fenomeen: het feit dat een grondtoon ook op andere frequenties kan inwerken op een microfoon. Die extra frequenties worden in het wetenschappelijke jargon harmonischen genoemd. Vertrek je vanuit een onhoorbaar ultrasoon geluid, dan kan je een harmonische frequentie creëren die wel binnen het menselijke spectrum valt. Concreter: je stuurt met een toestel een geluid uit op een ultrasone frequentie. De low-pass filter zal deze trilling onderdrukken, maar het pikt wel de harmonische trilling binnen de menselijke frequentie op die door het originele geluid wordt geproduceerd. Op die manier kan je een intelligente assistent activeren zonder hoorbaar geluid te produceren.

 

De Chinese onderzoekers creërden een dergelijke toon, zowel met behulp van opgenomen stemmen als met een synthetisch geproduceerde stem. Geen enkele bekende digitale assistent bleek immuun voor DolphinAttack: het Chinese team wist Siri, Google Now, Cortana, Alexa, Huawei HiVoice en Samsung S Voice te verschalken. Niet alleen kon men de assistenten activeren, ook commando’s zoals “Bel dit nummer”, “Open deze website”, of “Ontsluit de deur” werden met succes uitgevoerd. Een dergelijke aanval is ook niet duur: de wetenschappers boksten voor minder dan 3 dollar een werkend draagbaar systeem in elkaar dat de ultrasone commando’s uitzendt.

Onrealistisch

Het grootste pijnpunt van DolphinAttack is de reikwijdte. Aangezien het om hoge frequenties gaat, moet je al vrij dicht bij een toestel naderen om een signaal over te brengen. De geluidshack werkte niet meer zodra de onderzoekers op meer dan 1,5 meter afstand van de microfoon uitzonden. Het produceren van de speciale toon met het juiste harmonische effect is erg gecompliceerd, wat de waarschijnlijkheid van een dergelijke aanval verkleint. Bovendien kan je als smartphonegebruiker eenvoudig ingrijpen mocht de stemassistent op je toestel plots activeren.

Waar wel risico’s te ontwaren zijn is bij het Internet of Things. Het is niet ondenkbaar dat een slim toestel met spraakassistent dat onbewaakt thuis staat kan gemanipuleerd worden om een deur te ontsluiten of een beveiligingscamera af te zetten. Je moet dan wel opnieuw in de buurt kunnen komen. Het is misschien geen realistische hack, maar de Chinese studie onderlijnt nog maar eens dat cyberveiligheid om meer gaat dan enkel de verdediging tegen aanvallen via digitale kanalen.

Lees meer over : ai | Beveiliging | dolphinattack | spraakherkenning