11.05.2018, 12.43 Uhr

Sicherheitslücken bei Sprachsteuerung: Siri und Alexa können gehackt werden - und SIE merken es nicht

Geheime Kommandos können die Sprachassistenten steuern - ungeahnt der Besitzer, da Menschen diese Frequenzen nicht wahrnehmen.

Geheime Kommandos können die Sprachassistenten steuern - ungeahnt der Besitzer, da Menschen diese Frequenzen nicht wahrnehmen. Bild: dpa

Wenn Sie es gewohnt sind, Ihre Geräte per Sprachsteuerung Musik spielen zu lassen, Termine einzutragen oder nach Schlagworten zu suchen, sollten Sie jetzt aufhorchen. Geheime Befehle in Musikdateien, YouTube Videos oder weißem Rauschen gefährden Ihr Zuhause und könnten es Hackern ermöglichen, Ihre sprachgesteuerten Geräte selbst zu aktivieren.

Bei Nachforschungen eines Teams aus chinesischen und amerikanischen Forschern wurde eine Frequenz gefunden, die für das menschliche Ohr unhörbar ist und beliebte Sprachsteuerungen wie Siri, Alexa oder den Google Assistenten kontrollieren kann - direkt vor Ihrer Nase.

Welche Gefahren entstehen durch die Hacker?

Wie die "New York Times" berichtet, könnten Verbrecher durch die manipulierten Audiodateien Heimgeräte wie Heizkörper oder Lichter einschalten, Türen öffnen, Nachrichten versenden oder Kreditkarten missbrauchen und online Zahlungen tätigen. Die geheimen Attacken könnten jede Wellenform nutzen, um versteckte Audio-Abschnitte hinzuzufügen und somit einen beliebigen Satz zu übertragen.

Sobald die Befehle in Ihren Haushalt eingeschleust und anerkannt werden, könnten sie außerdem dazu verwendet werden bestimmte Telefonnummern zu wählen, Fotos zu machen, persönliche Daten zu sammeln und Webseiten zu öffnen. Der Schritt zum Einsatz von Schadsoftware und Virenprogrammen ist da nicht weit. Hacker würden Zugang zu Smart Speakern wie dem Apple HomePod, Amazon Echo und Google Home erlangen.

Wie wirken die Unternehmen den Schwachstellen entgegen?

Bisher wurden die Frequenzen nur im Versuch der University of California verwendet um Sicherheitslücken aufzudecken, doch Übergriffe durch Hacker werden nicht ausgeschlossen. Ein Autor der Studie, Nicholas Carlini von der Berkeley Universität, geht davon aus dass böswillige Menschen diese Methoden bereits selbst erarbeiten.

Amazon sagte der "New York Times" gegenüber, Schritte zur Gewährleistung der Sicherheit wurden eingeleitet. Google betont, dass ihre Plattform Funktionen wie Spracherkennung anwende, um die Ausführung fremder Befehle zu unterbinden und Apple wies darauf hin, dass ihre Geräte durch zusätzliche Authentifizierung erst entsperrt werden müssen bevor Siri wichtige Vorgänge ausführen kann.

Es geht immer mehr Gefahr von Hack-Angriffen aus, die erst kürzlich zu Abzocken durch Zugriffe auf Internetrouter führten.

Folgen Sie News.de schon bei Facebook, Google+ und Twitter? Hier finden Sie brandheiße News, tolle Gewinnspiele und den direkten Draht zur Redaktion.

scs/rut/news.de
WhatsApp-News aktuellTricoder, Dual Messenger und Co.Inflation + Mini-ZinsenNeue Nachrichten auf der Startseite