Suche

Irseca World
Registrierung Kalender Mitgliederliste Teammitglieder Suche Häufig gestellte Fragen Uploadcenter Zur Startseite
Irseca World » Irseca Lifestyle » Nachrichten aus aller Welt » Sicherheitslücken bei Siri und Alexa » Hallo Gast [Anmelden|Registrieren]
Letzter Beitrag | Erster ungelesener Beitrag Druckvorschau | An Freund senden | Thema zu Favoriten hinzufügen
Neues Thema erstellenAntwort erstellen
Zum Ende der Seite springen Sicherheitslücken bei Siri und Alexa
Autor
Beitrag « Vorheriges Thema | Nächstes Thema »
rooperde rooperde ist männlich
V.I.P.


images/avatars/avatar-2613.gif


Dabei seit: 27.03.2010
User ID: 22843
Beiträge: 3.948
Posts am Tag: 1.3

Level: 50 [?]
Erfahrungspunkte: 11.760.105
Nächster Level: 11.777.899

17.794 Erfahrungspunkt(e) für den nächsten Levelanstieg

Achtung Sicherheitslücken bei Siri und Alexa Auf diesen Beitrag antworten Zitatantwort auf diesen Beitrag erstellen Diesen Beitrag editieren/löschen Diesen Beitrag einem Moderator melden       Zum Ende der Seite springenZum Anfang der Seite springen


Wissenschaftler können geheime Audioanweisungen, die Menschen nicht hören, an Apples Siri, Amazons Alexa und Googles Assistant senden. Die Sprachassistenten könnten so heimlich Fotos der Nutzer machen, Textnachrichten versenden oder gar die Haustür öffnen. So können Sprachassistenten und vernetzte Häuser ein weiteres Einfallstor für kriminelle Hacker werden.



Forscher aus China und den USA konnten in Labortests die Sprachassistenten auf Smartphones und intelligenten Lautsprechern heimlich aktivieren und so Telefonnummern wählen oder Websites öffnen, berichtet die New York Times.

Die neue Angriffsmethode sind manipulierte Audiodateien, Musikstücke oder gesprochenen Text. Während der Nutzer beispielsweise der Musik seiner Lieblingsband lauscht oder sich ein spannendes Hörbuch anhört, kann über manipulierte MP3-Dateien oder Filme ein Angriff erfolgen. Auch aus der Ferne, etwa über Radiosendungen und Werbespots könnten die Sprachassistenten auf fremden Befehl hin online einkaufen oder die Haustür entsperren.

Die Forscher der kalifornischen Universität Berkley konnten den Befehl „Ok Google, öffne evil.com“ in einer Aufnahme des gesprochenen Satzes (Ohne den Datensatz ist der Artikel unbrauchbar) verbergen. Während ein Mensch bloß einen Song oder ein Hörbuch hört, vernehmen Alexa, Siri oder der Google Assistent geheime Anweisungen wie zum Beispiel etwas zur Einkaufsliste hinzuzufügen oder das Garagentor zu öffnen.

Verwiesen wird dabei auch auf die Studie der Forscher der Princeton Universität und der chinesischen Zhejian Universität aus dem vergangenen Jahr, in dem ebenfalls vor Delphin-Attacken gewarnt wird. Hier kamen aber Ultra-Schallsensoren zum Einsatz, von denen die Signale aus an das in der Nähe befindliche Gerät gesendet werden müssen, daher auch der Name „Delphin-Attacke„. In dem Beispiel dort wird beschrieben, wie durch ein nicht hörbares Signal der persönliche Assistent aktiviert wird und zunächst den Befehl erhält, keinerlei Sprachausgaben mehr tätigen zu dürfen. Dadurch soll verhindert werden, dass der Besitzer des Geräts den Verlust der Kontrolle bemerkt. Anschließend ist es dann möglich Telefongespräche zu führen oder die auf dem Gerät befindlichen Informationen und Bilder abzuschöpfen.

Ein weitere Sicherheitslücke: Smartphones können so eingerichtet werden, dass sie an vermeintlich sicheren Orten wie zu Hause oder in der Nähe der eigenen Smartwatch automatisch entsperrt bleiben. Das ist praktisch, erleichtert aber auch Angriffe.

Laut den Forschern gibt es bislang keine Beweise dafür, dass ihre Manipulationstechniken das Labor verlassen haben. Es sei aber nur eine Frage der Zeit, bis jemand damit beginne, sie für kriminelle Aktivitäten auszunutzen. Für Kriminelle oder Geheimdienste gibt es momentan viel leichtere Wege, um ihre Opfer anzugreifen.
Nicholas Carlini, der an der University of California in Berkeley forscht, hat einen der ersten wissenschaftlichen Artikel zu derartigen Attacken verfasst, den er mit der Phrase „Cocaine Noodles“ titelte – sie wird oftmals als „Ok, Google“ missverstanden. „Wir wollen zeigen, dass solche Attacken möglich sind – und hoffen, dass andere Menschen das dann reparieren„, so Carlini

Amazon, Google und Apple versicherten derweil, dass solche Angriffe per Sprache bei ihren Geräten nicht möglich seien. Apples Homepod etwa führt möglicherweise heikle Befehle wie das Öffnen eines smarten Türschlosses nicht aus. Googles Assistant soll auf unhörbare Sprachkommandos nicht reagieren. Google wie Amazon lassen ihre Sprachassistenten bestimmte Befehle nicht ausführen, wenn diese nicht die Nutzerstimme erkennen.


14.05.2018 09:25 rooperde ist online E-Mail an rooperde senden Beiträge von rooperde suchen Zur Startseite Nehme rooperde in deine Freundesliste auf
Baumstruktur | Brettstruktur
Gehe zu:
Neues Thema erstellenAntwort erstellen
Irseca World » Irseca Lifestyle » Nachrichten aus aller Welt » Sicherheitslücken bei Siri und Alexa

Forensoftware: Burning Board 2.3.6 pl2, entwickelt von WoltLab GmbH
DB: 0.001s | DB-Abfragen: 0 | Gesamt: 0.044s | PHP: 97.73% | SQL: 2.27%
Design und Templateanpassung © Irseca Team, Board eröffnet am 12.05.2002


Du bist Besucher:
Bearsmail-Service - E-Mail Lesebestätigung & Empfangsbestätigung E-Mail mit Rückschein
seit Mai 2002 im IRSECA Board!

sacred-slaves


Dreamworld