Zum Inhalt springen Zur Navigation springen
Siri, Alexa, Google Home & Co: Wer hört alles mit?

Siri, Alexa, Google Home & Co: Wer hört alles mit?

Geräte mit Spracherkennung sind modern und bequem. Aber sie gefährden die Privatsphäre und den Datenschutz, und das gleich auf mehrere Arten. Unternehmen, Geheimdienste und Kriminelle könnten mithören – oder sogar mitreden.

Sprachgesteuerte Assistenten machen das Leben einfacher

Siri und Alexa sind nur zwei der Namen, mit denen man Geräte oder Software verbindet, die auf natürliche Sprache reagieren und die Wünsche ihrer Besitzer erfüllen. Aber neben den explizit dafür gedachten Geräten wie Alexa sind auch Smartphones, Navigationsgeräte und andere Haushaltsgeräte bereits in der Lage, auf gesprochene Befehle zu reagieren.

Dieser Fortschritt und die damit verbundene Bequemlichkeit haben aber ihren Preis. Zum einen liefert man durch die Nutzung derartiger Systeme laufend eine große Menge nützlicher Daten an die jeweiligen Betreiber, die damit noch mehr als bisher über ihre Kunden erfahren und mit diesen Informationen letztlich ihre Gewinne maximieren können. Das nimmt man als Kunde in der Regel in Kauf. Es dient ja letztlich auch der eigenen Bequemlichkeit, wenn der Händler bereits weiß, was man gerne hätte, und das zum Beispiel in Form von personalisierter Werbung vorschlägt.

Zusätzlich versorgt man ungewollt aber auch diejenigen mit Informationen, die sich bei den jeweiligen Firmen Zugriff auf persönliche Daten der Kunden verschaffen. Das von Edward Snowden aufgedeckte Ausmaß der geheimdienstlichen Überwachung, namentlich durch die NSA, ist enorm und dürfte seither nicht abgenommen haben. Auch dies nimmt man als Benutzer notgedrungen in Kauf.

Missverständnisse sind (nicht nur) menschlich

Über diese vom Kunden meist einkalkulierten Risiken für die eigene Privatsphäre hinaus sind jedoch in jüngster Zeit zwei weitere mögliche Schwachstellen bekannt geworden. Die eine führte zu einem Vorfall, bei dem ein Gespräch ungewollt aufgezeichnet und dann auch noch an einen Dritten weitergesandt wurde. Zwar führte nur eine Verkettung von Zufällen zu dieser Panne – die Wahrscheinlichkeit, dass derartige Vorfälle häufiger vorkommen, ist daher gering. Doch zeigt der Vorgang, dass es eine vollständige Sicherheit nicht geben kann: Auch ausgefeilte Technik und Software bleibt stets fehleranfällig.

Heimliche Befehle für den Sprachassistenten

Die andere Schwachstelle haben Forscher aus China und Amerika erforscht. Die mit Spracherkennungssoftware ausgestatteten Geräte versuchen, mit hoch empfindlichen Mikrofonen und ausgefeilten Algorithmen die von ihnen aufgezeichneten Geräusche zu interpretieren und daraus für den Computer verständliche Befehle zu generieren. Dabei gehen Computer grundsätzlich anders vor als das menschliche Ohr und das Gehirn, das die akustischen Signale verarbeitet. Diesen Unterschied machten sich die Forscher zunutze und versteckten in gesprochenen Texten geheime Botschaften, die nur der Computer als Befehl erkennt und umsetzt. Ein für den Menschen völlig harmlos klingender Satz wird von seinem sprachgesteuerten Assistenten somit völlig unbemerkt als unerwünschter Befehl interpretiert.

Auch in schlichten Hintergrundgeräuschen („weißes Rauschen“) oder in Musikstücken von nur wenigen Sekunden Länge konnten Befehle versteckt werden, die von den Sprachassistenten zuverlässig verstanden wurden. Das menschliche Ohr erkennt die darin verborgenen Kommandos dagegen nicht.

Kontrolle nicht dem Gerät überlassen

Auf Manipulationen von sprachgesteuerten Geräten mit Hilfe von Befehlen, die in Geräuschen, gesprochenen Texten oder Musik versteckt sind, ist auch unser Rechtssystem nicht vorbereitet. Ihnen müsste also, sollten sie in der Praxis auftreten, mit zivil- und strafrechtlichen Mitteln begegnet werden, die gar nicht auf derartige Fälle zugeschnitten sind. Wie die Gerichte damit umgehen werden, kann noch nicht abgesehen werden.

Durch ein Gerät, das rund um die Uhr seine Umgebung auf mögliche Sprachbefehle abhört, werden mögliche Pannen und böswillige Angriffe erleichtert. Will man also auf sprachgesteuerte Assistenten nicht ganz verzichten, empfiehlt es sich daher, sie nur dann in Betrieb zu nehmen, wenn man sie auch tatsächlich nutzen möchte.

Informieren Sie sich über unsere praxisnahen Webinare
  • »Microsoft 365 sicher gestalten«
  • »Informationspflichten nach DSGVO«
  • »Auftragsverarbeitung in der Praxis«
  • »DSGVO-konformes Löschen«
  • »IT-Notfall Ransomware«
  • »Bewerber- und Beschäftigtendatenschutz«
Webinare entdecken
Mit dem Code „Webinar2024B“ erhalten Sie 10% Rabatt, gültig bis zum 31.12.2024.
Beitrag kommentieren
Fehler entdeckt oder Themenvorschlag? Kontaktieren Sie uns anonym hier.
  • Mag für mache vielleicht interessant sein, dass es inzwischen auch Alternativen zu Alexa und Co gibt. Beispielsweise Mycroft (mycroft.ai) zur Sprachsteuerung. Leider sind diese Geräte noch nicht ganz auf dem gleichen Niveau, aber es geht definitiv in die richtige Richtung.

    Auch was SmartHome betrifft, gibt es manche Entwicklungen. Als Beispiel sei hier Sonoff-Tasmota (github.com/arendst/Sonoff-Tasmota) genannt, mit der man dem Cloudzwang des Herstellers entgehen kann.

  • Super geschrieben und im Grunde genommen ideoten sicher erklärt. Ich persönlich benutze keine Wanze für die eigenen 4 Wände und auch nicht für das Büro und dürfte hier also auch nicht mitreden. Persönlich hätte ich mir gewünscht, man hätte bei den neuen Technologiewanzen genauso scharf die Daumenschrauben angelegt wie man zur Zeit die Mittlere + kleine Unternehmen, Vereine und Betreiber von Webseiten an den Rand des Irrsinns treibt.

Die von Ihnen verfassten Kommentare erscheinen nicht sofort, sondern erst nach Prüfung und Freigabe durch unseren Administrator. Bitte beachten Sie auch unsere Nutzungsbedingungen und unsere Datenschutzerklärung.