Untersuchung
27.07.2020, 10:00 Uhr
Sprachassistenten hören öfter mit als gedacht
Sprachassistenten springen nicht nur auf das offizielle Kommando an, sondern auch auf zahlreiche ähnlich klingende Begriffe. Dies zeigt eine Studie von deutschen Forschern.
Sprachassistenten von Amazon, Google, Microsoft und Apple reagieren nicht nur auf die offiziellen Trigger-Befehle wie «Alexa», «OK, Google», «Hey Cortana» oder «Siri», sondern auch auf gut 1000 ähnlich klingende Begriffe. Das hat zur Folge, dass die Helfer öfter mithören und auf eine Frage oder einen Befehl warten.
Welche Wörter und Wortsequenzen Sprachassistenten versehentlich anspringen lassen, haben Forscherinnen und Forscher am Horst Görtz Institut für IT-Sicherheit (HGI), das der Ruhr-Universität Bochum (RUB) angegliedert ist, und dem Bochumer Max-Planck-Instituts (MPI) for Cyber Security and Privacy untersucht. Sie erstellten eine Liste von englischen, deutschen und chinesischen Begriffen, die von verschiedenen Sprachassistenten wiederholt als Aufforderung zum Zuhören fehlinterpretiert wurden.
Das Problem dabei: Immer wenn die Systeme anspringen, schneiden sie eine kurze Sequenz des Gesagten mit und übermitteln die Daten an den Hersteller, teilweise, ohne dass die Nutzerinnen und Nutzer das bemerken. Die mitgelieferten Audioschnipsel werden dann von Angestellten der Konzerne transkribiert und überprüft. So können Fetzen von sehr privaten Unterhaltungen bei den Herstellerfirmen landen.
«Tatort»-Staffel als Audiomaterial
Die IT-Expertinnen und -Experten testeten die Sprachassistenten von Amazon, Apple, Google, Microsoft und Deutscher Telekom sowie drei chinesische Modelle von Xiaomi, Baidu und Tencent. Sie spielten ihnen stundenlang deutsches, englisches und chinesisches Audiomaterial vor, unter anderem einige Staffeln aus den Serien «Game of Thrones», «Modern Family» und «Tatort» sowie Nachrichtensendungen. Auch professionelle Audio-Datensätze, die zum Training von Sprachassistenten verwendet werden, waren dabei.
Alle Sprachassistenten waren mit einer Diode versehen, die registrierte, wann die Aktivitätsanzeige des Sprachassistenten aufleuchtete, das Gerät also sichtbar in den aktiven Modus schaltete und somit ein Trigger auftrat. Ausserdem registrierte das Setup, wann ein Sprachassistent Daten nach aussen sendete. Sobald eines der Geräte in den aktiven Modus schaltete, protokollierten die Forscher, bei welcher Audiosequenz das der Fall war. Manuell werteten sie später aus, welche Begriffe den Sprachassistenten getriggert hatten.
Gut 1000 Fehltrigger gefunden
Aus diesen Daten erstellte das Team eine erste Liste von über 1000 Sequenzen, die Sprachassistenten fälschlicherweise triggern. Abhängig von der Betonung hört Alexa im Englischen beispielsweise auf die Wörter «unacceptable» und «election» oder Google auf «OK, cool». Im Deutschen lässt sich Amazon beispielsweise durch «Am Sonntag» täuschen und Siri springt an, wenn jemand den Drink «Daiquiri» bestellt.
Um zu verstehen, was diese Begriffe zu Fehltriggern macht, zerlegten die Forscherinnen und Forscher die Wörter in ihre kleinstmöglichen Klangeinheiten und identifizierten die Einheiten, die häufig von den Sprachassistenten verwechselt wurden. Basierend auf diesen Erkenntnissen erzeugten sie neue Triggerwörter und zeigten, dass diese die Sprachassistenten ebenfalls anspringen lassen.
«Die Geräte sind mit Absicht etwas liberal programmiert, weil sie ihre Menschen verstehen können sollen. Sie springen also eher einmal zu viel als zu wenig an», resümiert Dorothea Kolossa, Professorin in der Arbeitsgruppe Kognitive Signalverarbeitung der RUB.
Audioschnipsel werden in der Cloud analysiert
Die Wissenschaftler und Wissenschaftlerinnen untersuchten danach genauer, wie die Hersteller Fehltrigger auswerten. Typisch ist ein zweistufiger Prozess. Zunächst analysiert das Gerät lokal, ob in der wahrgenommenen Sprache ein Triggerwort enthalten ist. Vermutet das Gerät, das Aktivierungswort gehört zu haben, fängt es an, das derzeitige Gespräch für eine weitere Analyse mit mehr Rechenpower in die Cloud des Herstellers hochzuladen.
Identifiziert die Cloud-Analyse den Begriff als Fehltrigger, bleibt der Sprachassistent stumm, nur seine Kontrollleuchte leuchtet kurz auf. In diesem Fall können bereits mehrere Sekunden Audiomitschnitt bei den Herstellern landen, wo sie von Menschen transkribiert werden, um solch einen Fehltrigger in Zukunft zu vermeiden.
«Aus Privacy-Sicht ist das natürlich bedenklich, weil teils sehr private Unterhaltungen bei Fremden landen können», sagt Thorsten Holz, Professor am Lehrstuhl Systemsicherheit der RUB. «Aus Engineering-Sicht ist das Vorgehen hingegen nachvollziehbar, denn die Systeme können nur mithilfe solcher Daten verbessert werden. Die Hersteller müssen einen Spagat zwischen Datenschutz und technischer Optimierung schaffen.»
Beispiele aus der Arbeit der Forscherinnen und Forscher sind unter unacceptable-privacy.github.io zu finden.
Kommentare
Es sind keine Kommentare vorhanden.