Suche

Sprachassistenten: Intelligente Weggefährten



Hey Siri! Über die Herausforderung digitaler Sprachassistenten


Amazons Alexa, Siri, Google, Bixby & Co sind längst in das Leben von einem Großteil der Menschen eingezogen und haben sich als Helfer im Alltag etabliert. Auch Unternehmen schätzen ihre Effizienz und ökonomischen Vorteile. So spielen Sprachassistenten auch außerhalb des Privaten eine zunehmend wichtige Rolle und kommen als Terminplaner oder Kundenbetreuer zum Einsatz.

Einen Peak scheinen digitale Assistenten mit dem Startschuss von Apples iPhone 4s erreicht zu haben. Mit der Produktpräsentation 2011 ging Siri erstmals serienmäßig in die Welt hinaus. Seither steigt die Nachfrage der hilfsbereiten digitalen Gesprachspartner kontinuierlich. Nutzten 2015 über 390 Millionen Menschen Sprachassistenten, dürften es laut Prognosen im Jahr 2020 bereits rund 1,6 Milliarden User sein. Somit würde sich dann knapp ein Fünftel der Weltbevölkerung auf künstliche Assistenten verlassen. Das ist ein durchaus beachtlicher Aufwärtstrend – der allerdings auch nach Verbesserungen ruft.




Das große oder kleine Missverständnis 
Laut Statistik gaben mehr als die Hälfte der befragten Nutzer an, dass in der Kommunikation mit ihren digitalen Assistenten vermehrt Missverständnisse auftreten. 


Was im Alltag nicht weiter schwierig – oder gar schon selbstverständlich – scheinen mag, stellt Fachleute wie Computerlinguisten vor ihre größten Herausforderungen. 
Wie kann ein Computer verstehen was wir sagen? 
Für ein System wird die Diversität der Sprache zur Hürde. So klar wir uns ausdrücken können, so mehrdeutig ist unser Gesagtes.
 Hier setzt die digitale Sprachverarbeitung, als Schnittstelle von menschlicher Sprache und IT ein und tüftelt an Lösungen. 


Ein einfaches Beispiel – haben Sie schon einmal überlegt was das Wort „Maus“ alles bedeuten kann? Computermaus, Nagetier oder sprichwörtlich Katz und Maus spielen ist nur eine Auswahl der Möglichkeiten.

Doch woher wissen Siri, Alexa & Co. aber nun was wir meinen? Die Lösung liegt im Algorithmus, der aus den vorhanden Informationen Wahrscheinlichkeiten berechnet. 
Das vielfältige Inventar der Sprache wird für die digitale Verarbeitung in groß angelegten Sprachdatenbanken gesammelt und strukturiert. Metadaten versehen die Inhalte mit Bedeutungen und erlauben kontextuelle Bezüge. Intelligente Systeme schöpfen dann nicht nur aus den strukturierten Daten, sondern lernen bei jeder Verwendung dazu. Sie werden besser und besser. 
Dennoch: die menschliche Sprache – trotz ihrer unbegrenzten und mehrdeutigen Eigenschaften – zu formalisieren, fordert die Sprachtechnologie heraus. 
Ihre Berechnung beruht auf der Bedingung, abzählbare und eindeutige Daten zu verarbeiten. Und genau hier liegt das Hauptproblem: die menschliche Sprache ist bunt, dynamisch unbegrenzt und alles andere als eindeutig. 



Throwback

Auch wenn Sprachassistenten und ihre Technologie heute in aller Munde sind – ihre Geschichte begann deutlich früher, wenn auch auf Basis einer weit simpleren Mechanik.


1966 programmierte Joseph Weizenbaum Eliza und legte mit dem ersten intelligenten Assistenten einen Meilenstein in der technologischen Entwicklung. 
Das ursprüngliches Ziel des Informatikers war es, die Menschen ihrer Naivität zu überführen. 
 So setzte er den Chatbot Eliza unter anderem als Therapeuten Roger ein, um herauszufinden, ob Menschen sich von einem Computer täuschen lassen und ihre Probleme tatsächlich offenbaren. 
Das Ergebnis schockierte zumindest damals: nur eine Tastatur und einen Monitor von einem vermeintlichen Therapeuten getrennt, vertrauten die Klienten nahezu blind auf das Programm und gaben jede Menge von sich Preis. 




Übrig blieb der sogenannte „Eliza-Effekt“ – er bezeichnet bis heute den leichtfertigen Umgang in der Kommunikation zwischen Mensch und Maschine.


2020 Use Data To Lead