Ärzte Zeitung online, 16.02.2009

Sprachcomputer sollen bald Gefühle erkennen können

STUTTGART (eb). Wissenschaftler des Lehrstuhls für Systemtheorie und Signalverarbeitung der Uni Stuttgart suchen nach Wegen, damit Sprachcomputer auch Gemütsbewegungen verstehen können. Solche intelligenten Sprachcomputer sind etwa interessant für Call-Center oder im medizinischen Bereich. Aber auch für Fahrerassistenz-Systemen: Sie könnten erkennen, ob der Fahrer gerade im Stress ist.

Wenn zwei Menschen miteinander sprechen, nehmen sie zweierlei wahr: Den Inhalt des Gesagten, aber auch Emotionen, die dadurch zum Ausdruck kommen, wie etwas gesagt wird. Die Sprachkommunikation besteht aus zwei Ebenen: dem linguistischen (oder expliziten) sowie dem paralinguistischen (oder impliziten) Kommunikationskanal.

Über den ersten Kanal wird der Inhalt der Sprachkonversation ausgetauscht: Was wurde gesprochen? Über den zweiten Kanal werden alle darüber hinausgehenden Informationen, also der paralinguistische Anteil der Sprachäußerung, kommuniziert: Wie wurde es gesprochen?

Solche paralinguistischen Eigenschaften sind etwa das Alter und das Geschlecht der Sprecher, die in einer Sprachäußerung gespiegelte Emotion (normal, Wut, Glück, Trauer), die so genannte Stimmqualität (modal, hauchend, rau, knarrig), medizinische Auffälligkeiten in der Stimmgebung oder auch Stress und Nervosität. Auch Informationen über die regionale (Dialekt) oder soziale Herkunft gehören zu den paralinguistischen Eigenschaften.

Diese paralinguistischen Eigenschaften des Gesprochenen können von Systemen zur automatischen Spracherkennung wie in einer Telefonanlage bisher nicht erkannt werden. Anders die Menschen: Sie können aus einer Sprachkonversation den inhaltlichen wie auch den paralinguistischen Informationsstrom gleichzeitig extrahieren und gemeinsam auswerten.

Beim Gespräch zwischen Mensch und Computer, also an der akustischen Mensch-Computer-Schnittstelle, hat man sich allerdings bis heute fast ausschließlich auf den ersten Kommunikationskanal konzentriert. Diese automatische Erkennung des gesprochenen Textes aus den Sprachsignalen ist bekannt als Spracherkennung.

Dagegen ist die automatische Erkennung der paralinguistischen Eigenschaften aus Sprachsignalen ein noch junges Forschungsfeld, das zunehmendes Interesse erweckt. Die mathematischen Methoden und Algorithmen, die dies ermöglichen sollen, stammen aus dem Gebiet der Mustererkennung, eines Zweiges der statistischen Signalverarbeitung.

Wie die Spracherkennung besteht auch die Emotionserkennung aus mehreren Schritten: So werden zunächst emotional bewertete Sprachdatenbanken erstellt, anhand derer das Erkennungssystem trainiert werden kann. Dann werden Merkmale aus den Sprachsignalen berechnet, die sich bezüglich verschiedener Emotionen besonders gut unterscheiden lassen.

Es folgen eine Auswahl der sinnvollsten Merkmale sowie der Entwurf und die Optimierung eines lernfähigen Erkennungssystems, das aus den Daten die Entscheidungsregel für die Emotionserkennung selbst extrahiert. Schließlich wird der "Erkenner" trainiert und mit unbekannten Testdaten validiert.

Bei der Berechnung der Merkmale stellte sich allerdings heraus, dass die in der Spracherkennung etablierten Merkmale für die Emotionserkennung nur bedingt nützlich sind, weil sich die linguistischen und paralinguistischen Informationen an unterschiedlichen Stellen der Sprachsignale verstecken. Bis die automatische Emotionserkennung für einen praktischen Einsatz ausgereift ist, sind deshalb noch viele Forschungsarbeiten nötig.

Doch der Aufwand lohnt sich, denn die Anwendungen für die Emotionserkennung aus Sprachsignalen sind vielfältig. Interessenten finden sich in Callcentern ebenso wie im medizinischen Bereich. In Fahrerassistenzsystemen könnte die Technologie detektieren, ob der Fahrer gerade im Stress ist.

Zudem könnte die konventionelle Spracherkennung verbessert werden, weil die emotionale Färbung einer Sprachäußerung oft mit dem Inhalt des Gesagten verbunden ist: Das Schimpfwort "Mist" und das Grußwort "Herzlichen Glückwunsch" sind immer mit unterschiedlichen Emotionen verbunden. In der umgekehrten Richtung sollen die Erkenntnisse aus der Emotionserkennung auch dazu beitragen, die synthetisierte Sprache des Sprachcomputers emotionaler zu gestalten.

Schreiben Sie einen Kommentar

Überschrift

Text

Künstliche Herzklappe raubt oft den Schlaf

Fast ein Viertel aller Patienten mit einer mechanischen Herzklappe klagt über Schlafstörungen. Die Ursache hat eine einfache Erklärung. mehr »

Diese Videos sollten Sie unbedingt sehen

Digitalisierung, Angst vor Veränderung, Wunschminister: Die Ärztezeitung fasst für Sie die wichtigen Themen in kurzen Videos zusammen. mehr »

Massive Technik-Pannen behindern Ärztetag weiterhin

Nicht einsehbare Anträge, verschobene Abstimmungen: Technische Probleme machen Delegierten und Journalisten auf dem Ärztetag arg zu schaffen. mehr »