Aktuelle Beiträge
Lade Beiträge…
📰 Alle Beiträge 📬 Newsletter
Feld

Emotion AI

Emotion AI (auch Affective Computing) bezeichnet KI-Systeme, die menschliche Emotionen erkennen, interpretieren und darauf reagieren — durch Analyse von Gesichtsausdrücken, Sprachton, Körperhaltung oder Textinhalt.

Das Feld wurde von Rosalind Picard am MIT Media Lab begründet, die 1997 das Buch „Affective Computing" veröffentlichte. Die Vision: Computer, die nicht nur rational handeln, sondern auch emotional intelligent sind.

Die Technologien: Facial Action Coding System (FACS) analysiert Gesichtsmuskelbewegungen und ordnet sie Emotionen zu (Freude, Trauer, Wut, Überraschung, Ekel, Angst). Sentiment Analysis klassifiziert Textinhalte nach emotionaler Valenz. Voice Analytics erkennt emotionale Hinweise in der Stimme (Tonhöhe, Tempo, Pausen). Physiologische Sensoren messen Hautleitfähigkeit, Herzrate und Atemfrequenz.

Die Kritik ist beträchtlich. Lisa Feldman Barrett, eine führende Emotionsforscherin, argumentiert in „How Emotions Are Made" (2017), dass die Zuordnung fester Gesichtsausdrücke zu universellen Emotionen wissenschaftlich unhaltbar ist. Ein Lächeln kann Freude, Nervosität, Höflichkeit oder Sarkasmus bedeuten — der Kontext entscheidet. Emotion AI, die kontextfrei Gesichter analysiert, produziert systematische Fehlschlüsse.

Anwendungsfelder trotz der Kritik: Kundenservice (Frustration erkennen, bevor der Kunde auflegt), Automotive (Müdigkeitserkennung), Marktforschung (Reaktionen auf Werbung) und Mental Health (Depressionsindikatoren in Sprache). Der EU AI Act klassifiziert Emotion AI in Bildung und am Arbeitsplatz als eingeschränkt.

Human