Kann eine Künstliche Intelligenz (KI) erkennen, ob jemand fröhlich, gestresst oder verlegen ist – und einfühlsam darauf reagieren? Genau das ist Ziel des Projekts EmoNet, einer offenen Plattform zur Entwicklung emotionaler KI, die menschliche Gefühle besser versteht und in ihre Reaktionen einbezieht.
Die TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften und das Forschungszentrum L3S der Leibniz Universität Hannover unterstützen dieses zukunftsweisende Vorhaben des gemeinnützigen Vereins LAION e. V. und des Technologieunternehmens Intel mit ihrer wissenschaftlichen Expertise. Ihr Beitrag: die Analyse und Auswertung von Modellen sowie ihr Know-how in neuro-symbolischer KI – einer Technik, die maschinelles Lernen mit logischem Denken verbindet.
„Mit EmoNet leisten wir einen wichtigen Beitrag, Künstliche Intelligenz menschlicher, empathischer und zugänglicher zu machen. Die Verbindung unserer Forschung zu symbolischer KI mit den innovativen Methoden von LAION zeigt, wie wichtig offene Wissenschaft und interdisziplinäre Zusammenarbeit sind“, erklärt Prof. Dr. Sören Auer, Direktor der TIB und Mitglied des Direktoriums des Forschungszentrums L3S.
Was ist emotionale KI?
Emotionale KI – auch bekannt als Affective Computing – umfasst Systeme, die Gefühle in Sprache, Gesichtsausdruck und Verhalten erkennen und darauf reagieren können. Ziel ist nicht nur das Erkennen einfacher Emotionen wie Wut oder Freude, sondern ein tiefes Verständnis für Zustände wie Verlegenheit, Müdigkeit oder Konzentration.
Einsatzmöglichkeiten: Wo emotionale KI helfen kann
Der Einsatz emotionaler KI ermöglicht es Systemen, menschliche Gefühle wahrzunehmen und empathisch darauf zu reagieren – so wird der Umgang mit Menschen deutlich verbessert. Die Einsatzmöglichkeiten emotionaler KI sind vielfältig, wie die folgenden Beispiele zeigen:
- Lern-Apps , die erkennen, wenn Schüler überfordert sind, und sich anpassen.
- Gesundheitsanwendungen , die frühe Anzeichen von Stress oder Depression erfassen.
- Virtuelle Assistenten , die beruhigend sprechen, wenn Angst oder Unsicherheit erkannt werden.
EmoNet: die technische Grundlage
Das Projekt EmoNet ist eine offene Forschungsinitiative, eine umfangreiche Sammlung von Datensätzen und Modellen zur Verfügung stellt, die es KI-Systemen ermöglichen, menschliche Emotionen in Sprache und Mimik zu erkennen und darauf empathisch zu reagieren. Zentrale Bestandteile des Projekts sind:
- über 200.000 synthetisch erzeugte Gesichter mit emotionalen Ausdrücken,
- mehr als 5.000 Stunden computergenerierte Sprache in vier Sprachen und zahlreichen Dialekten,
- eine fein abgestufte Klassifikation von 40 emotionalen Zustände, von Scham über Stolz bis Schmerz,
- sorgfältige emotionale Einordnung durch Experten aus der Psychologie – sowohl in Bild als auch in Ton.
Die entwickelten Modelle – Empathic Insight-Face und Empathic Insight-Voice – erreichen bereits heute eine Bild-Emotionserkennung, die vielen kommerziellen Systemen überlegen ist. Herausforderungen bestehen weiter in der differenzierten Erkennung kulturell geprägter oder gemischter Gefühlszustände.
„Die Kooperation mit der TIB war für EmoNet ein großer Gewinn. Dank ihrer Expertise konnten wir komplexe emotionale Zusammenhänge verlässlich evaluieren. Wir freuen uns auf die Fortsetzung dieser fruchtbaren Zusammenarbeit – für eine empathischere KI-Forschung, die offen, sicher und für alle nutzbar ist“, so Christoph Schuhmann, Vorsitzender von LAION e. V.
Forschung zum Anfassen: EmoNet ist offen zugänglich
Die EmoNet-Modelle sind über die Plattform Hugging Face frei verfügbar und können direkt im Browser oder per Colab-Notebook getestet werden. Entwickler, Forschende und Interessierte sind eingeladen, mitzumachen und die Systeme weiterzuentwickeln.
Ausblick: Emotionale KI für eine empathischere digitalen Zukunft
Die EmoNet-Modelle sind über die Plattform Hugging Face frei verfügbar und können direkt im Browser oder per Colab-Notebook getestet werden. Entwickler, Forschende und Interessierte sind eingeladen, mitzumachen und die Systeme weiterzuentwickeln.
LAION, TIB und L3S arbeiten gemeinsam mit Partnern daran, multimodale KI-Systeme zu schaffen, die Sprache, Mimik und Kontext ganzheitlich verstehen können. Denn digitale Systeme, die nicht nur funktionieren, sondern auch mitfühlen und besser auf menschliche Bedürfnisse und Emotionen eingehen können, bilden die Grundlage für eine empathischere digitale Zukunft.
Ein Ziel der nächsten Phase ist unter anderem der Aufbau einer offenen, mehrsprachigen Datensammlung mit über 500.000 Stunden synthetischer Sprache – offen und lizenzfrei nutzbar für Forschung, Bildung und Gesellschaft.
Nähere Informationen im LAION blog
Quelle: TIB