{"id":40466,"date":"2025-06-26T12:30:29","date_gmt":"2025-06-26T10:30:29","guid":{"rendered":"https:\/\/www.l3s.de\/?p=40466"},"modified":"2025-06-26T13:03:51","modified_gmt":"2025-06-26T11:03:51","slug":"understanding-developing-and-openly-sharing-emotional-ai","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/understanding-developing-and-openly-sharing-emotional-ai\/","title":{"rendered":"Emotionale KI verstehen, entwickeln und offen teilen"},"content":{"rendered":"<p>Kann eine K\u00fcnstliche Intelligenz (KI) erkennen, ob jemand fr\u00f6hlich, gestresst oder verlegen ist \u2013 und einf\u00fchlsam darauf reagieren? Genau das ist Ziel des Projekts EmoNet, einer offenen Plattform zur Entwicklung emotionaler KI, die menschliche Gef\u00fchle besser versteht und in ihre Reaktionen einbezieht.<\/p>\n\n\n\n<p>Die TIB \u2013 Leibniz-Informationszentrum Technik und Naturwissenschaften und das Forschungszentrum L3S der Leibniz Universit\u00e4t Hannover unterst\u00fctzen dieses zukunftsweisende Vorhaben des gemeinn\u00fctzigen Vereins LAION e.\u202f V. und des Technologieunternehmens Intel mit ihrer wissenschaftlichen Expertise. Ihr Beitrag: die Analyse und Auswertung von Modellen sowie ihr Know-how in neuro-symbolischer KI \u2013 einer Technik, die maschinelles Lernen mit logischem Denken verbindet.<\/p>\n\n\n\n<p>\u201eMit EmoNet leisten wir einen wichtigen Beitrag, K\u00fcnstliche Intelligenz menschlicher, empathischer und zug\u00e4nglicher zu machen. Die Verbindung unserer Forschung zu symbolischer KI mit den innovativen Methoden von LAION zeigt, wie wichtig offene Wissenschaft und interdisziplin\u00e4re Zusammenarbeit sind\u201c, erkl\u00e4rt Prof. Dr. S\u00f6ren Auer, Direktor der TIB und Mitglied des Direktoriums des Forschungszentrums L3S.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Was ist emotionale KI?<\/h4>\n\n\n\n<p>Emotionale KI \u2013 auch bekannt als Affective Computing \u2013 umfasst Systeme, die Gef\u00fchle in Sprache, Gesichtsausdruck und Verhalten erkennen und darauf reagieren k\u00f6nnen. Ziel ist nicht nur das Erkennen einfacher Emotionen wie Wut oder Freude, sondern ein tiefes Verst\u00e4ndnis f\u00fcr Zust\u00e4nde wie Verlegenheit, M\u00fcdigkeit oder Konzentration.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Einsatzm\u00f6glichkeiten: Wo emotionale KI helfen kann<\/h4>\n\n\n\n<p>Der Einsatz emotionaler KI erm\u00f6glicht es Systemen, menschliche Gef\u00fchle wahrzunehmen und empathisch darauf zu reagieren \u2013 so wird der Umgang mit Menschen deutlich verbessert. Die Einsatzm\u00f6glichkeiten emotionaler KI sind vielf\u00e4ltig, wie die folgenden Beispiele zeigen:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Lern-Apps<\/strong>&nbsp;,  die erkennen, wenn Sch\u00fcler \u00fcberfordert sind, und sich anpassen.<\/li>\n\n\n\n<li><strong>Gesundheitsanwendungen&nbsp;<\/strong>, die fr\u00fche Anzeichen von Stress oder Depression erfassen.<\/li>\n\n\n\n<li><strong>Virtuelle Assistenten&nbsp;<\/strong>, die beruhigend sprechen, wenn Angst oder Unsicherheit erkannt werden.<\/li>\n<\/ul>\n\n\n\n<h4 class=\"wp-block-heading\">EmoNet: die technische Grundlage<\/h4>\n\n\n\n<p>Das Projekt EmoNet ist eine offene Forschungsinitiative, eine umfangreiche Sammlung von Datens\u00e4tzen und Modellen zur Verf\u00fcgung stellt, die es KI-Systemen erm\u00f6glichen, menschliche Emotionen in Sprache und Mimik zu erkennen und darauf empathisch zu reagieren. Zentrale Bestandteile des Projekts sind:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li>\u00fcber 200.000 synthetisch erzeugte Gesichter mit emotionalen Ausdr\u00fccken,<\/li>\n\n\n\n<li>mehr als 5.000 Stunden computergenerierte Sprache in vier Sprachen und zahlreichen Dialekten,<\/li>\n\n\n\n<li>eine fein abgestufte Klassifikation von 40 emotionalen Zust\u00e4nde, von Scham \u00fcber Stolz bis Schmerz,<\/li>\n\n\n\n<li>sorgf\u00e4ltige emotionale Einordnung durch Experten aus der Psychologie \u2013 sowohl in Bild als auch in Ton.<\/li>\n<\/ul>\n\n\n\n<p>Die entwickelten Modelle \u2013 Empathic Insight-Face und Empathic Insight-Voice \u2013 erreichen bereits heute eine Bild-Emotionserkennung, die vielen kommerziellen Systemen \u00fcberlegen ist. Herausforderungen bestehen weiter in der differenzierten Erkennung kulturell gepr\u00e4gter oder gemischter Gef\u00fchlszust\u00e4nde.<\/p>\n\n\n\n<p>\u201eDie Kooperation mit der TIB war f\u00fcr EmoNet ein gro\u00dfer Gewinn. Dank ihrer Expertise konnten wir komplexe emotionale Zusammenh\u00e4nge verl\u00e4sslich evaluieren. Wir freuen uns auf die Fortsetzung dieser fruchtbaren Zusammenarbeit \u2013 f\u00fcr eine empathischere KI-Forschung, die offen, sicher und f\u00fcr alle nutzbar ist\u201c, so Christoph Schuhmann, Vorsitzender von LAION e. V.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Forschung zum Anfassen: EmoNet ist offen zug\u00e4nglich<\/h4>\n\n\n\n<p>Die EmoNet-Modelle sind \u00fcber die Plattform Hugging Face frei verf\u00fcgbar und k\u00f6nnen direkt im Browser oder per Colab-Notebook getestet werden. Entwickler, Forschende und Interessierte sind eingeladen, mitzumachen und die Systeme weiterzuentwickeln.<\/p>\n\n\n\n<h4 class=\"wp-block-heading\">Ausblick: Emotionale KI f\u00fcr eine empathischere digitalen Zukunft<\/h4>\n\n\n\n<p>Die EmoNet-Modelle sind \u00fcber die Plattform Hugging Face frei verf\u00fcgbar und k\u00f6nnen direkt im Browser oder per Colab-Notebook getestet werden. Entwickler, Forschende und Interessierte sind eingeladen, mitzumachen und die Systeme weiterzuentwickeln.<\/p>\n\n\n\n<p>LAION, TIB und L3S arbeiten gemeinsam mit Partnern daran, multimodale KI-Systeme zu schaffen, die Sprache, Mimik und Kontext ganzheitlich verstehen k\u00f6nnen. Denn digitale Systeme, die nicht nur funktionieren, sondern auch mitf\u00fchlen und besser auf menschliche Bed\u00fcrfnisse und Emotionen eingehen k\u00f6nnen, bilden die Grundlage f\u00fcr eine empathischere digitale Zukunft.<\/p>\n\n\n\n<p>Ein Ziel der n\u00e4chsten Phase ist unter anderem der Aufbau einer offenen, mehrsprachigen Datensammlung mit \u00fcber 500.000 Stunden synthetischer Sprache \u2013 offen und lizenzfrei nutzbar f\u00fcr Forschung, Bildung und Gesellschaft.<\/p>\n\n\n\n<p>N\u00e4here Informationen im&nbsp;<a href=\"https:\/\/laion.ai\/blog\/do-they-see-what-we-see\/\" target=\"_blank\" rel=\"noreferrer noopener\">LAION blog<\/a><\/p>\n\n\n\n<p><em>Quelle: <a href=\"https:\/\/www.tib.eu\/\" title=\"TIB\">TIB<\/a><\/em><\/p>\n\n\n\n<p><\/p>","protected":false},"excerpt":{"rendered":"<p>L3S und TIB unterst\u00fctzen innovatives LAION-Projekt zu empathischer KI<\/p>","protected":false},"author":6,"featured_media":40467,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[10],"tags":[],"class_list":["post-40466","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-news"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/40466","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/6"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=40466"}],"version-history":[{"count":5,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/40466\/revisions"}],"predecessor-version":[{"id":40473,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/40466\/revisions\/40473"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/40467"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=40466"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=40466"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=40466"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}