{"id":42611,"date":"2026-02-23T13:33:07","date_gmt":"2026-02-23T12:33:07","guid":{"rendered":"https:\/\/www.l3s.de\/?p=42611"},"modified":"2026-02-23T13:33:15","modified_gmt":"2026-02-23T12:33:15","slug":"emonet-face-a-new-emotion-vocabulary-for-more-empathic-and-fairer-ai","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/emonet-face-a-new-emotion-vocabulary-for-more-empathic-and-fairer-ai\/","title":{"rendered":"EmoNetFace: Ein neues EmotionsVokabular f\u00fcr empathische und faire KI"},"content":{"rendered":"<p><strong>L3S Beste Ver\u00f6ffentlichung des Quartals (Q3+Q4\/2025<\/strong>)<br><strong>Kategorie: Emotion Recognition<\/strong>\u00a0<\/p>\n\n\n\n<p style=\"font-size:23px\"><strong>EmoNet-Face: An Expert-Annotated Benchmark for Synthetic Emotion Recognition<\/strong><\/p>\n\n\n\n<p>Autoren: Christoph Schuhmann \u00b7 Robert Kaczmarczyk \u00b7 Gollam Rabby \u00b7 Maurice Kraus \u00b7 Felix Friedrich \u00b7 Huu Nguyen \u00b7 Kalyan Sai Krishna \u00b7 Kourosh Nadi \u00b7 Kristian Kersting \u00b7 S\u00f6ren Auer\u00a0<\/p>\n\n\n\n<p><em>Pr\u00e4sentiert bei\u00a0<\/em><a href=\"https:\/\/neurips.cc\/\" target=\"_blank\" rel=\"noreferrer noopener\"><em>NeurIPS\u00a02025<\/em><\/a><\/p>\n\n\n\n<div style=\"height:23px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Die Studie in K\u00fcrze<\/strong>:<\/p>\n\n\n\n<p>Damit KI in der realen Welt wirklich n\u00fctzlich sein kann, muss sie die subtilen Nuancen menschlicher Gef\u00fchle verstehen. Die meisten aktuellen Systeme erkennen jedoch nur wenige grundlegende Emotionen und weisen oft versteckte Vorurteile auf. Unsere Forschung, EmoNet Face, schlie\u00dft diese L\u00fccke, indem sie ein ausgekl\u00fcgeltes \u201eEmotionsvokabular\u201d mit 40 verschiedenen Zust\u00e4nden einf\u00fchrt, das \u00fcber einfache Gef\u00fchle wie Freude oder Traurigkeit hinausgeht und komplexe Gef\u00fchle wie Bitterkeit und Scham erfasst. Um sicherzustellen, dass die Technologie f\u00fcr alle fair funktioniert, haben wir einen umfangreichen, demografisch ausgewogenen Datensatz entwickelt, der verschiedene Altersgruppen, Geschlechter und Ethnien mit hochwertigen, klaren Bildern repr\u00e4sentiert. Das Ergebnis ist ein System, das menschliche Ausdrucksformen genauso genau erkennt wie ein menschlicher Experte und eine zuverl\u00e4ssige und inklusive Grundlage f\u00fcr die n\u00e4chste Generation empathischer KI bietet.&nbsp;<\/p>\n\n\n\n<p><strong>Welches Problem l\u00f6sen Sie mit Ihrer Forschung?<\/strong>&nbsp;<\/p>\n\n\n\n<p>Das grundlegende Problem, mit dem wir uns befassen, ist, dass die heutige KI oft \u201eemotional blind\u201d und unbeabsichtigt voreingenommen ist, was sie f\u00fcr sensible Anwendungen in der realen Welt unzuverl\u00e4ssig macht. Die meisten KI-Systeme erkennen nur eine Handvoll grundlegender Emotionen und haben h\u00e4ufig Schwierigkeiten, zwischen subtilen, aber wichtigen Gef\u00fchlen zu unterscheiden, wie beispielsweise dem Unterschied zwischen einfacher Traurigkeit und komplexer Scham. Da viele KI-Modelle au\u00dferdem mit begrenzten, zuf\u00e4lligen Datens\u00e4tzen trainiert wurden, funktionieren sie oft nicht pr\u00e4zise f\u00fcr verschiedene Ethnien, Altersgruppen und Geschlechter. Unsere Forschung ersetzt diese \u201estumpfen Instrumente\u201d durch EmoNet Face, ein pr\u00e4zises Toolkit, das KI trainiert, 40 verschiedene emotionale Zust\u00e4nde zu verstehen, und gleichzeitig sicherstellt, dass die Technologie f\u00fcr alle Menschen, unabh\u00e4ngig von ihrem Hintergrund, fair und pr\u00e4zise funktioniert.&nbsp;<\/p>\n\n\n\n<p>Link zum vollst\u00e4ndigen Artikel:&nbsp;<a href=\"https:\/\/arxiv.org\/abs\/2505.20033\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/arxiv.org\/abs\/2505.20033<\/a>&nbsp;<\/p>","protected":false},"excerpt":{"rendered":"<p>With its 40 finely graded emotional states and balanced dataset, EmoNet Face bridges the gap between &#8217;emotionally blind&#8217; AI and the emotional perception of human experts. <\/p>","protected":false},"author":11,"featured_media":42612,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[161],"tags":[],"class_list":["post-42611","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-best-publications"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/42611","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=42611"}],"version-history":[{"count":1,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/42611\/revisions"}],"predecessor-version":[{"id":42613,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/42611\/revisions\/42613"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/42612"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=42611"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=42611"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=42611"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}