{"id":42623,"date":"2026-02-25T16:18:30","date_gmt":"2026-02-25T15:18:30","guid":{"rendered":"https:\/\/www.l3s.de\/?p=42623"},"modified":"2026-02-25T16:35:21","modified_gmt":"2026-02-25T15:35:21","slug":"fed-fuel-strengthens-fairness-in-federated-learning","status":"publish","type":"post","link":"https:\/\/www.l3s.de\/de\/fed-fuel-strengthens-fairness-in-federated-learning\/","title":{"rendered":"Fed-FUEL st\u00e4rkt Fairness im Federated Learning\u00a0"},"content":{"rendered":"<p><strong>L3S Beste Ver\u00f6ffentlichung des Quartals (Q3+Q4\/2025)<\/strong>\u00a0<br><strong>Category: Federated Learning<\/strong>\u00a0<\/p>\n\n\n\n<p style=\"font-size:23px\"><strong>Fed-FUEL: fairness and utility enhancing agnostic federated learning framework<\/strong>&nbsp;<\/p>\n\n\n\n<p>Autoren: M. Badar, R. Younis, S. Sikdar, W. Nejdl, M. Fisichella\u00a0<\/p>\n\n\n\n<p>Erschienen in\u00a0<a href=\"https:\/\/link.springer.com\/journal\/10618\" target=\"_blank\" rel=\"noopener\" title=\"\"><em>Data Mining and Knowledge Discovery<\/em><\/a><\/p>\n\n\n\n<div style=\"height:23px\" aria-hidden=\"true\" class=\"wp-block-spacer\"><\/div>\n\n\n\n<p><strong>Die Studie in K\u00fcrze<\/strong>:\u00a0<\/p>\n\n\n\n<p>K\u00fcnstliche Intelligenz wird zunehmend in sensiblen Bereichen wie Gesundheitswesen, Finanzwesen und \u00f6ffentlicher Verwaltung eingesetzt. H\u00e4ufig d\u00fcrfen Daten aus Datenschutzgr\u00fcnden jedoch nicht zentral zusammengef\u00fchrt werden. Stattdessen trainieren Organisationen KI-Systeme gemeinschaftlich mithilfe von sogenanntem Federated Learning. Dabei besteht jedoch die Gefahr, dass die Modelle unbeabsichtigt unfair werden \u2013 insbesondere, wenn die Datenverteilungen der beteiligten Institutionen stark variieren.&nbsp;<\/p>\n\n\n\n<p>Die vorliegende Arbeit stellt mit Fed-FUEL eine neue Methode vor, die f\u00f6derierte KI-Systeme zugleich genau, fair und datenschutzkonform h\u00e4lt. Der Ansatz reduziert die Benachteiligung gesch\u00fctzter Gruppen und stellt sicher, dass seltene, aber wichtige F\u00e4lle nicht \u00fcbersehen werden \u2013 bei gleichzeitigem Schutz der Privatsph\u00e4re. Das Ergebnis ist ein vertrauensw\u00fcrdigeres KI-Framework f\u00fcr verantwortungsvolle Entscheidungen in realen Anwendungen.&nbsp;<\/p>\n\n\n\n<p><strong>Welches Problem l\u00f6sen Sie mit Ihrer Forschung?<\/strong>&nbsp;<\/p>\n\n\n\n<p>KI-Systeme, die organisations\u00fcbergreifend trainiert werden, k\u00f6nnen bestimmte demografische Gruppen unbeabsichtigt benachteiligen \u2013 insbesondere bei unausgewogenen oder ungleich verteilten Daten. Die Forschung bietet eine praktikable L\u00f6sung, um solche Verzerrungen zu reduzieren und gleichzeitig eine hohe Vorhersagequalit\u00e4t zu erhalten \u2013 ohne \u00c4nderungen an den zugrunde liegenden Lernalgorithmen.&nbsp;<\/p>\n\n\n\n<p><strong>W<\/strong><strong>e<\/strong><strong>lches Potenzial haben die Ergebnisse?<\/strong>&nbsp;<\/p>\n\n\n\n<p>Fed-FUEL unterst\u00fctzt Organisationen dabei, f\u00f6derierte KI-Systeme einzusetzen, die sowohl fair als auch leistungsf\u00e4hig sind. So kann verhindert werden, dass automatisierte Entscheidungen systematisch gesch\u00fctzte Gruppen benachteiligen, w\u00e4hrend die Vorhersageg\u00fcte erhalten bleibt. Besonders relevant ist dies in Bereichen wie Kreditvergabe, Personalrekrutierung oder Gesundheitswesen, in denen Datenschutzanforderungen eine zentrale Datenspeicherung verhindern und Fairness gesellschaftlich von hoher Bedeutung ist.\u00a0<\/p>\n\n\n\n<p><strong>Was ist neu und warum ist das wichtig?<\/strong>&nbsp;<\/p>\n\n\n\n<p>1.\u202f\u202f\u202f\u202f\u202f\u202f<strong>Modellunabh\u00e4ngige Fairness im Federated Learning:<\/strong>Eine Vorverarbeitungsmethode, die keine Anpassung des Lernalgorithmus erfordert und daher flexibel einsetzbar ist.\u00a0<\/p>\n\n\n\n<p>2.\u202f\u202f\u202f\u202f\u202f\u202f<strong>Fairness, Nutzen und Datenschutz kombiniert:<\/strong>Ein neuartiger adaptiver, SMOTE-basierter Ansatz zur Datenmanipulation, der Diskriminierung reduziert, Klassenungleichgewichte adressiert und Datenschutzaspekte ber\u00fccksichtigt. Zudem wird gezeigt, warum Balanced Accuracy f\u00fcr eine glaubw\u00fcrdige Evaluation entscheidend ist.\u00a0<\/p>\n\n\n\n<p>3.\u202f\u202f\u202f\u202f\u202f\u202f<strong>Unterst\u00fctzung statistischer und kausaler Fairness-Konzepte:<\/strong>Das Framework ist mit verschiedenen Fairness-Begriffen kompatibel \u2013 einschlie\u00dflich eines kausalen Ansatzes (FACE) \u2013 und wurde experimentell validiert.&nbsp;<\/p>\n\n\n\n<figure class=\"wp-block-image size-large is-resized\"><img decoding=\"async\" width=\"1024\" height=\"768\" data-src=\"https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-1024x768.jpg\" alt=\"\" class=\"wp-image-42625 lazyload\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/768;width:565px;height:auto\" data-srcset=\"https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-1024x768.jpg 1024w, https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-300x225.jpg 300w, https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-768x576.jpg 768w, https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-1536x1152.jpg 1536w, https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-2048x1536.jpg 2048w, https:\/\/www.l3s.de\/wp-content\/uploads\/2026\/02\/Badar_FedFuel-16x12.jpg 16w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" \/><\/figure>\n\n\n\n<p>Link zum Paper:<a href=\"https:\/\/link.springer.com\/article\/10.1007\/s10618-025-01152-0\" target=\"_blank\" rel=\"noreferrer noopener\">https:\/\/link.springer.com\/article\/10.1007\/s10618-025-01152-0<\/a>\u00a0<\/p>","protected":false},"excerpt":{"rendered":"<p>Fed-FUEL erm\u00f6glicht faire, leistungsstarke und datenschutzkonforme KI im f\u00f6derierten Lernen \u2013 ohne Anpassung der zugrundeliegenden Modelle und mit besonderem Fokus auf den Schutz benachteiligter Gruppen. <\/p>","protected":false},"author":11,"featured_media":42624,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[161],"tags":[],"class_list":["post-42623","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-best-publications"],"acf":[],"aioseo_notices":[],"publishpress_future_workflow_manual_trigger":{"enabledWorkflows":[]},"_links":{"self":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/42623","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/users\/11"}],"replies":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/comments?post=42623"}],"version-history":[{"count":1,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/42623\/revisions"}],"predecessor-version":[{"id":42626,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/posts\/42623\/revisions\/42626"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media\/42624"}],"wp:attachment":[{"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/media?parent=42623"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/categories?post=42623"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.l3s.de\/de\/wp-json\/wp\/v2\/tags?post=42623"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}