L3S Beste Veröffentlichung des Quartals (Q3+Q4/2025)
Category: Federated Learning
Fed-FUEL: fairness and utility enhancing agnostic federated learning framework
Autoren: M. Badar, R. Younis, S. Sikdar, W. Nejdl, M. Fisichella
Erschienen in Data Mining and Knowledge Discovery
Die Studie in Kürze:
Künstliche Intelligenz wird zunehmend in sensiblen Bereichen wie Gesundheitswesen, Finanzwesen und öffentlicher Verwaltung eingesetzt. Häufig dürfen Daten aus Datenschutzgründen jedoch nicht zentral zusammengeführt werden. Stattdessen trainieren Organisationen KI-Systeme gemeinschaftlich mithilfe von sogenanntem Federated Learning. Dabei besteht jedoch die Gefahr, dass die Modelle unbeabsichtigt unfair werden – insbesondere, wenn die Datenverteilungen der beteiligten Institutionen stark variieren.
Die vorliegende Arbeit stellt mit Fed-FUEL eine neue Methode vor, die föderierte KI-Systeme zugleich genau, fair und datenschutzkonform hält. Der Ansatz reduziert die Benachteiligung geschützter Gruppen und stellt sicher, dass seltene, aber wichtige Fälle nicht übersehen werden – bei gleichzeitigem Schutz der Privatsphäre. Das Ergebnis ist ein vertrauenswürdigeres KI-Framework für verantwortungsvolle Entscheidungen in realen Anwendungen.
Welches Problem lösen Sie mit Ihrer Forschung?
KI-Systeme, die organisationsübergreifend trainiert werden, können bestimmte demografische Gruppen unbeabsichtigt benachteiligen – insbesondere bei unausgewogenen oder ungleich verteilten Daten. Die Forschung bietet eine praktikable Lösung, um solche Verzerrungen zu reduzieren und gleichzeitig eine hohe Vorhersagequalität zu erhalten – ohne Änderungen an den zugrunde liegenden Lernalgorithmen.
Welches Potenzial haben die Ergebnisse?
Fed-FUEL unterstützt Organisationen dabei, föderierte KI-Systeme einzusetzen, die sowohl fair als auch leistungsfähig sind. So kann verhindert werden, dass automatisierte Entscheidungen systematisch geschützte Gruppen benachteiligen, während die Vorhersagegüte erhalten bleibt. Besonders relevant ist dies in Bereichen wie Kreditvergabe, Personalrekrutierung oder Gesundheitswesen, in denen Datenschutzanforderungen eine zentrale Datenspeicherung verhindern und Fairness gesellschaftlich von hoher Bedeutung ist.
Was ist neu und warum ist das wichtig?
1. Modellunabhängige Fairness im Federated Learning:Eine Vorverarbeitungsmethode, die keine Anpassung des Lernalgorithmus erfordert und daher flexibel einsetzbar ist.
2. Fairness, Nutzen und Datenschutz kombiniert:Ein neuartiger adaptiver, SMOTE-basierter Ansatz zur Datenmanipulation, der Diskriminierung reduziert, Klassenungleichgewichte adressiert und Datenschutzaspekte berücksichtigt. Zudem wird gezeigt, warum Balanced Accuracy für eine glaubwürdige Evaluation entscheidend ist.
3. Unterstützung statistischer und kausaler Fairness-Konzepte:Das Framework ist mit verschiedenen Fairness-Begriffen kompatibel – einschließlich eines kausalen Ansatzes (FACE) – und wurde experimentell validiert.

Link zum Artikel: https://link.springer.com/article/10.1007/s10618-025-01152-0
