Direkt zum Inhalt
Fairness statt Vorurteile
Junges Paar wird beraten

Rechtsrahmen für KI-Anwendungen

Künstliche Intelligenz (KI) bietet für viele Wirtschafts- und Lebensbereiche ein enormes Optimierungspotential. Dabei treffen KI-basierte Systeme Entscheidungen, die weitreichende Auswirkungen auf jeden Einzelnen und auf die Gesellschaft als Ganzes haben können. KI-Entscheidungen eröffnen zwar viele Chancen, können aber auch Diskriminierungen erzeugen, etwa bei der Vergabe von Arbeitsplätzen oder Krediten. Der Grund kann in problematischen Trainingsdaten liegen, die in der Gesellschaft vorhandene Vorurteile widerspiegeln. Verzerrungen können aber auch erst auftreten, wenn Algorithmen Daten in Entscheidungen umwandeln oder wenn die Ergebnisse in Anwendungen genutzt werden. Der Einsatz von KI wirft damit auch rechtliche und ethische Fragen auf. Die Wissenschaft steht also nicht nur vor der Aufgabe, die Vorhersageleistung der KI-Algorithmen zu optimieren, sondern auch ethische und rechtliche Prinzipien in ihr Design, ihr Training und ihren Einsatz einzubeziehen.  

Bestandsaufnahme der Befangenheit 

Eine Reihe von Projekten am L3S verfolgt das Ziel, die rechtlichen, gesellschaftlichen und technischen Herausforderungen dieser Verzerrungen zu verstehen – und zu vermeiden. Auch das europäische Graduiertenkolleg Artificial Intelligence without Bias (NoBIAS) befasst sich mit dieser Thematik. Die beteiligten Wissenschaftler haben dabei die gesamte Entscheidungspipeline im Blick. Das übergeordnete Ziel: verstehen, wo die unterschiedlichen Ursachen für Vorurteile liegen, erkennen, wenn sie in Erscheinung treten, und ihre Auswirkungen auf Anwendungsergebnisse entschärfen. Fünfzehn Doktoranden an acht Institutionen in fünf Ländern gehen das Problem gemeinsam an: mit multidisziplinärer Forschung in Informatik, Datenwissenschaft, maschinellem Lernen sowie Rechts- und Sozialwissenschaften. Das L3S ist mit den Professoren Maria-Esther Vidal, Christian Heinze, Eirini Ntoutsi, Wolfgang Nejdl und weiteren Wissenschaftlern an NoBIAS beteiligt. In einer ersten Studie haben sie zusammen mit Professoren anderer Institutionen eine breite multidisziplinäre Bestandsaufnahme der Befangenheit in KI-Systemen durchgeführt. Die Studie konzentriert sich auf technische Herausforderungen und Lösungen des Problems und schlägt vor, neue Forschungswege einzuschlagen, deren Ansätze in einem rechtlichen Rahmen verankert sind. 

Interdisziplinäre Zusammenarbeit  

Wie greift man in die algorithmischen Komponenten KI-basierter Entscheidungssysteme ein, um faire und gerechte Systeme zu schaffen? Eine Antwort zu finden, wird durch die kontextabhängige Natur von Fairness und Diskriminierung erheblich erschwert. Moderne Entscheidungsfindungssysteme, bei denen es um die Zuteilung von Ressourcen oder Informationen an Personen geht - wie bei der Kreditvergabe, in der Werbung oder bei der Online-Suche - beziehen maschinell erlernte Vorhersagen in ihre Pipelines ein. Dabei kommen durchaus Bedenken auf: etwa hinsichtlich eines möglichen strategischen Verhaltens oder Einschränkungen bei der Zuteilung. Normalerweise befassen sich damit die Wirtschaftswissenschaften und die Spieltheorie. Gourab K. Patro vom Forschungszentrum L3S hat zusammen mit anderen Forschern aus aller Welt Probleme hinsichtlich Fairness und Diskriminierung in automatisierten Entscheidungsfindungssystemen aus der Perspektive des statistischen maschinellen Lernens, der Wirtschaftswissenschaften, der Spieltheorie und des Mechanismus-Designs untersucht. Die Wissenschaftler wollen gemeinsam ein umfassendes System schaffen, das die einzelnen Rahmenbedingungen der verschiedenen Disziplinen vereint. 

Fairness-bewusstes Lernen  

Datengesteuerte Algorithmen kommen in vielen Anwendungen zum Einsatz, in denen Daten in einer fortlaufenden Reihenfolge verfügbar werden. Die Modelle müssen daher regelmäßig aktualisiert werden. In solchen dynamischen Umgebungen, in denen sich die zugrundeliegenden Datenverteilungen mit der Zeit verändern, können einfache statische Lernansätze versagen. Fairness-bewusstes Lernen ist hier also keine einmalige Anforderung, sondern sollte kontinuierlich den gesamten Datenstrom umfassen. Professor Eirini Ntoutsi und Vasileios Iosifidis haben sich am L3S mit diesem Problem beschäftigt und einen Online-Boosting-Ansatz vorgeschlagen, der Fairness bei der Klassifizierung von Daten über den gesamten Datenstrom aufrechterhält. Dazu haben sie umfangreiche Experimente durchgeführt, die mögliche Anwendungen aufzeigen - etwa im Bankenwesen oder bei der Polizei.  

https://nobias-project.eu/ 

Kontakt:  

Wolfgang NejdlProf. Dr. techn. Wolfgang Nejdl 

nejdl@L3S.de 

Wolfgang Nejdl ist Direktor des L3S und Projektkoordinator von NoBIAS. 

 

Gourab PatroGourab K. Patro 

patro@L3S.de 

Gourab Patro ist Wissenschaftlicher Mitarbeiter am L3S und Projektleiter von NoBIAS.

 

DIH LogoNoBias Logo