Direkt zum Inhalt
Ethische und rechtliche Standards für künstliche Intelligenz

Auf künstlicher Intelligenz (KI) basierende Systeme treffen schon jetzt in vielen Bereichen Entscheidungen, die jeden Einzelnen überall und jederzeit betreffen können – mit weitreichenden Auswirkungen auch auf die Gesellschaft als Ganzes. Suchmaschinen, Internet-Empfehlungssysteme und Social-Media-Bots verwenden KI-Systeme und beeinflussen damit unsere Wahrnehmung politischer Entwicklungen und sogar wissenschaftlicher Erkenntnisse. Unternehmen nutzen KI in Einstellungsverfahren, Banken für die Kreditvergabe. Wenn aber künstliche Intelligenz Entscheidungen trifft, bringt das Risiken mit sich: zum Beispiel Diskriminierung. Denn auch das maschinelle Gehirn ist nicht frei von Vorurteilen. KI-Systeme übernehmen beim Lernen aus Datensätzen auch die darin enthaltenen Stereotypen. So könnten Unternehmen Chancen verpassen, weil Voreingenommenheit dazu führt, dass KI-getriebene Entscheidungen unterdurchschnittliche Leistungen erbringen; viel schlimmer noch: sie könnten gegen Menschenrechte verstoßen. Eine Frage, mit der sich Wissenschaftlerinnen und Wissenschaftler am L3S befassen, lautet daher: Wie können Standards für unvoreingenommene Einstellungen und nichtdiskriminierende Praktiken bei der Analyse großer Datenmengen und algorithmusbasierter Entscheidungsfindung eingehalten werden?

 

Diskriminierung erkennen und beheben

Tatsächlich gibt es wachsende Bedenken, was die normative Qualität der KI-basierten Entscheidungen und Vorhersagen betrifft. Insbesondere mehren sich Hinweise, dass Algorithmen manchmal bestehende Verzerrungen und Diskriminierungen eher verstärken als beseitigen - mit möglichen negativen Auswirkungen auf den sozialen Zusammenhalt und auf demokratische Institutionen. Welche Rolle spielt also die Ethik bei solch einflussreichen Entscheidungsfindungssystemen?

In der Forschungsgruppe BIAS führen Expertinnen und Experten der Leibniz Universität Hannover die erkenntnistheoretischen sowie ethischen, rechtlichen und technischen Perspektiven zusammen. Die Volkswagen-Stiftung fördert die fakultätsübergreifende Forschungsinitiative im Rahmen der Ausschreibung „Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen“. Die Kernidee: Philosophen analysieren die ethische Dimension von Konzepten und Prinzipien im Kontext der KI (Voreingenommenheit, Diskriminierung, Fairness). Juristen untersuchen, ob sich die Prinzipien adäquat in den einschlägigen rechtlichen Rahmenbedingungen wiederfinden (Datenschutz, Verbraucher-, Wettbewerbs-, Antidiskriminierungsrecht). Und Informatiker entwickeln konkrete technische Lösungen, um  Diskriminierung zu erkennen und mit Debiasing-Strategien zu beheben.

Neben Wissenschaftlern des Instituts für Philosophie ist das L3S an BIAS beteiligt - mit den Professoren Tina Krügel, Eirini Ntoutsi, Wolfgang Nejdl, Christian Heinze und Bodo Rosenhahn als leitenden Forschern. Sie alle eint das Verständnis, dass nicht nur die Algorithmen, sondern das gesamte System von Computerprognosen und menschlichen Entscheidungen unvoreingenommen und nichtdiskriminierend sein sollte. Sie nehmen daher den gesamten Entscheidungsprozess und nicht nur einzelne Komponenten ins Visier.

https://www.bias-project.org/

 

KI mit Verantwortung

Wie auf KI basierende Entscheidungen verantwortungsvoll gestaltet werden können, ist auch Thema des europäischen Promotionsprogramms NoBias – Artificial Intelligence without Bias. Fünfzehn Doktorandinnen und Doktoranden an acht Institutionen in fünf Ländern gehen das Problem gemeinsam an: mit multidisziplinärer Forschung in Informatik, Datenwissenschaften, maschinellem Lernen sowie den Rechts- und Sozialwissenschaften. Das L3S ist mit den Professoren Eirini Ntoutsi, Maria-Esther Vidal, Christian Heinze, Tina Krügel, Sören Auer und Wolfgang Nejdl an NoBias beteiligt.

Voreingenommenheit kann in allen Phasen von KI-basierten Entscheidungsprozessen auftreten: wenn Daten gesammelt werden, wenn Algorithmen Daten in Entscheidungsfindungskapazität umwandeln und wenn die Ergebnisse angewendet werden. Um Diskriminierung zu vermeiden, reichen die üblichen KI-Methoden nicht aus. Die Nachwuchswissenschaftler entwickeln daher technische Lösungen, die ethische und rechtliche Prinzipien in das Training, das Design und den Einsatz der Algorithmen einbetten. Dafür müssen sie zunächst die rechtlichen, sozialen und technischen Herausforderungen verstehen. Neben der Entwicklung fairer Algorithmen für eine unvoreingenommene Entscheidungsfindung gehört zu den Zielen von NoBias, KI-Ergebnisse automatisch zu erklären und den gesamten Prozess der Datenherkunft transparent zu dokumentieren.

Praxisnähe stellt NoBias durch die Kooperation mit mehr als zehn assoziierten Partnerunternehmen aus den Bereichen Telekommunikation, Finanzen, Marketing, Medien, Software und Rechtsberatung her, die mit dem Know-how der Forscher KI-Innovationen rechtskonform vorantreiben können.

 

BIAS

 https://nobias-project.eu/

 

 

 

 

 

 

 

Kontakt:

 

Prof. Dr. Eirini Ntoutsi

ntoutsi@L3S.de

L3S-Mitglied Eirini Ntoutsi ist Projektkoordinatorin von NoBIAS und leitende Forscherin im Projekt BIAS.

                             

Dr. Vasileios Iosifidis

iosifidis@L3S.de

Vasileios Iosifidis ist wissenschaftlicher Mitarbeiter am L3S und Projektleiter von NoBIAS.

 

Arjun Roy

roy@L3S.de

Arjun Roy ist Doktorand am L3S und wissenschaftlicher Mitarbeiter im Projekt BIAS.