Direkt zum Inhalt

KI-Techniken, die auf großen Datenmengen und algorithmischer Verarbeitung basieren, werden zunehmend eingesetzt, um Entscheidungen in wichtigen gesellschaftlichen Bereichen zu leiten, einschließlich Einstellungsentscheidungen, Hochschulzulassungen, Kreditvergabe und Verbrechensvorhersage. Die diskriminierenden Auswirkungen der KI-basierten Entscheidungsfindung auf bestimmte Bevölkerungsgruppen wurden bereits in einer Vielzahl von Fällen beobachtet, und die Notwendigkeit, über traditionelle KI-Algorithmen hinauszugehen, die für die Vorhersageleistung optimiert wurden, wurde identifiziert. Unser interdisziplinäres Team von Experten aus Philosophie, Recht und Informatik wird untersuchen, wie Standards unvoreingenommener Einstellungen und diskriminierungsfreier Praktiken in der Big Data Analyse und algorithmischen Entscheidungsfindung erfüllt werden können.

KI-Techniken, die auf großen Datenmengen und algorithmischer Verarbeitung basieren, werden zunehmend eingesetzt, um Entscheidungen in wichtigen gesellschaftlichen Bereichen zu leiten, einschließlich Einstellungsentscheidungen, Hochschulzulassungen, Kreditvergabe und Verbrechensvorhersage. Sie werden von Suchmaschinen, Internet-Empfehlungssystemen und Social Media Bots eingesetzt und beeinflussen unsere Wahrnehmung von politischen Entwicklungen und sogar von wissenschaftlichen Erkenntnissen.

 

Allerdings wächst die Sorge um die epistemische und normative Qualität von KI-Evaluierungen und Vorhersagen. Insbesondere gibt es starke Hinweise darauf, dass Algorithmen manchmal bestehende Verzerrungen und Diskriminierungen verstärken und nicht beseitigen können und sich dadurch negativ auf den sozialen Zusammenhalt und die demokratischen Institutionen auswirken.  Die wissenschaftliche Reflexion dieser Fragen hat begonnen, befindet sich aber noch in einem frühen Stadium und es bleibt noch viel zu tun. Insbesondere fehlt uns noch ein umfassendes Verständnis dafür, wie relevante Konzepte von Voreingenommenheit oder Diskriminierung im Kontext der KI zu interpretieren sind und welche technischen Optionen zur Bekämpfung von Voreingenommenheit und Diskriminierung sowohl realistisch möglich als auch normativ gerechtfertigt sind.

 

Die Forschungsgruppe "BIAS" wird diese Fragen in einem integrierten, interdisziplinären Projekt untersuchen, an dem Experten aus Philosophie, Recht und Informatik teilnehmen. Unsere gemeinsame Forschungsfrage lautet: Wie können Standards für unvoreingenommene Einstellungen und diskriminierungsfreie Praktiken bei der Big Data Analyse und algorithmischen Entscheidungsfindung eingehalten werden? Bei der Herangehensweise an diese Frage werden wir philosophische Analysen der relevanten Konzepte und Prinzipien im Kontext der KI ("bias", "discrimination", "fairness") durchführen, deren angemessene Rezeption in den relevanten Rechtsrahmen (Datenschutz, Verbraucher-, Wettbewerbs-, Antidiskriminierungsrecht) untersuchen und konkrete technische Lösungen (Degradierungsstrategien, Diskriminierungserkennungsverfahren etc.) entwickeln. Im Mittelpunkt unseres Projekts stehen die interdisziplinären Synergien, die durch die intensive Zusammenarbeit bei gemeinsamen Fragestellungen und die direkte Übernahme der Ansätze und Ergebnisse der anderen Disziplinen entstehen. Darüber hinaus werden wir konkrete Mittel der engen Zusammenarbeit etablieren, darunter regelmäßige Treffen, gemeinsame Workshops, eine interdisziplinäre Konferenz und gemeinsame Publikationen.

 

Die Volkswagenstiftung fördert das Projekt im Rahmen der Initiative "Künstliche Intelligenz – Ihre Auswirkungen auf die Gesellschaft von morgen".

http://portal.volkswagenstiftung.de/search/projectDetails.do?ref=95037

 

 

Begin
End