©Egor – stock.adobe.com

Ausgabe: 02/2018

Rechtliche Implikationen des maschinellen Lernens

Datenschutz, Transparenz und Verantwortung

Datenschutz, Transparenz und Verantwortung

Wem gehören die Daten?

Daten aus autonomen Fahrzeugen sind ein Beispiel, an dem sich die unterschiedlichen Interessen aufzeigen lassen. Softwarefirmen, Autohersteller und andere Dienstleister würden gern exklusiv auf diese Daten zugreifen, denn sie verheißen neue Geschäftsmodelle. Die betroffenen Fahrer autonomer Fahrzeuge bangen hingegen um den Schutz ihrer Privatsphäre. Sie soll insbesondere durch die ab 25. Mai 2018 geltende Datenschutzgrundverordnung besser geschützt werden. Hier sind Informationspflichten und Betroffenenrechte ebenso verankert wie Prinzipien der Transparenz, Zweckbindung und Datenminimierung. Im Projekt ABIDA versuchen L3S-Juristen zusammen mit Partnern aus anderen Disziplinen Lösungen zu entwickeln, die die unterschiedlichen Interessen ausgleichen.

Ein weiterer Anwendungsbereich für maschinelles Lernen ist die öffentliche Sicherheit. Das Projekt iBorderCtrl  entwickelt derzeit ein „smartes“ System, das die Grenzübertritte an den Schengen-Außengrenzen effektiver gestalten soll. Auch bei diesem System, das aus Soft- und Hardware-Komponenten besteht ‒ etwa Scanner für die Validierung von Ausweisdokumenten oder zur biometrischen Identifikation von Personen ‒ kommt maschinelles Lernen zum Einsatz: Zunächst werden die relevanten Informationen digital erhoben und verarbeitet. Dies ermöglicht die systematische Auswertung von Grenzübertritten und lässt Rückschlüsse etwa über besonders risikobehaftete Personengruppen oder neu auftretende Muster beim Versuch illegaler Grenzübertritte zu. Für jeden Reisenden kann auf diese Weise bereits im Vorfeld ein individueller Risikowert errechnet und entsprechend gezieltere Kontrollen durchgeführt werden. Das System lernt daraus, verbessert sich fortlaufend selbst und liefert immer genauere Ergebnisse.   

Diskriminierung durch Algorithmen

Aus rechtlicher Sicht birgt solch ein Ansatz diverse Risiken: Zunächst hängen die Ergebnisse immer von einer hinreichenden Datenqualität ab. Ferner können Algorithmen Fehlschlüsse ziehen und etwa ein Risiko größer bewerten, als es tatsächlich ist. Diskriminierungen durch Algorithmen sind also nicht auszuschließen. Selbst wenn sich insgesamt eine Steigerung der Effizienz bei Grenzkontrollen ergeben sollte, stehen sich hier das Wohl der Allgemeinheit – schnellere und sicherere Grenzkontrollen – und das Wohl des Einzelnen gegenüber.

Gerade der Einsatz von Algorithmen in der öffentlichen Sicherheit verdeutlicht, dass bereits vorab Regeln gesetzt werden müssen, um Diskriminierung und Intransparenz zu vermeiden. Das gilt indes ebenso für den privaten Bereich. Im Rahmen von Mobilise – Mobiler Mensch forschen Wissenschaftler daher an den Anforderungen an Algorithmen. Bis dato können nicht einmal die Entwickler selbstlernender Systeme nachvollziehen, wie das System genau zu einer Entscheidung gelangt ist. Kommt es zu Schäden, etwa weil das Verhalten von Mensch und Maschine divergiert, muss das Geschehen nachvollzogen werden können. Ungeklärt ist auch die Frage, wer für Schäden einzustehen hat, die durch selbstlernende Algorithmen verursacht wurden. ML wird aus diesen und vielen weiteren Gründen nicht nur zahlreiche Rechtswissenschaftler beschäftigen, sondern auch weitreichende Veränderungen in anderen Bereichen, etwa der Versicherungsbranche, nach sich ziehen.

Vorgestellte Projekte
Kontakt

RAin Prof. Dr. Tina Krügel, LL.M

Tina Krügel ist Rechtsanwältin und seit April 2014 Juniorprofessorin für Informationsrecht, insbesondere Datenschutzrecht, an der Leibniz Universität Hannover. Seit 2016 ist sie Mitglied im L3S.