Direkt zum Inhalt

Interpreting Neural Rankers

Dieses Projekt zielt darauf ab, die Ergebnisse von Ranking-Modellen zu erklären, die heute in allen kommerziellen Suchmaschinen verwendet werden. Trotz der erstaunlichen Leistung der neuronalen Netze werden sie meist als Blackboxen verwendet. Das Projekt bietet die Möglichkeit, den Endbenutzern zu erklären, warum und wie ihre Präferenzen das Verhalten des neuronalen Rankers beeinflussen. Mit solchen Erklärungen werden Transparenz und Interpretierbarkeit sowie das Vertrauen in neuronale Rankings erhöht.

Beschreibung

Heutzutage ist die algorithmische Entscheidungsfindung in unterschiedlichen Bereichen weit verbreitet, darunter Medizin, autonomes Fahren und Handel. Dies ist zum einen ein Beweis für die immer bessere Leistungsfähigkeit komplexer maschineller Lernmodelle. Andererseits hat die gestiegene Komplexität zu einem Mangel an Transparenz und Interpretierbarkeit geführt. Kritische  Entscheidungsmodelle werden dadurch zu einer Blackbox. Wenn das Vorgehen solcher Systeme erklärbar ist, wird es helfen, die Verlässlichkeit zu erhöhen, Vertrauen aufzubauen, Verzerrungen aufzudecken und zu verbesserten Modellen führen. Dies hat in jüngster Zeit zu Forschungsarbeiten über die Extraktion von Post-Hoc-Erklärungen aus Blackbox-Klassifikatoren und Sequenz-Generatoren bei Aufgaben wie Bildunterschriften, Textklassifizierung und maschineller Übersetzung geführt. Allerdings hat sich die Forschung kaum mit der Erstellung von Ranking-Modellen befasst, die heute in allen kommerziellen Suchmaschinen verwendet werden. Mit dieser Förderung planen wir, Algorithmen zur Post-hoc-Erklärung von Black-Box-Rankern zu entwickeln. Insbesondere konzentrieren wir uns auf textbasierte neuronale Netz-Ranker, die Feature-Darstellungen lernen, die für Entwickler und Endbenutzer gleichermaßen schwer verständlich sind.

Team
Research area
Intelligent Access to Information
Begin
End