©Bildunterschrift: AI for Science: Wie Daten, Wissen und logisches Denken zusammenwirken. Wissensgraphen und neuro-symbolische KI verbinden menschliches Denken mit maschinellem Lernen, um wissenschaftliche Phänomene zu erklären. CAIMed, TrustKG und ORKG zeigen, wie interpretierbare und vertrauenswürdige KI Wissenschaftlern dabei helfen kann, nicht nur zu verstehen, was passiert, sondern auch warum.

KI für die Wissenschaft

Wenn Maschinen mitdenken

Daten gibt es genug: Satelliten zeichnen Klimaveränderungen auf, Mikroskope liefern Zellbilder, Kliniken erzeugen unzählige Patientendaten. Doch Wissen entsteht erst, wenn man versteht, was all diese Informationen bedeuten. AI for Science soll aus der Datenflut neue Erkenntnisse gewinnen – nicht nur erkennen, was passiert, sondern auch erklären, warum.

„Am L3S betrachten wir KI als Partner, nicht als Konkurrenten“, sagt Prof. Dr. Maria-Esther Vidal. „Unser Ziel ist, Systeme zu entwickeln, die Forscherinnen und Forscher dabei unterstützen, tiefer zu denken und präziser zu handeln.“

Wissen vernetzen

Vidal und ihr Team arbeiten mit neuro-symbolischer KI – einem Ansatz, der maschinelles Lernen mit logischem Denken verbindet. „Damit Maschinen nicht nur rechnen, sondern auch verstehen“, so Vidal.

Die Grundlage dafür bilden Wissensgraphen: Sie verknüpfen Fakten – etwa zu Genen, Medikamenten oder Materialien –, schaffen Kontext und machen Schlussfolgerungen überprüfbar.

„Wenn eine KI eine medizinische Entscheidung trifft, muss sie erklären können, wie sie darauf kommt“, sagt Dr. Disha Purohit vom L3S. „Nur dann entsteht Vertrauen – in der Wissenschaft wie in der Medizin.“

Forschung sichtbar machen

Drei L3S-Projekte zeigen, wie das in der Praxis funktioniert:

  • CAIMed analysiert medizinische Daten, Bilder und genetische Informationen, um zu verstehen, warum bestimmte Therapien wirken – und andere nicht.
  • TrustKG schafft die Grundlage für solche Modelle: Es wandelt wissenschaftliche Daten in strukturierte Wissensgraphen um, die jeden Schritt dokumentieren und Ergebnisse überprüfbar machen.
  • Open Research Knowledge Graph (ORKG) stellt wissenschaftliche Publikationen als maschinenlesbares Wissen dar. Dadurch lassen sich Studien vergleichen, Belege nachvollziehen und neue Verbindungen zwischen Disziplinen entdecken.

Konkrete Erfolge in der Medizin

CAIMed und TrustKG liefern bereits greifbare Ergebnisse. „Bei Lungen- und Brustkrebs sagen unsere Systeme nicht nur voraus, welche Patientinnen und Patienten auf eine Therapie ansprechen – sondern auch warum“, erklärt Vidal. Das System deckt Wechselwirkungen zwischen Medikamenten auf und erkennt familiäre Risikomuster, die bisher verborgen blieben.

Auch in anderen Bereichen zeigt sich das Potenzial: bei der Früherkennung von Demenz oder in der Transplantationsmedizin, wo KI hilft, zwischen Spendern mit geheilter und nicht geheilter Hepatitis-B-Infektion sicher zu unterscheiden.

Ein weiteres Modul, Medi-AgenAI,soll medizinische Sprache verständlicher machen. Es kombiniert große Sprachmodelle, Wissensgraphen und symbolisches Denken, um Fachsprache in klare Worte zu übersetzen. „Patienten sollen Behandlungsoptionen nachvollziehen können – nicht nur vertrauen müssen“, sagt Vidal.

NeSyEx: KI für den gesamten Forschungsprozess

Mit NeSyEx (Neuro-Symbolic Experimental AI)überträgt das Team den Ansatz auf den gesamten Forschungsprozess – vom Studiendesign bis zur Interpretation. KI wird damit zu einer Art wissenschaftlicher Assistenz. Die intelligenten Agenten verbinden symbolisches Denken mit generativer KI und arbeiten mit strukturierten Wissensgraphen und Workflow-Modellen. So fördern sie Transparenz, Reproduzierbarkeit und Personalisierung in der Forschung.

Von der Vorhersage zum Verständnis

Diese Entwicklungen markieren einen Wandel: KI in der Wissenschaft bewegt sich vom reinen Vorhersagen hin zum Verstehen. Doch Herausforderungen bleiben. Wissenschaftliche Daten sind verstreut und uneinheitlich, viele Modelle noch immer Black Boxes. Damit KI vertrauenswürdig ist, muss sie den FUTURE-AI-Prinzipien folgen: Fairness, Universalität, Rückverfolgbarkeit, Benutzerfreundlichkeit, Robustheit und Erklärbarkeit.

„Zukünftige Systeme müssen Zusammenhänge erkennen, die menschliche Urteilsfähigkeit unterstützen – und transparent mit ihren Wissensquellen umgehen“, betont Vidal.

Eine neue Ära der Wissenschaft

Maschinen und Menschen forschen heute Seite an Seite. KI hilft, bessere Fragen zu stellen und neue Zusammenhänge zu erkennen. Indem sie Daten in Wissen und Wissen in Verständnis verwandelt, stärkt sie das, was Wissenschaft im Kern ausmacht: Menschliche Neugier, Erkenntnisdrang – und den Wunsch, die Welt zu verbessern.

Vorgestellte Projekte
Kontakt

Prof. Dr. Maria-Esther Vidal

Maria-Esther Vidal ist Professorin an der Leibniz Universität Hannover und Leiterin der Forschungsgruppe Scientific Data Management von L3S und TIB – Leibniz-Informationszentrum Technik und Naturwissenschaften. Ihre Forschung konzentriert sich auf vertrauenswürdige, neuro-symbolische KI und Wissensgraphen. Sie leitet das Projekt TrustKG und ist Mentorin im CAIMed.

Dr. Disha Purohit

Disha Purohit ist Postdoc bei CAIMed und TrustKG im Joint Lab von L3S und TIB. Sie entwickelt hybride KI-Systeme, die Lernen und logisches Denken kombinieren, um Transparenz und Nachvollziehbarkeit in der Wissenschaft zu verbessern.