Im Juni ist am L3S das Projekt SisWiss gestartet, das sich mit der Entwicklung sicherer Sprachmodelle (LLMs) für ein kontrolliertes Wissensmanagement in Organisationen befasst.
Das in Unternehmen gesammelte Wissen ist häufig auf große Dokumentenarchive verteilt. Das macht die Suche und Zusammenführung von Informationen schwierig und zeitaufwändig. LLMs wie ChatGPT bieten zwar intuitive Schnittstellen für die Datenabfrage, bergen aber auch Sicherheitsrisiken – denn sensible Informationen sollten nur ausgewählten Mitarbeitern zugänglich sein.
SisWiss wird Multi-Personen-Sprachmodelle entwickeln, die die Antworten an die Nutzer und Sicherheitsstufen anpassen. Dadurch wird sichergestellt, dass vertrauliche Daten geschützt werden und Unternehmen dennoch in der Lage sind, KI-gestützte Erkenntnisse zu nutzen. Darüber hinaus kombiniert das Projekt theoretische Zertifizierungsansätze mit praktischen Sicherheitstests, um den EU-Vorschriften, einschließlich des KI-Gesetzes und des Data Governance Act, zu entsprechen.
Durch die Verknüpfung modernster KI-Forschung mit realen Sicherheitsanforderungen versetzt SisWiss Unternehmen - insbesondere solche ohne tiefgreifende Datenkenntnisse - in die Lage, Sprachmodelle sicher zu nutzen und so die Einhaltung von Vorschriften und die Wettbewerbsfähigkeit im digitalen Zeitalter zu erhalten.
Das Projekt läuft bis Ende Mai 2028.
Lesen Sie die vollständige Projektbeschreibung: https://www.l3s.de/de/research-at-l3s/all-projects/siswiss/