SisWiss
Sichere Sprachmodelle für das Wissensmanagement
Unternehmen und Organisationen verfügen häufig über Wissensbasen, die in umfangreichen Dokumentenspeichern verteilt sind und somit eine gezielte Suche nach und das Kombinieren von Informationen schwierig und zeitaufwändig gestalten. Große Sprachmodelle (Eng.: Large LanguageModels, LLMs) wie ChatGPT1 haben als sprachbasierte Schnittstelle zu solchen Wissensbasen das Potenzial, Unternehmen tiefe und gleichzeitig intuitive Einblicke in die eigenen Geschäftsabläufe zu bieten. Dieses “Kommunizieren mit den eigenen Daten” bietet insbesondere Unternehmen ohne bisherige Kompetenzen im Bereich Datenanalyse die Möglichkeit, mit der Digitalisierung Schritt zuhalten und international kompetitiv zu bleiben. Da Sprachmodelle jedoch allen Nutzer*innen innerhalb und außerhalb einer Organisation Zugang zu potentiell sensiblen und sicherheitskritischen Informationen erlauben, muss der Einsatz dieser Technologien stark reguliert und überwacht werden.Beispielsweise sollten sensible Unternehmensinterna nur von ausgewählten Mitarbeitenden über das Modell abrufbar sein. Intuitiv benötigt man daher für das Sprachmodell als “allwissenden Mitarbeiter” eine entsprechende Art von Verschwiegenheitserklärung, die den Zugang zu Informationen kontrolliert und sicherstellt. Da die Modelle a priori jedoch kein Verständnis dafür haben, welche Informationen sensibel sind und welche nicht, muss dieses Wissen künstlich ergänzt werden.
Daher werden im SisWiss Projekt Sprachmodelle entwickelt, welche mehrere Nutzer-, bzw. Sicherheitsstufen-abhängige Persönlichkeiten innerhalb derselben Modellinstanz vereinen, um somit einen differenzierten Zugang zu sensiblen Informationen steuern zu können.
Im Projekt SisWiss sollen die Entwicklung von theoretischen Ansätzen zur Zertifizierung eines LLMs mit konkreten Sicherheitstests kombiniert werden, damit Unternehmen Sprachmodelle sicher und in Übereinstimmung mit existierenden und zukünftig geplanten EU-Rechtsvorschriften (EU AI Act2, EU Data Governance Act3) verwenden können.
Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR), “Sichere Zukunftstechnologien in einer hypervernetzten Welt: Künstliche Intelligenz”
- Laverana