©generated by NightCafé AI

Ausgabe 02/2023

Generative KI

Forschung stärken, digitale Souveränität erhalten

Spätestens seit dem ChatGPT-Launch im vergangenen Jahr sind große vortrainierte KI-Modelle zur Textgenerierung zum öffentlichen Dauerthema geworden. Zugespitzt lautet die Frage in Podien und Meinungsbeiträgen nicht selten: Generative KI – Heilsbringer oder Dämon? Es ist offensichtlich, dass die Antwort differenzierter ausfallen muss. Schließlich beeinflussen die Größe des Modells und Trainingsdatensets, die Kosten des Trainings, die Performance nach absolviertem Training wie auch der Anwendungsfall die Qualität und Vertrauenswürdigkeit des Ergebnisses.

Prominente Einwürfe erschweren dabei die sachliche Debatte: Der Autor Yuval Harari schrieb kürzlich im Economist, „das Betriebssystem der menschlichen Zivilisation“ (die Sprache) sei durch generative KI gehackt worden. Elon Musk forderte mit Steve Wosniak (Apple), Evan Sharp (Pinterest) und weiteren Tech-Größen sogar ein KI-Moratorium, nur um kurz darauf TruthGPT anzukündigen. Natürlich muss die Technologiebewertung neben der wirtschaftlichen und gesellschaftlichen Potenzialbestimmung auch ethische und regulatorische Anforderungen an den Technologieeinsatz einbeziehen. Den thought leaders ging es wohl weniger um eine differenzierte Betrachtung, die für eine kluge Innovationsförderung und Regulierung gleichermaßen handlungsleitend sein kann. Aber Differenzierung ist notwendig, um die Potenziale der Sprunginnovation KI zu erschließen, ohne die menschliche Entfaltungsmöglichkeit zu behindern.

Große Sprachmodelle sind mächtige Werkzeuge für die Wissensaufbereitung, Interaktion und Entscheidungsunterstützung. Gehackt wurde unser Betriebssystem dennoch nicht. Die Oberflächen- und Tiefenstruktur der Sprache ist komplex und überfordert die Chatbots bisweilen. Sie „halluzinieren“, um es mit dem KI-Pionier John McCarthy zu sagen, wenn das Trainingsmaterial in Wissensgebieten nicht ausreicht und das Sprachmodell annähernd wahrscheinliche, aber letztlich falsche oder irreführende Antworten hervorbringt. Eine vielversprechende Lösung können Wissensgraphen sein, indem Chatbots abgesicherte Antworten auf Basis der im Wissensgraphen gespeicherten Informationen und Fakten geben. Das L3S arbeitet an diesen Themen.

Zurück zur Eingangsfrage. Die Antwort fällt dreigeteilt aus:

1. Eine Versachlichung der öffentlichen KI-Debatte ist wichtig, um den gesellschaftlichen Diskurs und das technologie- und innovationspolitische Handeln auf ein festes Fundament zu stellen. Hierzu kann die Wissenschaft in der Beratung von Politik und Gesellschaft einen wirkungsvollen Beitrag leisten, auch wenn dies herausfordernd sein kann.

2. Europas Anspruch einer globalen Standardsetzung für vertrauenswürdige KI-Systeme ist unterstützenswert. Anbieter großer, vortrainierter KI-Modelle sind jedoch meist kapital- und datenintensive Technologieunternehmen aus den USA und China. Sie liefern die Foundation-Models für die digitale Wertschöpfung von morgen. Greifen Forscher und Unternehmen primär auf außereuropäische Anbieter zurück, können Abhängigkeiten und Wertschöpfungseinbußen die Folge sein. Den weltweit fortschrittlichsten Rechtsrahmen für KI zu etablieren, ist daher wenig wirksam, wenn Europa primär Konsument der Technologie ist, die es zu regulieren versucht.

3. KI-Forschung zu stärken heißt, Europas digitale Souveränität zu erhalten. Will Europa nicht nur Konsument sein, muss es Abhängigkeiten entlang des Tech-Stacks reduzieren. Das betrifft den Halbleiterbereich mit Hardwarekomponenten, die für das Training und den Einsatz von KI-Algorithmen unerlässlich sind. Ebenso Investitionen in Foundation-Models, die Enabler für neue Geschäftsmodelle sind und zugleich Konformität mit der europäischen KI- und Datenschutzgrundverordnung erzielen sollten. Auch Kompetenzen zur Implementierung, Verwaltung und Verbesserung von KI-Modellen im industriellen Kontext sowie die Entwicklung maßgeschneiderter KI-Services für Unternehmen, Verwaltung und Gesellschaft bis hin zur Daten- und KI-Kompetenz entlang der gesamten Bildungskette gilt es zu fördern. Zudem spielen Open-Source-Ansätze eine besondere Rolle, fördern sie doch die Demokratisierung der KI-Entwicklung und die umfassende Beteiligung von Unternehmen, Start-ups, Communities und Forschungseinrichtungen.

Europa kann einen gewichtigen Beitrag leisten, damit KI zum Heilsbringer wird. Legen wir los.


Kontakt

Dr. Johannes Winter

Johannes Winter ist Chief Strategy Officer und stellvertretender Geschäftsführer des L3S.