Logo der Seite
Logo der Seite Logo der Seite
Titelbild zu SisWiss: Sichere Sprachmodelle für das Wissensmanagement
L3S, generiert mit Hilfe von KI

SisWiss: Sichere Sprachmodelle für das Wissensmanagement

Das Vorhaben „SisWiss“ zielt darauf ab, Werkzeuge und Methoden zu entwickeln, damit Unternehmen Sprachmodelle sicher und rechtskonform nutzen können.

Motivation
Große Sprachmodelle (engl. Large Language Models, LLM) bieten Unternehmen das Potenzial, ihre verteilten Wissensbasen effizient zu nutzen sowie schnell und einfach Einblicke in Geschäftsabläufe zu gewinnen. Der Einsatz dieser Technologie erfordert jedoch strenge Regulierung und Überwachung, da sie vertrauliche Informationen zugänglich machen kann. Es ist daher wichtig, den Zugang zu sensiblen Daten zu kontrollieren und sicherzustellen, dass das Sprachmodell zwischen vertraulichen und nicht-vertraulichen Informationen unterscheiden kann. Dies erfordert eine Ergänzung des Modells mit entsprechendem Wissen über die Vertraulichkeit verschiedener Informationen.
 

Ziele und Vorgehen
Im Vorhaben „SisWiss“ entwickeln die Forschenden praktische Werkzeuge und Methoden, die es Unternehmen jeder Größe ermöglichen sollen, Sprachmodelle sicher und rechtskonform zu nutzen. Hierbei verwenden sie bestehende Open-Source-Grundlagenmodelle und Methoden. Das Projektteam erarbeitet dafür eine Softwarebibliothek mit Werkzeugen zur Bewertung, Verbesserung und Zertifizierung von Sprachmodellen. Zudem wird ein Testmodul zur Messung der Robustheit gegen klassische und neuartige Angriffe, wie beispielsweise durch geschickte Formulierung der Befehlseingaben, erstellt. Für die sichere Verwendung von Sprachmodellen in Übereinstimmung mit EU-Rechtsvorschriften, wie dem AI Act und dem Data Governance Act, werden auch theoretische Ansätze zur Zertifizierung von LLM mit konkreten Sicherheitstests konzipiert.
 

Innovationen und Perspektiven
Die Projektergebnisse ermöglichen es Unternehmen, ihre Arbeitsprozesse durch eine effiziente Strukturierung und den sicheren Austausch von internem Wissen zu optimieren. Durch Integration sicherer LLM sind Unternehmen in der Lage, vertrauliche Daten innerhalb ihrer eigenen Infrastruktur zu verarbeiten und innovative Verfahren zu implementieren, ohne auf externe Dienstleister angewiesen zu sein. Dies verbessert die Effizienz und Innovationskraft und hilft insbesondere kleineren Unternehmen, ihre Wettbewerbsfähigkeit zu steigern. Darüber hinaus fördert das Vorhaben die Entwicklung vertrauenswürdiger KI-Lösungen in Europa unter Beachtung der regulatorischen Rahmenbedingungen und ethischen Standards.

Beteiligte Wissenschaftler*innen:
  • Dren Fazlija (Leibniz Universität Hannover)
  • Dr. Daniel Kudenko
  • Monty-Maximilian  Zühlke (Leibniz Universität Hannover)

Ansprechperson

Dr. Daniel Kudenko
Kontaktieren

Laufzeit

Beginn: 01.04.2025
Ende: 31.03.2028

Fördergeber

Bundesministerium für Bildung und Forschung (BMBF)

Fördermittel

1.088.756,19 €

Newsletter abonnieren

E-Mail*
* Pflichtfelder