Die Debatte über europäische KI-Souveränität kreist um zwei Themen: 1. Wie können wir verhindern, dass unsere Daten in die USA abfließen? 2. Wie kommen wir an ein eigenes „ChatGPT“? Gaia-X, der AI Act, Milliarden-Förderprogramme drehen sich um diese Fragestellungen. Die Herausforderung ist meiner Meinung nach größer und wird teilweise falsch oder gar nicht adressiert.
Europäische Unternehmen setzen auf die großen bekannten Anbieter von LLMs, bzw. integrierte Assistenten ihrer etablierten Softwareanbieter, wie z.B. Salesforce Agentforce, SAP Joule oder Microsoft Copilot. Weniger Unternehmen experimentieren mit offenen Modellen und hoffen auf mehr Unabhängigkeit. All diese Wege haben ihre Berechtigung, blenden aber gemeinschaftlich und systematisch drei Fragen aus, die aus meiner Sicht für echte digitale Souveränität entscheidend sind.
1. Wie wäscht man sich, ohne nass zu werden?
Europa verfügt über kaum eigene generative KI-Modelle. Ein in Fachkreisen diskutierter Gedanke zur Erreichung der KI-Souveränität trotz dieses offenkundigen Mangels, scheint auf den ersten Blick bestechend einfach. Er basiert auf dem Hosting eines kleineren Opensource-Modells in einer europäischen Cloud, welches immer dann, wenn es selbst nicht weiterweiß, die Anfrage kaskadiert an ein leistungsfähigeres amerikanisches Modell weiterreicht, nachdem sensible Daten zuvor herausgefiltert wurden. Mit diesem Ansatz hofft man, die Leistungsfähigkeit der großen Cloud-Sprachmodelle nutzen zu können und dennoch die Vorgaben des AI-Acts einhalten zu können.
Doch der theoretische Test an einem realistischen Szenario fördert schnell einen strukturellen Widerspruch zutage. Ein Fertigungsleiter fragt sein KI-System: „Warum produziert Anlage 7 in Schicht B drei Prozent mehr Ausschuss als in Schicht A?“ Die Antwort hängt von schier unzähligen Parametern, wie z.B. Materialchargen, Temperaturverläufen oder Wartungsintervallen ab. Das sind Betriebsgeheimnisse, die kein Modell kennen kann, egal wie leistungsfähig es in Benchmarks oder bei der subjektiven User-Wahrnehmung abschneidet. Ohne diesen Kontext ist jede Antwort wertlos, bzw. genau dieser Kontext stellt das mögliche Alleinstellungsmerkmal „unserer“ KI-Systeme dar … aber dazu später mehr.
Die Kaskadierung wäre also nur dann sinnvoll, wenn das Cloud-Modell den Kontext bekäme. Dies ist aber genau das, was geschützt werden soll. Bekäme es ihn nicht, wäre die Antwort entweder zufällig richtig oder plausibel klingend und doch falsch, also unnütz oder sogar gefährlich. Die Hybrid-Architektur verspricht damit etwas, das sie in diesem relevanten Fall nicht halten kann. Das ist ein strukturelles Problem.
2. USA, China und der Wettbewerb
Der Großteil der KI-bezogenen europäischen Diskussion konzentriert sich auf den Schutz „unserer“ Daten gegenüber amerikanischem Zugriff (Stichwort CLOUD Act). Das ist mehr als nachvollziehbar und elementar richtig. Sie blendet aber sehr konsequent einen Datenschutzaspekt aus, der bei nahezu allen anderen IT-Themen sofort in den Fokus gerät. Wie wird Wissen nicht nur vor staatlichen Akteuren, sondern vor Wettbewerbern und Kunden geschützt?
Nehmen wir folgendes Szenario an: Die Infrastruktur eines europäischen Anbieters steht in Frankfurt, die Betreiber unterliegen deutschem Recht. Soweit also alles gut. Doch das Modell lernt aus den Interaktionen aller Kunden. Auch wenn keine Rohdaten ausgetauscht werden, können geschickte Anfragen von Wettbewerber, aus dem In- und Ausland, Muster zutage fördern, die signifikante Rückschlüsse auf Geschäftsgeheimnisse erlauben. Das Wissen wandert zwar nicht als Datenkopie, aber als emergentes Muster im Modellverhalten.
Bisher denkt kaum jemand in Brüssel oder Berlin offen über diese Form des Wissensabflusses nach. Gaia-X adressiert sie nicht, der AI Act reguliert sie nicht. Dabei ist für viele Unternehmen die Frage, ob ihr Know-how beim Wettbewerber im Nachbarort oder in Fernost landet, existenziell; kurzfristig sogar existenzieller als die Frage, ob die amerikanische Regierung die Daten abgreift.
3. Wie schützen wir implizites Wissen?
Die dritte Lücke ist intuitiv vielleicht nicht die naheliegendste. Sie ist aber die größte, da sie durch einen blinden Fleck klassischer Organisation entsteht. Ohne KI konnte ein Unternehmen frei nach dem Motto „Wir wissen nicht, was wir nicht wissen“ implizites Wissen nicht direkt nutzen. Folglich konnten dies auch keine unberechtigten Stellen. Mit KI ist aber zum Teil expliziter Wissenszugang gar nicht mehr nötig. Man kann einfach nicht mehr davon ausgehen, dass Wissen zwingend in Dokumenten gespeichert sein muss. Wenn es aber gar kein Dokument gibt, existieren auch keine Zugriffsrechte, bzw. fehlende Zugriffsrechte.
Ein KI-Modell, das über lange Zeiträume mit Unternehmensdaten interagiert, entwickelt (antizipiert) implizites Wissen in Form von Mustern, Zusammenhängen oder informellen Bewertungen, die sich in keinem Dokument wiederfinden ließen. Die Informationen sind nirgendwo als Datei abgelegt und unterliegen deshalb auch keinen Zugriffsrechten.
Betrachten wir ein mögliches Beispiel: Ein Vertriebsmitarbeiter fragt das System regelmäßig nach Verhandlungstaktiken für bestimmte Kunden. Das System lernt, dass Kunde X schwierig ist und Produkt Y interne Probleme macht. Ein Kollege aus einer anderen Abteilung, der formal keinen Zugriff auf die Vertriebsdokumente hat, könnte durch geschickte Fragen dieses implizite Wissen extrahieren ohne gegen eine einzige Zugriffsregel zu verstoßen.
Manche Systeme umgehen dieses Problem, indem das Modell eingefroren wird und keinen Kontext speichert. Aber das erkauft Sicherheit um den Preis der Lernfähigkeit. Die Antworten sind entweder generisch und wieder zufällig richtig oder potenziell falsch. Das System wird dabei nie besser.
Konsequenzen für den Mittelstand
Diese drei Lücken sind keine akademischen Spitzfindigkeiten, sondern entscheiden darüber, ob KI im Unternehmen wirklich Mehrwert oder primär neue Risiken schafft. Wer heute strategisch über die Einführung von KI entscheidet, muss fragen, ob das System wirklich mit spezifischem Prozess-Know-how umgehen kann oder ob es dafür die Cloud braucht und damit Wissen preisgibt; ob der eigene Wettbewerber vielleicht denselben KI-Anbieter nutzt, auch wenn er in Shanghai sitzt; und wer im eigenen Haus Zugriff auf welches Wissen hat … auch auf jenes, welches nie dokumentiert wurde.
Das sind nur bedingt technische, vor allem aber strategische Fragen, die derzeit in der breiten Masse erst gar nicht diskutiert werden.
Begreift KI als das, was sie ist: Eine Basistechnologie
Die Nutzbarmachung von Elektrizität war keine deutsche Erfindung und doch war Deutschland im frühen 20. Jahrhundert das Silicon Valley der Elektrotechnik.
Europa fördert digitale Souveränität mit Milliarden. Gaia-X, IPCEI, die vielen KI-Innovationszentren zeigen, dass der Wille da ist. Doch die Politik denkt in den Kategorien der Vergangenheit. Die Fantasie der Gesetzgeber reicht derzeit nur bis zu der Frage: „Wie können wir europäisch Elektrizität kopieren?“ Also: Wie bauen wir eigene Rechenzentren, eigene GPUs, eigene Cloud-Infrastruktur, eigene große Sprachmodelle?
Die weit spannenderen Fragen werden nicht gestellt: Wie nutzen wir Elektrizität *effizienter* als die Amerikaner oder Chinesen? Wie bauen wir Maschinen, die ohne Strom gar nicht denkbar gewesen wären?
Die entscheidende Innovation liegt nicht in der Infrastruktur, sondern in der Architektur der Anwendungen und in spezifischem Industrie- und Prozesswissen.
Die eigentliche Arbeit beginnt damit, die Fragen richtig zu stellen und dann die Antworten im Rahmen unserer Stärken zu entwickeln. Drei der Fragen sind hier formuliert. Die Antworten sind (noch) offen.


Schreibe einen Kommentar