Digitale Souveränität heißt Wissen verstehen, nicht nur Daten speichern: ein kybernetischer Blick auf KI

Lasse Kohlmeyer | 05.03.2026
Lesedauer: 10 min
Künstliche Intelligenz wird heute meist als Produkt wahrgenommen: als KI-Chatbot, als etwas, das auf magische Weise eine richtige Antwort erzeugt. Als Anwendung, die man lizenziert, integriert oder ausprobiert. Diese Perspektive ist verständlich, aber verkürzt. Denn Künstliche Intelligenz ist weniger ein Produkt als ein System. Eingaben werden verarbeitet, Ausgaben erzeugt, diese Ausgaben beeinflussen Entscheidungen und Entscheidungen wiederum die nächsten Eingaben. Wer mit KI arbeitet, befindet sich also in einem Regelkreis. Kybernetik bezeichnet die Steuerung und Regelung von Maschinen durch diese Regelkreise. Bei ihnen handelt es sich um einen systemischen Kreislauf, der schrittweise einen IST-Wert an einen SOLL-Wert anpassen soll. Klassische Beispiele dafür sind Thermostate, die z.B. die aktuelle Raumtemperatur als IST-Wert auslesen können (z.B. 18°C), sie mit einem SOLL-Wert vergleichen (z.B. 20°C) und dann eine Heizung dahingehend steuern, mehr zu heizen, bis der SOLL-Wert erreicht ist.
Unser gesellschaftlich-technisches Umfeld rund um KI stellt einen Regelkreis dar. Dieser steuert keine physikalische Größe wie Temperatur, sondern fortlaufend Sprache und Entscheidungen. Der SOLL-Wert dieses Regelkreises ist kein einzelner Zielwert, sondern entsteht aus wirtschaftlich-gesellschaftlichen Belohnungssystemen wie Geld und Aufmerksamkeit. Der entscheidende Punkt ist dabei, dass die Outputs heutiger KI-Systeme nicht folgenlos bleiben, sondern selbst wieder Teil der zukünftigen Trainings- und Entscheidungsgrundlagen werden. KI-erzeugte Texte, Bilder oder Empfehlungen prägen menschliches Verhalten, werden weiterverwendet, geteilt und bewertet und fließen so in die Datenbasis ein, auf der zukünftige Systeme trainiert oder feinjustiert werden; KI wirkt damit selbstverstärkend. Digitale Souveränität bedeutet in diesem Zusammenhang, die Rückkopplung zwischen KI-Output, menschlichem Verhalten und zukünftigen Trainingsdaten zu erkennen und kritisch zu reflektieren.
Ziel war nie die Autonomie der Maschine, sondern Effizienz
Die frühen Rechner und Programme des 20. Jahrhunderts waren noch keine „denkenden Maschinen“ wie die Sprachmodelle heute, sondern Apparate zur Ausführung formalisierter Handlungsanweisungen. Konrad Zuses Z1 führte Berechnungen aus, indem sie menschliche Rechenprozesse in technische Abläufe überführte. Der Computer ersetzte nicht das Denken, sondern zwang es in eine explizite Form, indem Menschen Regeln bzw. Algorithmen für die Lösung von Problemen finden und in Maschinensprache übersetzen mussten. Alles, was nicht formalisierbar war, blieb damals wie heute außen vor. Mit der Verbreitung digitaler Systeme verlagerte sich diese Formalisierung zunehmend in Alltagspraktiken. Die Schreibmaschine wurde durch die Tastatur ersetzt, das Rechnen durch Tabellenkalkulationen, das Archiv durch Datenbanken. In all diesen Fällen ging es nie um die Autonomie der Maschine, sondern um Effizienz, Wiederholbarkeit und Steuerbarkeit. Solange ihre Funktionsweise transparent bleibt, sind Digitale Systeme Hilfsmittel. Wird die Funktionsweise intransparent, werden sie oft zur Belastung.
Sprachmodelle sind keine Wissensmaschinen
Große Sprachmodelle markieren hier einen Bruch. Nicht, weil sie Sprache verarbeiten, sondern weil sie das Ergebnis ihrer Berechnung selbst wieder als ausführbare bzw. bereits ausgeführte Handlung anbieten, z.B. das Erstellen einer Zusammenfassung oder die Planung einer Route. Die Ausgabe wirkt nicht wie ein Zwischenschritt, sondern wie eine mitunter sehr überzeugende Antwort. Genau darin liegt ihr großes Potential für eine (unbeabsichtigte) Fehlverwendung. Sprachmodelle besitzen kein Wissen, sie behaupten es nur. Stattdessen verfügen sie über ein statistisches Modell von Sprache. In ihrem Training lernen sie aus großen Textkorpora, welche sprachlichen Fortsetzungen wahrscheinlich sind. Trainingsalgorithmen passen Milliarden von Parametern so an, dass das nächste Wort möglichst akurat vorhergesagt wird. Dieses Verfahren erzeugt keine Bedeutung, sondern statistische Stimmigkeit.
Dieser Ansatz bringt ein zentrales Phänomen mit sich: Halluzinationen, Konfabulationen. Wenn ein Sprachmodell keine ausreichende statistische Grundlage für eine Antwort besitzt, erzeugt es dennoch eine überzeugend klingende Antwort. Nicht aus Täuschungsabsicht, sondern weil es genau dazu gebaut wurde: immer eine plausible Fortsetzung zu liefern.
Wahrheit ist dabei kein internes Kriterium. Das Problem entsteht, wenn wir dem System eine Rolle zuschreiben, die es per se nicht erfüllen kann. Wer ein Sprachmodell als Wissensinstanz nutzt, verwechselt sprachliche Kohärenz mit faktischer Korrektheit. Deshalb benötigen verlässliche KI-Anwendungen externe Wissensquellen. Datenbanken, Suchsysteme und kuratierte Inhalte müssen überprüfbare Informationen liefern, auf die das Sprachmodell zugreifen kann. Die englischsprachige Bezeichnung dafür lautet Retrieval-Augmented Generation. Ein KI-System weiß dann nicht mehr, sondern verarbeitet. Dieser Unterschied ist grundlegend.
Die erzeugte Stimmigkeit kann durch weitere Adaptierungstechniken gezielt verändert werden, z.B. durch Fine-Tuning (die nachgelagerte Anpassung von Modellparametern) oder Prompting (mit Beispielen oder mit Regeln). Das Modell lernt beim Fine-Tuning, welche Arten von Antworten in speziellen Kontexten bevorzugt werden sollen, welche Tonlagen erwünscht sind, welche Begriffe häufiger oder seltener auftreten. Aber auch diese Anpassung fügt kein neues Wissen hinzu. Sie verschiebt Gewichtungen so, dass die erzeugten Wörter für eine neue Domäne stimmiger werden. Das System wird nicht wahrer, sondern gerichteter.
Die KI-Blase besteht nicht aus zu viel KI – sondern aus zu wenig Verständnis
Die gegenwärtige KI-Dynamik wird zunehmend als Blase beschrieben. Tatsächlich handelt es sich weniger um eine Überproduktion von Technologie als um eine Unterproduktion von Verständnis. Es ist problematisch, KI-Systeme nur einzusetzen, weil sie verfügbar sind, weil es alle tun. Besonders problematisch ist das dort, wo KI als Ersatz für Verantwortung fungiert: bei Faktenfragen, rechtlichen Einschätzungen oder automatisierten Entscheidungen. KI sollte nur eingesetzt werden, wenn ihre Eigenschaften zu den jeweiligen Aufgaben passt.
Die EU hat gut daran getan, automatisierte Entscheidungen zu den verbotenen KI-Praktiken zu zählen. Gleichzeitig gibt es viele Bereiche, für die KI-Systeme gut geeignet sind: bei Übersetzungen, Textstrukturierungen, Zusammenfassungen, Code-Generierung unter menschlicher Kontrolle. Überall dort, wo Menschen den Rahmen setzen, Ziele definieren und Ergebnisse prüfen, können Sprachmodelle produktiv wirken, beschleunigen. Sie handeln nicht autonom, sondern innerhalb gesetzter Grenzen. Auch dieser Text ist auf diese Weise entstanden. Die Struktur, die Thesen und die argumentative Linie habe ich (ein menschlicher Autor) entwickelt; sprachliche Verdichtung, Umformulierungen und Varianten habe ich mithilfe eines Sprachmodells erarbeitet und anschließend geprüft, verworfen oder weiterentwickelt. Der Prozess besteht aus vielen iterativen Eingaben, Korrekturen und Nacharbeitungen wie Präzisierungen des Stils, gezielte Nachfragen zu Thesen, das Einfordern von Beispielen oder Perspektiven.
Das System hat dabei nicht mitgedacht, sondern mir Vorschläge gemacht. Verantwortung für Inhalt, Begriffe und Schlussfolgerungen bleiben dadurch bei mir, beim Menschen.
Nach deutschem Urheberrecht können Maschinen keine Urheber sein. Deswegen haben KI-generierte Texte, Bilder und Videos erstmal keine Urheberrechte. Aber auch Prompting kann sehr unterschiedlich komplex sein. Je komplexer, d.h. je mehr menschliche Arbeit in einen Prompt geflossen ist, desto größer die Schöpfungshöhe und in der Regel auch die Qualität der Ausgabe. Dazu fehlt aber noch die nötige Rechtsprechung.
Kybernetisch betrachtet ist Prompting ein Rückkopplungsprozess: Input steuern, Vorschläge prüfen, korrigieren, nachjustieren. Wer gut prompten will, muss gute Texte schreiben oder gut kommunizieren können. Nur wer in der Lage ist, klare Anweisungen zu formulieren und die Rückmeldung zu interpretieren, kann sicherstellen, dass die Endergebnisse auch für andere Mitarbeiter:innen, Führungskräfte, Unternehmer:innen, Entscheidungsträger:innen oder KI-Modelle verständlich, nachvollziehbar und nutzbar sind. So entsteht eine effektive Mensch–KI-Arbeitsteilung: Der Mensch kommuniziert und steuert, das Modell liefert Vorschläge, der Mensch korrigiert und entscheidet über das Ergebnis. Genau in dieser Arbeitsteilung liegt der sinnvolle Einsatz solcher Modelle. Computermodelle ersetzen keine Autor:innen, sondern sind systemische Werkzeuge, die innerhalb klar gesetzter, nach außen transparenter Grenzen agieren und uns Menschen das Kostbarste, unsere Lebenszeit, sparen sollten. Das erscheint im Kontext von Arbeitszeit vielleicht zu idealisiert. Aber auch wirtschaftliche Umfelder profitieren von der Einsparung bei Arbeitszeit, da dann mehr Zeit für andere Aufgaben bleibt.
Die explizite Betonung der KI-Mitwirkung an diesem Text soll Werte wie Transparenz, Verantwortlichkeit und Nachvollziehbarkeit hochhalten – und andere dazu anregen, den Einsatz von KI offen zu kommunizieren. Wer die Rolle von KI an den eigenen Arbeiten verschleiert, verhindert die Chance, Verständnis und Diskurs zur Technologie zu fördern. KI-Souveränität beginnt genau an dieser Stelle: bei der transparenten und auch kritischen Nutzung. Sie bedeutet nicht, alles selbst zu entwickeln. Sie bedeutet, entscheiden zu können, wann ein KI-Einsatz angebracht ist, erfordert Optionspluralität und Entscheidungen, welche KI-Systeme genutzt werden und verlangt Antworten auf Fragen wie: Welche Annahmen bringe ich damit in meine Organisation? Welche Abhängigkeiten entstehen technisch, rechtlich oder strategisch?
KI-Souveränität ist eine Frage der Wahlfreiheit
In Europa ist diese Frage besonders relevant, weil zentrale Teile der KI-Wertschöpfungskette außerhalb des eigenen Rechts- und Einflussraums liegen. Abhängigkeit entsteht nicht durch Nutzung, sondern durch fehlende Alternativen. Wer weder versteht, wie Systeme funktionieren, noch Zugang zu Rechenleistung, die dafür notwendige Energie, Daten oder Anpassungsmöglichkeiten hat, kann keine informierte Wahl treffen. Rechenleistung – insbesondere spezialisierte Hardware wie GPUs – ist dabei keine technische Randbedingung, sondern eine Voraussetzung für Souveränität. Ebenso Fachwissen, Erfahrungswerte und institutionelle Lernprozesse. Diese Faktoren lassen sich nicht kurzfristig einkaufen. Sie entstehen durch kontinuierliche Auseinandersetzung.
KI ist für Menschen gemacht, nicht für andere KI
Ein weiterer Effekt der gegenwärtigen KI-Entwicklung ist die zunehmende Selbstreferenzialität digitaler Inhalte. Texte werden automatisiert erzeugt, automatisiert bewertet und anschließend erneut als Trainingsmaterial verwendet, ohne kritisches Hinterfragen. Der Maßstab verschiebt sich: von Bedeutung zu bloßer statistischer Passung bzw. sprachlicher Kohärenz mit dem Effekt, dass wir zunehmend mit inhaltsleeren oder Non-Sense-Erzeugnissen geflutet werden. Dieses Phänomen wird als AI Slop bezeichnet. Ohne menschliche Einordnung (kybernetisch betrachtet: die Überprüfung des SOLL-Werts) wird dieser Regelkreis inhaltlich immer fragiler, auch wenn er technisch stabil erscheint. KI ist kein Selbstzweck, sondern ein infrastrukturelles Element zur Lösung konkreter Probleme. In Verwaltungen und im Mittelstand, ebenso wie in Organisationen, die nicht skalieren wollen oder können, sondern verlässlich arbeiten müssen, gelten besondere Rahmenbedingungen. Dort sind Prozesse historisch gewachsen, Daten oft unvollständig und Verantwortung nicht delegierbar. In solchen Kontexten entscheidet nicht die Größe eines Modells, sondern die Qualität seiner Einbettung.
Wer KI verstehen will, muss Fragen stellen – keine Features vergleichen
Wer KI souverän einsetzen will, sollte daher weniger Funktionen vergleichen und mehr strukturelle Fragen stellen. Welche Entscheidungen trifft das System selbst zum Beispiel durch sprachliche Setzungen? Welche Entscheidungen müssen auf jeden Fall beim Menschen bleiben? Welche Rückkopplungen entstehen durch den Einsatz? Und wie lassen sie sich beobachten und korrigieren? Die Klärung solcher Fragen kostet Zeit. Aber sie sind eine Investition in Handlungsfähigkeit. Wer versteht, wie KI-Systeme entstehen, wie sie sich verhalten und wo ihre Grenzen liegen, bleibt gestaltend und kann eigene Lösungen entwickeln – auch dann, wenn externe Lösungen genutzt werden.
Ubiquitäre KI
Künstliche Intelligenz wird bleiben. Nicht als denkendes Gegenüber, sondern als formalisierte Infrastruktur. Ähnlich wie frühere digitale Technologien ist sie zunächst erklärungsbedürftig, dann selbstverständlich, schließlich unsichtbar. Digitale Souveränität entscheidet sich deshalb nicht an der neuesten Modell-Variante, sondern am Verständnis der zugrunde liegenden Systeme. Digitale Souveränität heißt, Wissen zu verstehen – nicht nur Daten zu speichern.

Lasse Kohlmeyer
Projektleiter KI-Servicezentrum Berlin-Brandenburg
Lasse Kohlmeyer ist Projektleiter und hat Studienabschlüsse in Informatik, Kreativem Schreiben & Kulturjournalismus sowie Data Engineering. Nach mehrjähriger Tätigkeit als IT-Berater mit Schwerpunkt Software- und Data Engineering übernahm er 2023 die Leitung des KI-Servicezentrums Berlin-Brandenburg am Hasso-Plattner-Institut für Digital Engineering gGmbH.
Das KI-Servicezentrum verfolgt die Mission, Barrieren für die eigenständige Entwicklung von KI-Anwendungen in Wirtschaft und Gesellschaft zu reduzieren. Dazu bietet es Infrastruktur, Weiterbildungsangebote und Beratungsleistungen an, um organisationsformunabhängig zu unterstützen: beim Training von KI-Modellen, beim Ausprobieren und Verstehen von KI-Anwendungen, bei Hardwarebeschaffungsfragen und bei der Umsetzung konkreter KI-Anwendungsfälle. Weitere Informationen finden sich auf der Website des Zentrums.


