MagazinFachartikelDigitale Transformation

KI vs. Urheberrecht: Wie Gerichte die Grenzen für Künstliche Intelligenz ziehen

Roman Koudous | 15.01.2026

Lesedauer: 8 min

Artikel teilen

Artikel teilen

In einer Welt, in der Künstliche Intelligenz wie ChatGPT in Marketing, Content-Erstellung und Kundenkommunikation Einzug hält, stehen Unternehmen zunehmend vor urheberrechtlichen Fragestellungen. Ein Urteil des Landgerichts München I aus November 2025 ¹ zeigt deutlich, dass Gerichte das Gleichgewicht zwischen technologischem Fortschritt und dem Schutz geistigen Eigentums sehr genau prüfen. Im Verfahren der GEMA gegen OpenAI wurde entschieden, dass ein Sprachmodell Urheberrechte verletzt hatte, weil es Songtexte nicht nur strukturell analysieren konnte, sondern in Teilen reproduzierbar und mit hoher Zuverlässigkeit wiedergeben hätte können.

Der Kern des Rechtsstreits    ​

Im Zentrum des Falls stand die Frage, ob das sogenannte „Merken“ von Trainingsdaten in einem großen Sprachmodell als urheberrechtlich relevante Vervielfältigung einzustufen ist. Das Gericht erklärte dazu, dass es nicht auf die genaue technische Funktionsweise der Speicherung ankommt, sondern darauf, ob geschützte Inhalte im Modell in einer Weise „verkörpert“ bleiben, dass sie bei einfachen Anfragen erneut in gleichbleibender oder nahezu identischer Form ausgegeben werden können. Diese wiederholbare Reproduzierbarkeit sei entscheidend – selbst wenn die Wiedergabe nicht vollständig wortgleich erfolgt, sondern teilweise verfremdet ist oder durch KI-typische Abwandlungen entsteht.

Warum die Data-Mining-Ausnahme nicht griff

Die Ausnahme für Text- und Data-Mining nach § 44b UrhG – der die EU-DSM-Richtlinie in deutsches Recht umsetzt – greift nach Ansicht des Gerichts nur dort, wo Daten algorithmisch ausgewertet oder Muster extrahiert werden, nicht aber, wenn Inhalte dauerhaft abrufbar verkörpert bleiben und anschließend auf spezifische Nachfrage reproduziert werden könnten. Das Gericht unterschied dabei zwischen der grundsätzlich zulässigen Erstellung des Trainingsdatensatzes, dem problematischen Modelltraining, sofern Inhalte in reproduktionsfähiger Weise verbleiben, und der späteren Nutzung durch Anfragen, wenn diese zu einer Ausgabe führen, die als Kopie oder Bearbeitung eines geschützten Werks einzuordnen ist.

„Rare bug“ Argument greift nicht

OpenAI hatte geltend gemacht, es handle sich um einen seltenen technischen Fehler („rare bug“), der laufend behoben werde. Diese Einordnung überzeugte das Gericht nicht. Die Reproduktionswahrscheinlichkeit sei zu hoch und die Ergebnisse zu konstant, um von einem zufälligen Fehler zu sprechen. Ebenso wies das Gericht die Argumentation zurück, die Verantwortung liege allein bei den Nutzern, weil diese die Fragen stellen. Bei einfachen Standardanfragen zur bloßen Informationsbeschaffung – insbesondere wenn diese darauf gerichtet sind, ein Originalwerk abzurufen – liege die Verantwortung vorrangig beim Modellbetreiber, da er die entsprechenden technischen und architektonischen Voraussetzungen des Systems geschaffen habe und die Ausgabe kontrolliere. 

Keine Kreativfreiheiten ohne menschliche Intenion

Auch weitere urheberrechtliche Einordnungsmöglichkeiten, etwa als zulässiges Zitat, künstlerisches Pastiche oder privilegierte Parodie, scheiterten im Verfahren. Voraussetzung für solche Nutzungsfreiheiten sei stets ein menschlicher Werkbezug und eine geistig-kreative Intention. Eine rein algorithmische Ausgabe eines KI-Systems, selbst wenn sie verfremdet erscheint, könne diese persönliche, auf ein bestimmtes Werk bezogene Absicht nicht ersetzen. Das Gericht kam daher zu dem Ergebnis, dass eine KI-Ausgabe, die schöpferisch eigenständig wirkt, zwar grundsätzlich zulässig sein könne, aber dort ihre Grenze finde, wo sie tatsächliche Inhalte eines geschützten Originals nach wissenschaftlicher Gesamtwürdigung und richterlicher Überzeugung zuverlässig widerspiegeln würde.

Konsequenzen für Unternehmen, die KI nutzen

Für Unternehmen, die KI-Systeme einsetzen, bedeutet dieses Urteil vor allem erhöhte Prüfpflichten und Sorgfalt im Umgang mit KI-Outputs. Wer KI-Tools zur Erstellung von Inhalten nutzt, sollte darauf achten, dass keine erkennbaren Passagen aus geschützten Werken übernommen werden, die dem Original zu ähnlich sind, und interne Kontrollprozesse etablieren, die prüfen, ob generierte Texte hinreichend eigenständig formuliert sind. Empfehlenswert sind zudem Anbieter, die proaktiv Transparenz über Trainingsdatenprozesse, Datensatz-Governance und Lizenzanforderungen bereitstellen.

Chancen und rechtssicherer Einsatz

Gleichzeitig zeigt der Fall, dass KI-Nutzung nicht generell blockiert wird, sondern ein rechtssicherer Einsatz möglich bleibt: nämlich überall dort, wo die Systeme zur Analyse, zur inhaltlichen Zusammenfassung oder zur Generierung wirklich neuer Inhalte verwendet werden, ohne dass ein bestimmtes geschütztes Original abrufbar im Modell verbleibt oder bei einer Ausgabe erkennbar übernommen wird. Gerade im Mittelstand kann KI daher weiterhin als wertvolles Werkzeug dienen – solange sie als kreativer Partner genutzt wird, nicht als Speicher oder Ersatz für lizenzpflichtige Originalinhalte.

Signalwirkung und strategischer Ausblick

Das Urteil aus München ist ein Signal an die gesamte KI-Branche, aber ebenso ein Weckruf für Anwenderunternehmen. Es unterstreicht, dass Urheberrecht in KI-Kontexten nicht nur eine Frage der technischen Innovation ist, sondern der konkreten Systemsteuerung und der tatsächlichen Nutzungsergebnisse. Rechtskonformität entsteht nicht allein durch die Existenz von Filtern oder nachträglichen Vorsichtsmaßnahmen, sondern muss bereits im Design des Trainingsprozesses und in der Output-Kontrolle mitgedacht werden. Für Unternehmen lohnt sich daher die frühzeitige rechtliche Beratung, um KI-Chancen auszuschöpfen, ohne eigene Haftungsrisiken zu schaffen oder fremde Schutzrechte zu verletzen.

[1] Für Interessierte: LG München I, Endurteil v. 11.11.2025 – 42 O 14139/24

Roman Koudous

Rechtsanwalt

Roman Koudous ist Rechtsanwalt mit Kanzleistandorten in Berlin und Tokyo. Neben allen wirtschaftsrechtlich relevanten Themen für Unternehmen jeder Größe berät er als Compliance-Experte regelmäßig zu Fragen rund um Datenschutz und KI-Governance.