Urheberrecht bei AI-Outputs — wem gehört der Output?
Die ehrliche Kurzantwort
Nach deutschem Urheberrecht (§ 2 Abs. 2 UrhG) sind nur persönliche geistige Schöpfungen geschützt. Ein reiner AI-Output — z. B. ein Bild aus Midjourney mit Ein-Satz-Prompt oder ein Text aus ChatGPT ohne wesentliche Nachbearbeitung — ist keine persönliche geistige Schöpfung. Konsequenz:
- Du darfst den Output frei nutzen, auch kommerziell (sofern der Anbieter-Vertrag das erlaubt)
- Aber: andere dürfen ihn auch nutzen. Du kannst niemanden auf Urheberrechtsverletzung verklagen, der “deinen” Output kopiert
- Du kannst durch ausreichende menschliche Bearbeitung eigenes Urheberrecht begründen — wo die Schwelle liegt, ist Einzelfall
Zusätzlich: Die Trainings-Daten der Modelle sind teilweise rechtlich problematisch — was Folgen für deinen Output haben kann.
Was die Rechtslage 2026 klar regelt
EuGH und deutsche Rechtsprechung. Der EuGH (Painer, C-145/10) hat 2011 geklärt, dass urheberrechtlicher Schutz “eigene geistige Schöpfung des Urhebers” voraussetzt. AI-Modelle sind keine Urheber im Sinne des Gesetzes — sie sind Werkzeuge ohne Schöpferpersönlichkeit. Der LG Hamburg-Beschluss vom September 2024 zur Verwendung von LAION-Trainingsdaten (Kneschke ./. LAION) hat das für den deutschen Kontext bestätigt.
§ 44b UrhG (Text- und Data-Mining-Schranke). Seit 2021 erlaubt § 44b DSM-Richtlinie Text- und Data-Mining für rechtmäßig zugängliche Werke — es sei denn, der Rechteinhaber hat einen maschinenlesbaren Vorbehalt eingelegt (robots.txt, Meta-Tag, ai.txt, TDM-Reservation-Protocol). Das ist die zentrale Schraube, an der derzeit gerichtlich und politisch gedreht wird.
EU AI Act und Trainingsdaten-Transparenz. Seit August 2025 müssen GPAI-Anbieter (OpenAI, Anthropic, Mistral, Google) eine “ausreichend detaillierte Zusammenfassung” der Trainingsdaten veröffentlichen (Art. 53 Abs. 1 lit. d AI Act). Das ermöglicht Rechteinhabern erstmals, gezielt Verletzungsklagen einzureichen.
Wann du Urheberrecht am AI-Output begründen kannst
Die Faustregel: je mehr eigenständige schöpferische Eingriffe, desto eher entsteht Urheberrecht. Konkrete Beispiele:
Kein Urheberrecht:
- Prompt “ein Hund auf einer Wiese” und Bild kommt raus — kein Schutz, weder am Bild noch am Prompt
- ChatGPT-Text, den du 1:1 in deine Webseite einfügst — kein Schutz
- Einmaliges Drücken von “Regenerate” oder kleinere Prompt-Tweaks — kein Schutz
Möglicherweise Urheberrecht:
- Bild mit Iterations-Reihe (50+ Prompt-Variationen, Inpainting, manuelle Komposition aus Teilen, Photoshop-Nachbearbeitung) — Schutz möglich, aber Einzelfall
- Code, der zu 70 % aus AI stammt, aber von dir architekturiert, refaktoriert und in einen Gesamtkontext integriert wurde — Schutz am Gesamtwerk plausibel
- Text, der durch eigene Recherche, Auswahl, Anordnung und sprachliche Überarbeitung deutlich von der Roh-AI-Version abweicht — Schutz wahrscheinlich
Klar Urheberrecht:
- AI als Skizze, danach komplette manuelle Ausarbeitung
- AI-Output als Inspirationsquelle, eigenes Werk ohne unmittelbare Übernahme
In der Praxis sehen wir bei Mittelstandskunden vor allem den Mittelbereich. Hier ist Dokumentation wichtig: speichere Prompts, Iterationen, Bearbeitungs-Versionen, um im Streitfall die Schöpfungshöhe nachweisen zu können.
Die Trainings-Daten-Risiken pro AI-Typ
Bilder (Midjourney, Stable Diffusion, DALL-E, Flux)
- Stable-Diffusion-Modelle wurden teils auf LAION-5B trainiert, das urheberrechtlich geschützte Bilder enthielt. Mehrere Verfahren laufen (Getty ./. Stability AI in den USA und UK; Kneschke ./. LAION in Deutschland)
- Midjourney v6+ wurde wegen Trainings-Daten unter US-Sammelklage
- Adobe Firefly wirbt mit “rechtssicher” — trainiert nur auf Adobe-Stock und gemeinfreiem Material, plus Vertragsgarantie für kommerzielle Nutzung
Praktische Empfehlung für Mittelständler: Adobe Firefly für rechtssichere kommerzielle Bilder. Midjourney oder Stable Diffusion nur für interne Mood-Boards oder klar abgegrenzte Bereiche, in denen ein Trainings-Daten-Streit kein Marken-Risiko ist.
Text (ChatGPT, Claude)
Die Wahrscheinlichkeit, dass ein Standard-Text-Output unmittelbar ein geschütztes Werk reproduziert, ist gering — Sprachmodelle generalisieren über Millionen Texte. Aber wörtliche Zitate aus geschützten Werken können passieren, insbesondere bei sehr spezifischen Prompts (“erkläre Kapitel 3 von Buch X”). Prüf-Workflow: Outputs mit zentralen Behauptungen über Plagiatsprüfer (originality.ai, plagscan) laufen lassen, bevor du sie publizierst.
Code (GitHub Copilot, Cursor, Claude Code)
Hier ist die Lage am komplexesten:
- Copilot wurde auf öffentlichen GitHub-Repos trainiert, inklusive Code unter Copyleft-Lizenzen (GPL). Eine Klage von Matthew Butterick et al. läuft seit 2022.
- Wenn ein Copilot-Output eine GPL-Code-Snippet wörtlich reproduziert und du das in proprietären Code einbaust, könntest du gegen die GPL-Lizenz verstoßen.
- Praktische Empfehlung: GitHub Copilot Business hat einen “Public Code Filter”, der wörtliche Übereinstimmungen mit öffentlichem Code blockiert. Sollte für jeden Business-Einsatz aktiv sein.
Was im Anbieter-Vertrag steht
OpenAI (ChatGPT, API): Du bekommst alle Rechte am Output, OpenAI behält keine Lizenz. Bei API ist sogar Trainings-Opt-Out automatisch.
Anthropic (Claude): Du bekommst alle Rechte am Output. Anthropic verpflichtet sich, dich gegen Ansprüche Dritter wegen Trainings-Daten zu verteidigen (Indemnification) bei Business-Tiers.
Microsoft (Copilot, Copilot for Microsoft 365): Microsoft bietet eine Copilot Copyright Commitment — Verteidigung und Schadenersatz für Copyright-Klagen, sofern du die Tools regelkonform nutzt.
Google (Gemini, Vertex AI): Analog, mit “Generative AI Indemnification” für zahlende Workspace-Kunden.
Midjourney: Bei Standard- und Pro-Plan bekommt der Nutzer Eigentums-Rechte am Output. Bei kostenlosem Plan: Creative-Commons-Lizenz, kommerzielle Nutzung eingeschränkt.
Praktischer Workflow für Mittelständler
Für Texte: ChatGPT/Claude API mit aktiviertem Opt-Out. Wesentlich nachbearbeiten. Bei publizierten Inhalten Plagiats-Check. Quelle “AI-unterstützt” im Impressum oder Footer angeben, wenn AI ein zentraler Bestandteil war.
Für Bilder: Adobe Firefly für kommerzielle Marketing-Bilder. Eigene Mockups klar als solche kennzeichnen. Stockfotos für Hero-Bilder, wenn echte Fotos verfügbar. KI-generierte Bilder von Personen vermeiden außer mit klarer Lizenz oder gemeinfreien Modellen.
Für Code: GitHub Copilot Business mit Public-Code-Filter. Keine Output-Übernahmen ohne Code-Review. Open-Source-Lizenz-Scanner (Fossa, Snyk) in der CI/CD-Pipeline.
Allgemein: Dokumentation, welche Tools für welche Zwecke verwendet werden. Schulung der Mitarbeitenden zu Trainings-Daten-Risiken. Indemnification-Klauseln in Anbieter-Verträgen als Sicherheitsnetz nutzen.
Was du heute nicht tun solltest
Keine “Mein AI-Bild, mein Recht”-Annahme. Keine Midjourney-Bilder in Print-Kampagnen ohne juristische Klärung. Keinen Copilot-Code ohne Public-Code-Filter in produktiven Repos. Und keine “AI ist sowieso noch ungeregelt, machen wir später”-Strategie — die Regelung ist da, sie wird nur an einigen Rändern noch geschärft.
Konkrete Frage zu eurem Setup?
Ein 30-Minuten-Erstgespräch klärt meistens schon, ob euer aktueller AI-Stack hält oder wo nachzuarbeiten ist. Kostenlos, ohne Verkaufsdruck.
Erstgespräch buchen