Ab dem 2. August 2026 gilt in der EU: Wer KI-generierte Inhalte veröffentlicht, muss das kenntlich machen. Artikel 50 des EU AI Acts macht Transparenz zur Pflicht — für Texte, Bilder, Videos, Audio und Chatbots. Was zunächst wie eine technische Randnotiz klingt, wird für viele Unternehmen ein echter Handlungsbedarf — und zwar jetzt, nicht im Juli 2026.
Was viele nicht wissen: Es gibt nur eine kleine Ausnahme. Und wer sie nicht kennt, kennzeichnet entweder zu viel — oder zu wenig.
⇨ 1. Kennzeichnungspflicht für Bilder: Täuschungspotenzial entscheidet — nicht der Bekanntheitsgrad.
Viele denken bei Kennzeichnungspflicht für Bilder zuerst an Deepfakes von Prominenten. Das greift jedoch zu kurz. Entscheidend ist nicht, ob eine bekannte Persönlichkeit abgebildet ist, sondern ob der Inhalt täuschend echt wirkt. Ein KI-generiertes Foto eines fiktiven Managers in einem Büro kann genauso kennzeichnungspflichtig sein wie das manipulierte Bild einer Politikerin — weil der Maßstab das Täuschungspotenzial gegenüber dem Betrachter ist, nicht der Bekanntheitsgrad der abgebildeten Person.
Das hat praktische Konsequenzen für nahezu jeden, der KI-Tools zur Bildgenerierung nutzt: Produktbilder, Stimmungsbilder für Blogbeiträge, generierte Mitarbeiterfotos für Präsentationen — all das kann betroffen sein, sobald es realistisch genug wirkt, um als echt durchzugehen.
Für Bilder empfehlen sich deshalb zwei Ebenen: ein sichtbarer Hinweis im Bild selbst — etwa ein dezentes Label oder eine Einblendung — plus maschinenlesbare Metadaten nach C2PA-Standard, die Plattformen automatisch auslesen können. Wer nur eine Ebene umsetzt, bewegt sich auf dünnem Eis.
Ausgenommen sind offensichtlich künstlerische, satirische oder fiktionale Werke — dort reicht ein angemessener Hinweis, der das Werk selbst nicht beeinträchtigt. Die Betonung liegt auf „offensichtlich“: Wer eine surreale KI-Illustration als Satire deklariert, obwohl sie täuschend real wirkt, wird damit keine Behörde überzeugen.
⇨ 2. Kennzeichnungspflicht für Texte: Nicht jeder KI-Text ist automatisch kennzeichnungspflichtig.
Hier trennt das Gesetz klarer als viele vermuten — und das ist tatsächlich eine gute Nachricht für die meisten Unternehmen. Die Pflicht greift bei Texten, die veröffentlicht werden, um die Öffentlichkeit über Angelegenheiten von öffentlichem Interesse zu informieren — also Inhalte mit nachrichtenartigem, politischem oder gesellschaftlich relevantem Charakter. Ein regulärer Marketingtext, eine Produktbeschreibung oder ein LinkedIn-Post fällt nicht automatisch darunter.
Was bedeutet das konkret? Wer KI nutzt, um interne Kommunikation zu formulieren, Angebote zu schreiben oder Social-Media-Inhalte zu gestalten, ist in den meisten Fällen nicht zwingend kennzeichnungspflichtig — vorausgesetzt, ein Mensch prüft, verantwortet und prägt den Inhalt redaktionell.
Und genau das ist die entscheidende Ausnahme: Wer KI nur unterstützend einsetzt — zum Korrigieren, Formatieren, Übersetzen oder Anpassen des Stils — und den Inhalt selbst maßgeblich prägt, ist auf der sicheren Seite. Die KI gilt dann als Werkzeug, nicht als Autor. Die Kontrollfrage lautet immer: Kann der durchschnittliche Leser durch diesen Inhalt getäuscht werden? Wenn ja, kennzeichnen. Wenn ein Mensch den Inhalt inhaltlich geprägt und verantwortet hat — in der Regel nein.
Wer jedoch automatisiert Texte zu gesellschaftlich relevanten Themen veröffentlicht — etwa über KI-generierte Newsletter, News-Aggregatoren oder politische Kommunikation — bewegt sich ohne klare Kennzeichnung direkt in den Risikobereich.
⇨ Was konkret droht, wenn man es ignoriert.
Bußgelder bis zu 15 Mio. Euro oder 3 % des weltweiten Jahresumsatzes — es gilt der jeweils höhere Betrag. Für mittelständische Unternehmen ist das keine abstrakte Zahl. Dazu kommen wettbewerbs- und verbraucherschutzrechtliche Risiken, die in der Diskussion oft vergessen werden: Wer systematisch ohne Kennzeichnung täuscht, lädt Mitbewerber regelrecht zur Abmahnung ein. Der Reputationsschaden bei öffentlich bekannten Verstößen übersteigt die Bußgelder häufig deutlich.
Wer jetzt handeln sollte — und was zu tun ist:
✓ Alle KI-Tools im Unternehmen erfassen — auch die inoffiziellen. Schatten-KI ist das größte blinde Fleck in der Compliance. ✓ Klären, welche Inhalte wirklich kennzeichnungspflichtig sind — differenziert nach Inhaltstyp, Kontext und Täuschungspotenzial. ✓ Redaktionelle Workflows dokumentieren — wer prüft, wer freigibt, wer verantwortet. Das ist die einzige dokumentierbare Schutzlinie. ✓ Mitarbeitende schulen, bevor es ernst wird — denn Unwissenheit schützt nicht vor Konsequenzen, weder rechtlich noch reputativ.
Der finale Verhaltenskodex des AI Office kommt voraussichtlich Mitte 2026 — und wird de facto der Maßstab für Aufsichtsbehörden sein, ob formal verbindlich oder nicht. Wer bis August wartet, startet zu spät. Nicht weil die Behörden sofort mit Bußgeldbescheiden winken, sondern weil der Aufbau funktionierender Prozesse Zeit braucht — und weil Mitarbeitende, die im Juli informiert werden, im August noch keine andere Routine haben.
KI-Kompetenz, die bleibt, bedeutet auch: Transparenz, die schützt.
Disclaimer: Dieser Beitrag dient der allgemeinen Orientierung und ersetzt keine rechtliche Beratung im Einzelfall. Bei konkreten Compliance-Fragen empfehle ich die Einbindung juristischer Fachberatung.
Lichtbildgestalter: NxtLvlOrg UG mit künstlicher Intelligenz

