Kennzeichnungspflicht: Code of Practice zur Transparenz von KI-generierten Inhalten

6 min

KI-generierte Bilder, Videos oder Texte sind längst Alltag. Für Nutzerinnen und Nutzer ist aber oft nicht erkennbar, was echt ist – und was nicht. Die KI-VO sieht ab August 2026 deshalb Transparenzpflichten für Anbieter und Betreiber von KI vor. Für Betreiber von KI ist eine Kennzeichnungspflicht von Deepfakes vorgesehen. Wie die Erfüllung der Pflicht aussehen kann, ist in der KI-VO nicht praktisch abgebildet. Genau hier setzt der erste Entwurf des Code of Practice zur Transparenz von KI-generierten Inhalten an. Er soll erklären, wie die Kennzeichnungspflichten aus dem EU AI Act – die ab dem 2. August 2026 gelten – praktisch umgesetzt werden können.

Unverbindliches Erstgespräch vereinbaren

Was beinhaltet der Code of Practice?

Der Code of Practice wurde im Dezember 2025 von der EU-Kommission veröffentlicht. Genauer: vom neuen AI Office, das die Umsetzung der KI-VO und die Innovation von KI in Europa stärken soll.

Der Code of Practice bezieht sich auf die Transparenzpflichten aus Art. 50 Abs. 2, 4 und 5 KI-VO. Dort sind verschiedene Pflichten geregelt.

Art. 50 Abs. 2 KI-VO enthält die Pflicht für Anbieter von KI-Systemen, künstlich generierte Inhalte technisch zu markieren.

Art. 50 Abs. 4 KI-VO enthält die Pflicht für Betreiber von KI-Systemen, Deepfakes und Texte zu kennzeichnen. Art. 50 Abs. 5 KI-VO enthält Angaben zur Wahrnehmung der Kennzeichnung. Für die Praxis sind insbesondere die beiden letztgenannten Pflichten relevant, hierzu enthält der Code of Practice detaillierte Umsetzungsvorschläge.

Ziel ist:

  • Nutzer sollen erkennen können, wenn Inhalte ganz oder teilweise von KI stammen.
  • Täuschung soll verhindert werden.
  • Vertrauen in digitale Inhalte soll erhalten bleiben.

Der Kodex ist rechtlich nicht bindend, soll aber Leitlinien geben, um die Einhaltung der Transparenzpflichten zu sichern.

Newsletter

Für Ihre Inbox

Wichtiges zu Datenschutz, KI, IT-Recht und vielen mehr – einmal monatlich in Ihr Postfach.

Was ist die Summe aus 5 und 2?

Mit Klick auf den Button stimmen Sie dem Versand unseres Newsletters und der aggregierten Nutzungsanalyse (Öffnungsrate und Linkklicks) zu. Sie können Ihre Einwilligung jederzeit widerrufen, z.B. über den Abmeldelink im Newsletter. Mehr Informationen: Datenschutzerklärung.

Ab wann gilt die KI-Kennzeichnungspflicht?

Die Kennzeichnungspflichten aus Art. 50 AI Act gelten ab dem 2. August 2026.

Der Code of Practice ist noch im Entwurfsstadium:

  • Feedbackphase bis Januar 2026
  • Überarbeiteter Entwurf im März 2026
  • Finalisierung im Juni 2026

Was muss nach Art. 50 Abs. 4 KI-VO gekennzeichnet werden?

Nicht jeder KI-Einsatz ist kennzeichnungspflichtig. Entscheidend sind zwei Fälle:

1. Deepfakes

Als Deepfake gilt nach dem AI Act: Ein KI-erzeugter oder manipulierter Bild-, Ton- oder Videoinhalt, der real wirkt und Menschen, Objekte oder Ereignisse echt erscheinen lässt, obwohl sie es nicht sind.

Wichtig: Der Begriff ist bewusst weit gefasst. Es geht nicht nur um Gesichter oder Personen. Auch Produkte, Orte oder Situationen können erfasst sein.

2. Bestimmte KI-generierte Texte

Texte müssen gekennzeichnet werden, wenn sie:

  • vollständig oder weitgehend von KI stammen,
  • ohne menschliche redaktionelle Prüfung veröffentlicht werden und
  • Themen von öffentlichem Interesse betreffen, etwa Nachrichten oder Stellungnahmen.

Marketingtexte oder interne Inhalte fallen in der Regel nicht darunter – können aber je nach Kontext relevant werden.

Was gilt nicht als kennzeichnungspflichtig?

Keine Pflicht besteht, wenn:

  • KI nur unterstützend eingesetzt wird,
  • der Inhalt nicht wesentlich verändert wurde.

Aber: Die Abgrenzung ist schwierig. Was „wesentlich verändert“ heißt, ist rechtlich noch unscharf. Genau hier liegt ein großes Risiko.

Zudem gibt es eine Abweichung bei klar erkennbarer Kunst, Satire oder Fiktion. Auch hier gibt es eine Offenlegungspflicht – die Kennzeichnung kann aber so erfolgen, dass „die Darstellung oder der Genuss des Werkes nicht beeinträchtigt“ wird.

Wie soll die Kennzeichnung aussehen?

Der Kodex schlägt ein einheitliches EU-Icon vor. Dieses soll für:

  • Deepfakes
  • KI-generierte oder manipulierte Inhalte

verwendet werden.

Bis zur finalen Einführung darf ein Übergangs-Icon genutzt werden, zum Beispiel ein zweibuchstabiges Kürzel in der jeweiligen Sprache des Verwenders.

Das Icon muss:

  • auf den ersten Blick erkennbar sein,
  • gut sichtbar platziert werden,
  • zum jeweiligen Medium passen,
  • die Nutzung oder Wahrnehmung des Inhalts nicht stören.

Zusätzlich wird zwischen zwei Kategorien unterschieden:

  • vollständig KI-generiert
  • KI-unterstützt

Unterschiedliche Regeln je nach Medium

Der Kodex macht klare Vorgaben – abhängig vom Format:

Bilder

  • Kennzeichnung bei jeder Darstellung
  • feste, gut sichtbare Position
  • nicht überlagerbar oder versteckbar

Videos

  • Bei Live-Videos: möglichst durchgehend sichtbar
  • Bei aufgezeichneten Videos: Hinweis zu Beginn, optional zusätzlich dauerhaft oder im Abspann

Audio

  • Unter 30 Sekunden: kurzer, klarer Hinweis in Alltagssprache
  • Längere Inhalte: Hinweise zu Beginn, zwischendurch und am Ende

Texte

  • Kennzeichnung spätestens bei der ersten Wahrnehmung
  • feste Position, etwa am Textanfang, -ende oder im Umfeld des Inhalts

Barrierefreiheit ist Pflicht

Transparenz gilt für alle, Art. 50 Abs. 5 S. 2 KI-VO. Der Kodex verlangt deshalb:

  • Screenreader-taugliche Symbole
  • hohen Kontrast
  • Audiobeschreibungen für visuelle Hinweise
  • visuelle oder taktile Hinweise bei rein auditiven Inhalten

Das betrifft auch Websites, Social Media und Plattformen.

Wer ist verantwortlich?

Die KI-VO unterscheidet:

  • Anbieter von KI-Systemen (technische Ebene)
  • Nutzer und Betreiber (sichtbare Kennzeichnung)

Für Unternehmen heißt das: Wer KI-Inhalte veröffentlicht, trägt Verantwortung – auch wenn die KI von Dritten stammt.

Warum das Thema so heikel ist

Die Nutzung von KI ist längst weit verbreitet und viele Unternehmen nutzen sie auch, um künstliche Inhalte zu erzeugen.

Die Definition von Deepfake der KI-VO ist deutlich weiter, als die im allgemeinen Sprachgebrauch verbreitete. Von der KI-VO erfasst werden beispielsweise auch generierte Produktabbildungen.

Die richtige Kennzeichnung ergibt sich praktisch nicht aus der KI-VO selbst, sondern wird nun mit dem Entwurf des Code of Practice greifbarer. Das Thema der Kennzeichnung ist zudem sehr aktuell, da die Pflicht bereits im August 2026 besteht.

Was Unternehmen jetzt tun sollten

  1. KI-Einsatz dokumentieren
  2. Inhalte kategorisieren: KI-generiert oder KI-unterstützt
  3. Prüfen, welche Inhalte eine Pflicht nach Art. 50 KI-VO auslösen
  4. Entwicklung des Code of Practice beobachten
  5. Kennzeichnungsvorschläge des Code of Practice umsetzen

Wer wartet, riskiert ab August 2026 Rechtsverstöße.

Fazit

Der Code of Practice macht klar, wohin die Reise geht. KI-Inhalte müssen erkennbar sein. Für Nutzer. Für Behörden. Für die Öffentlichkeit. Unternehmen sollten die Vorgaben jetzt als Leitlinie nutzen.

Erstgespräch kostenlos

In 30 Minuten zu klaren Prioritäten in der KI-Compliance

Erstgespräch vereinbaren

Sie sagen uns, was Sie vorhaben – wir sagen Ihnen klar, was möglich ist.

Philipp Müller-Peltzer
Rechtsanwalt, Partner | Berlin

Unsere KI-Beratung im Überblick

  • Regulatory Mapping:
    Identifikation relevanter rechtlicher Anforderungen durch detailliertes Mapping gemäß verschiedenen nationalen Vorgaben und EU-Datenregulierungen.
  • Data & AI Governance:
    Entwicklung und Anpassung von Governance-Strukturen, Identifizierung der Anforderungen und Vorbereitungen für die KI-Verordnung.
  • Schulungen:
    Workshops zur Reichweite und Umsetzung des Al Act, Vermittlung von Al-Kompetenz gem. Art. 4 Al Act für Führungskräfte, Produktteams und Entwickler.
  • AI Inventory:
    Unterstützung bei der Erstellung einer Übersicht aller KI Systeme im Unternehmen, einschließlich der Bestimmung, ob ein System als KI-System definiert werden muss oder nicht.
  • Vertragsgestaltung:
    Vertragsgestaltung im Zusammenhang mit Kl-Projekten, wie z.B. Entwicklungsverträge, KI-as-a-Service-Verträge (KIaaS) und weitere.
  • Beratung zu Externen Kl-Anwendungen:
    Beratung und Anleitung zur Nutzung externer Kl-Anwendungen und Prüfung von Drittanwendungen.
  • Anonymisierung & Pseudonymisierung:
    Ausgestaltung und Beratung zu Anonymisierungs- und Pseudonymisierungskonzepten
  • Risikobewertungen:
    Beratung zu Risikobewertungen im Rahmen von Datenschutz- und Grundrechte­folgen­abschätzungen in Bezug auf KI-Systeme.
  • Beratung zu Urheberrecht:
    Beratung zu urheberrechtlichen Implikationen im Zusammenhang mit GenAl (z.B. Rechte am Dateninput, Schutzfähigkeit von Prompts und Output).
  • Rechtskonforme Datennutzung:
    Beratung zu rechtskonformer Datennutzung von Big Data, maschinellem Lernen und generativer KI im Zusammenhang mit Datenschutzrecht, Geschäftsgeheimnissen und Datenbankrechten.
  • Beratung bei KI-Entwicklung:
    Ganzheitliche Beratung bzgl. Vertragsmanagement, Compliance und weiteren rechtlichen Aspekten bei KI-Entwicklungsprojekten.

Unverbindliches Erstgespräch vereinbaren