KI-Tools im Praxistest – Was ist beim Einsatz und Training wirklich erlaubt?
Was wäre, wenn die innovative KI-Anwendung, mit der Sie heute arbeiten, morgen schon zum Risiko wird – etwa weil personenbezogene Daten unerwartet im Modell auftauchen oder weil die Herkunft der Trainingsdaten unklar ist? Als Product Owner, Data-Scientist oder Projektleiter:in treffen Sie täglich Entscheidungen, die rechtliche Folgen haben können. Doch wer frühzeitig Klarheit schafft, profitiert nicht nur von effizienteren Abläufen, sondern vermeidet auch Stolperfallen wie Datenschutzverstöße oder Urheberrechtsverletzungen. Im Folgenden erfahren Sie, wie Sie Ihre KI-Projekte rechtssicher gestalten und welche externen KI-Tools aus rechtlicher Sicht zu empfehlen sind.
Inhalt
- Personenbezogene Daten und KI: Was ist erlaubt, was nicht? Die DSGVO-Ampel für Unternehmen
- KI-Input & -Output: Urheberrechtliche Dos & Don'ts
- Praxistipps für rechtssicheren KI-Einsatz
- Wesentliche Praxistipps
- KI in der Praxis – informiert agieren und rechtlich auf der sicheren Seite bleiben
- Unsere KI-Beratung im Überblick
Personenbezogene Daten und KI: Was ist erlaubt, was nicht? Die DSGVO-Ampel für Unternehmen
KI arbeitet oft mit enormen Datenmengen, und in vielen Fällen handelt es sich dabei um personenbezogene Daten. Daher sind bei der Entwicklung und Nutzung von KI-Systemen die Vorgaben der Datenschutz-Grundverordnung (DSGVO) stets zu beachten. Der AI Act ergänzt die DSGVO, indem er spezifische Anforderungen an KI-Systeme stellt, ersetzt sie jedoch nicht. Beide Verordnungen sind parallel anwendbar und müssen gemeinsam berücksichtigt werden, wenn KI-Systeme personenbezogene Daten im Sinne von Art. 4 Nr. 1 DSGVO verarbeiten. Eine zentrale Frage ist daher, ob und welche personenbezogenen Daten vom KI-System verarbeitet werden. Die Verwendung von ausschließlich anonymen Daten unterliegt nicht der DSGVO. Daher sollte geprüft werden, ob personenbezogene Daten vermieden oder anonymisiert werden können.
Newsletter
Für Ihre Inbox
Wichtiges zu Datenschutz, KI, IT-Recht und vielen mehr – einmal monatlich in Ihr Postfach.
Die richtige Rechtsgrundlage finden
Werden personenbezogene Daten verarbeitet, bedarf dies immer einer Rechtsgrundlage. Der AI Act selbst stellt ausdrücklich keine Rechtsgrundlage dar. Für den KI-Einsatz kommen folgende Rechtsgrundlagen in Betracht:
-
Einwilligung (Art. 6 Abs. 1 lit. a DSGVO): Grundsätzlich möglich, aber in der Praxis oft schwierig, da sie informell, widerruflich und mit Transparenzanforderungen verbunden ist, die bei komplexen KI-Systemen schwer zu erfüllen sind. Die technische Löschung von Daten aus trainierten Modellen im Falle eines Widerrufs ist oft nicht umsetzbar.
-
Berechtigtes Interesse (Art. 6 Abs. 1 lit. f DSGVO): Häufig eine relevante Grundlage für den KI-Einsatz, z.B. zur Effizienzsteigerung, Qualitätsverbesserung oder Betrugsprävention. Erfordert eine sorgfältige Interessenabwägung zwischen den Interessen des Unternehmens und den Grundrechten der betroffenen Personen, die dokumentiert werden sollte (z.B. im Rahmen eines Legitimate Interest Tests).
-
Besondere Kategorien personenbezogener Daten (Art. 9 DSGVO): Die Verarbeitung sensibler Daten (Gesundheitsdaten, biometrische Daten, Daten von Bewerbern oder Beschäftigten) bedarf spezieller Legitimationstatbestände. Das berechtigte Interesse gemäß Art. 6 Abs. 1 lit. f DSGVO ist hierfür nicht ausreichend.
Externe Dienstleister managen
Beim Einsatz externer KI-Tools (z.B. über Cloud oder API) liegt häufig eine Auftragsverarbeitung nach Art. 28 DSGVO vor. Dies erfordert den Abschluss eines wirksamen Auftragsverarbeitungsvertrags (AVV). Der AVV stellt sicher, dass der Anbieter die Daten nur im Auftrag und ohne eigene Zwecke verarbeitet, insbesondere nicht für das Training zugrundeliegender KI-Modelle. Bei vielen AIaaS-Plattformen (wie ChatGPT oder DeepL) bieten kostenpflichtige Varianten oft einen AVV an, während kostenlose Versionen die Eingaben für Trainingszwecke nutzen können. So bieten die Unternehmensversionen „**ChatGPT Teams/Enterprise““ und „**Microsoft Azure OpenAI Services““ grundsätzlich AVV an – wobei bei letzterem Vorsicht bei Preview-Features geboten ist. DeepL Pro gilt als DSGVO-konform, da Daten nicht für Trainingszwecke genutzt werden und Server in der EU stehen. Meta AI wird für geschäftliche Zwecke datenschutzrechtlich nicht empfohlen, u.a. wegen fehlendem AVV und unklarer Datenverarbeitung.
Datenübermittlung in Drittländer rechtssicher gestalten
Ein weiterer kritischer Punkt ist der Drittstaatentransfer, wenn Daten außerhalb der EU/EWR verarbeitet werden, wie es bei vielen US-basierten KI-Anbietern der Fall sein kann. Dies erfordert geeignete Garantien nach Art. 46 DSGVO, wie z.B. Standardvertragsklauseln (SCC). Der bloße Abschluss von SCC reicht jedoch nicht aus - es muss zusätzlich ein angemessenes Datenschutzniveau sichergestellt und ein Transfer Impact Assessment (TIA) durchgeführt werden. Zudem sind die Zugriffsmöglichkeiten ausländischer Behörden unter Berücksichtigung der jeweiligen Rechtslage (z.B. US-Recht: FISA 702, Executive Order 12333) zwingend zu bewerten. Der EU-US Data Privacy Framework kann zwar eine Angemessenheitsgrundlage darstellen, basiert aber auf Selbstzertifizierung der US-Unternehmen.
Personenbezogene Daten im Modell – ein unterschätztes Risiko
Eine Herausforderung für Anbieter von KI-Systemen ist die Frage, ob personenbezogene Daten im trainierten KI-Modell gespeichert bleiben. Die Hamburger Datenschutzbehörde argumentiert beispielsweise, dass die verwendeten Daten durch ihre Generalisierung implizit anonymisiert werden. Andere Behörden widersprechen und verweisen auf sogenannte Privacy Inversion Attacks, die eine Rekonstruktion von Daten ermöglichen können. Der Europäische Datenschutzausschuss (EDSA) fordert deshalb eine risikobasierte Bewertung, welche sowohl die technische Wahrscheinlichkeit einer Datenextraktion als auch die Schwere möglicher Betroffenenbeeinträchtigungen berücksichtigt.
Risiken bewerten
Eine Datenschutz-Folgenabschätzung (DSFA) nach Art. 35 DSGVO ist in der Regel obligatorisch beim Einsatz neuer Technologien wie generativer KI, insbesondere bei großem Umfang der Verarbeitung, innovativer Technologie oder der Kombination von Datensätzen. Die Methodik einer DSFA ist in weiten Teilen auf die Risikoanalyse nach Art. 9 AI Act übertragbar, wobei die DSFA explizit dem Schutz der Rechte und Freiheiten natürlicher Personen dient.
Fazit/Merke
Die Nutzung von KI-Tools im Business erfordert eine sorgfältige datenschutzrechtliche Prüfung. Die "DSGVO-Ampel" steht auf Grün, wenn eine klare Rechtsgrundlage vorliegt, ein wirksamer AVV (falls relevant) abgeschlossen wurde, Drittstaatentransfers abgesichert sind (SCC, TIA), die Grundsätze der DSGVO (Datenminimierung, Transparenz) beachtet werden, die Risiken der Datenspeicherung im Modell bewertet sind und eine DSFA durchgeführt wurde.
KI-Input & -Output: Urheberrechtliche Dos & Don'ts
Das Urheberrecht spielt eine wichtige Rolle, sowohl wenn Inhalte in KI-Systeme eingegeben (Training/Input) als auch wenn Inhalte von KI-Systemen erzeugt werden (Output).
Welche Daten für das KI-Training?
Das Trainieren von KI-Modellen mit externen Inhalten erfolgt oft auf Basis von Daten, die mittels Text- und Data-Mining (TDM) gewonnen wurden. Zwar stellt § 44b UrhG, der Art. 4 der DSM-Richtlinie umsetzt, eine mögliche rechtliche Grundlage für das Mining großer Datenmengen dar, jedoch regelt diese Vorschrift lediglich den Prozess der Datengewinnung und nicht unmittelbar das KI-Training selbst. Die tatsächliche Eignung solcher TDM-Daten für das Training hängt stark von Faktoren wie Datenqualität, Aktualität, Umfang und Relevanz ab: Hochwertige, strukturierte und saubere Datensätze sind essenziell, da minderwertige oder inkonsistente Daten die Qualität der KI-Modelle negativ beeinflussen.
Lizenzierte Datensätze bieten hierzu eine attraktive Alternative, da sie meist rechtssicher, qualitativ hochwertig, strukturiert und zeiteffizient einsetzbar sind. Sie gewährleisten Unternehmen klare Nutzungsmöglichkeiten, sind jedoch häufig kostenintensiv und in ihrer Anpassbarkeit eingeschränkt. TDM hingegen ermöglicht individuelle Anpassungen, bietet mehr Flexibilität und ist meist kostengünstiger, geht jedoch oft mit höherem Aufwand bei der Datenbereinigung und rechtlichen Risiken einher.
Insgesamt zeigt sich daher, dass eine hybride Nutzung von lizenzierten Datensätzen und ergänzenden TDM-Daten in vielen Fällen die beste Strategie darstellt, um die jeweiligen Vorteile zu kombinieren.
Eine Möglichkeit, sich vor dem TDM des eigenen Contents zu schützen, ist die Erklärung eines Nutzungsvorbehalts (Opt-out). Für online zugängliche Werke muss dieser Opt-out in maschinenlesbarer Form erfolgen. Ob eine robots.txt-Datei dafür ausreicht, ist noch ungeklärt; TDM-spezifische Protokolle werden als besserer Ansatz angesehen.
Wem gehört der KI-Output?
Die entscheidende Voraussetzung für urheberrechtlichen Schutz ist eine persönliche geistige Schöpfung, d.h. ein menschliches Schaffen. Bei vollständig KI-generiertem Output fehlt diese Voraussetzung in aller Regel; solche Inhalte genießen daher keinen Urheberrechtsschutz und sind grundsätzlich gemeinfrei. Bei der Verwendung von gemeinfreien Inhalten verbleibt jedoch ein Restrisiko, wenn beim KI-Training geschützte Werke verwendet wurden, die sich im KI-Output reproduzieren. Soll der eigene KI-Output urheberrechtlich geschützt sein, ist eine substanzielle menschliche Bearbeitung nötig, die über rein technische oder geringfügige Anpassungen hinausgeht und eine eigenständige schöpferische Leistung erkennen lässt. Da rein KI-erzeugte Inhalte kein originäres Urheberrecht begründen, können daran auch keine exklusiven Nutzungsrechte „verkauft“ werden; wohl aber lassen sich vertragliche Nutzungsvereinbarungen schließen, die etwa Gewährleistungen oder Garantien zur Rechtefreiheit enthalten.
Risiken bei Stilkopien, Plagiaten etc.
Das Nachahmen eines bloßen Stils, etwa des typischen „Ghibli-Looks“, verletzt noch kein Urheberrecht, weil allein die Stilidee nicht geschützt ist. Unzulässig wird es erst, wenn der Output konkrete geschützte Elemente eines Originals übernimmt. Für Fachtexte, in denen häufig Fakten wiedergegeben werden, liegt die Schutzschwelle ohnehin höher; trotzdem kann eine KI-gestützte Paraphrase ohne eigene kreative Leistung oder ohne korrekte Quellenangabe als Plagiat gelten. Wer Werke nutzt, die unter Lizenzen wie „CC BY-ND“ stehen, muss zudem beachten, dass solche Lizenzen keine Bearbeitung und Weiterverbreitung erlauben.
Praxis-Check mit Beispielen
In der Praxis ist stets zu prüfen, welche Lizenzbedingungen für KI-Tools und verwendete Inhalte gelten:
Canva
Designs, die mit einem Canva-Pro-Account erstellt werden, dürfen an genau einen Auftraggeber oder Arbeitgeber übertragen und von diesem genutzt werden, solange er sich an die Lizenzvorgaben hält; ein eigener Account des Kunden ist nicht zwingend, erleichtert aber die Rechteverwaltung.
Suno
Musik, die mit einem kostenlosen Suno-Account erzeugt wird, ist auf nicht-kommerzielle Nutzung beschränkt, während ein Pro- oder Premier-Plan für kommerzielle Zwecke erforderlich ist, da die Rechte ansonsten bei Suno verbleiben.
YouTube
Inhalte von YouTube schließlich dürfen ohne ausdrückliche Lizenz des Rechteinhabers weder als Musik noch als Transkript in eigenen Projekten eingesetzt werden; zulässig sind lediglich Stücke aus der YouTube-Audio-Bibliothek oder Werke unter passenden Creative-Commons-Lizenzen, und auch hier nur im Rahmen der jeweiligen Bedingungen.
Nachweisbarkeit im Streitfall
Der Nachweis, dass ein Inhalt mithilfe von KI erstellt wurde, ist in der Praxis nicht trivial, aber möglich. Die Darlegungs- und Beweislast trägt diejenige Partei, die Urheber- oder Leistungsschutzrechte geltend macht. Als Beweismittel kommen vor allem plattforminterne Nutzungsprotokolle und gespeicherte Prompt-Verläufe, Dateimetadaten wie EXIF-Informationen oder digitale Wasserzeichen, stilometrische beziehungsweise forensische Gutachten sowie weitere Indizien – etwa ein ungewöhnliches Erstellungsverhalten – in Betracht. Ein Abgleich mit den ursprünglichen Trainingsdaten wäre zwar besonders aussagekräftig, ist in der Praxis jedoch selten realisierbar, weil diese Datensätze in aller Regel proprietär bleiben. Nach der freien Beweiswürdigung des Gerichts ist keine absolute Gewissheit erforderlich; es genügt eine hinreichende Überzeugung, die sich aus der Gesamtschau der vorgelegten Indizien ergibt.
Erstgespräch kostenlos
In 30 Minuten zu klaren Prioritäten in der KI-Compliance
Sie sagen uns, was Sie vorhaben – wir sagen Ihnen klar, was möglich ist.
Rechtsanwalt, Partner | Berlin
Praxistipps für rechtssicheren KI-Einsatz
Wie bereits in unserem Leitfaden "KI sicher nutzen in 9 Schritten" erläutert, ist die rechtssichere Nutzung von KI ein Prozess, der proaktives Handeln erfordert. Unternehmen sollten bereits jetzt damit beginnen, Herausforderungen wie die AI Act Compliance anzugehen.
Wesentliche Praxistipps
Aufbau einer KI-Governance
-
Etablieren Sie ein KI-Governance-System, idealerweise gestützt auf interdisziplinäre Teams. Bestandsaufnahme
-
Identifizieren und dokumentieren Sie, wo und wie KI-Systeme im Unternehmen eingesetzt oder geplant sind (KI-Register).
Richtlinien
-
Erstellen Sie eine unternehmensspezifische KI-Richtlinie.
Anwendungsbereich und Risikoklassifizierung
-
Überprüfen Sie den persönlichen Anwendungsbereich des AI Act und bestimmen Sie die Risikokategorie der KI-Use-Cases nach der AI Act Risiko-Taxonomie.
Prozesse nutzen
-
Nutzen Sie bestehende Dokumentationen, wie das Verzeichnis von Verarbeitungstätigkeiten (VVT), um darauf aufbauend die AI-Act-Compliance zu erleichtern.
-
Ergänzend kann die Methodik der Datenschutz-Folgenabschätzung (DSFA) für die Durchführung der Risikoanalyse herangezogen werden.
Dokumentation
-
Führen Sie die erforderlichen technischen Dokumentationen und Aufzeichnungen durch.
KI-Kompetenz
-
Stellen Sie ein ausreichendes Maß an KI-Kompetenz im Unternehmen her (Art. 4 AI Act), etwa durch Schulungen und Awareness-Maßnahmen.
-
Hierfür bietet sich auch die Einführung eines KI-Beauftragten an, der als zentrale Ansprechperson für KI-Fragen fungiert und zugleich als KI-Promoter im Unternehmen wirkt.
Menschliche Aufsicht
-
Planen und implementieren Sie die menschliche Aufsicht für Hochrisiko-KI-Systeme.
Kontinuierliche Anpassung
-
Etablieren Sie ein kontinuierliches Monitoring der rechtlichen Entwicklungen und passen Sie Ihre Compliance-Maßnahmen agil an.
-
Neben der EU-Ebene sind auch nationale Durchführungsgesetze (z. B. der Entwurf eines Gesetzes zur Durchführung des AI Act) künftig fortlaufend zu monitoren.
-
Verstöße gegen den AI Act, die nicht bereits selbst im AI Act mit Bußgeldern belegt sind, können durch die nationalen Umsetzungsgesetze mit gesonderten Bußgeldern sanktioniert werden.
Weitere detaillierte Schritte finden Sie in unserem bereits veröffentlichten Praxis-Leitfaden "KI sicher nutzen in 9 Schritten".
KI in der Praxis – informiert agieren und rechtlich auf der sicheren Seite bleiben
Die Nutzung von KI-Tools bietet immense Potenziale für Unternehmen, ist aber untrennbar mit rechtlichen Anforderungen verbunden. Der AI Act, die DSGVO und das Urheberrecht bilden den rechtlichen Basis-Rahmen.
Um Risiken zu minimieren und rechtlich auf der sicheren Seite zu bleiben, ist es entscheidend:
-
Die richtigen Tools auszuwählen: Prüfen Sie KI-Tools sorgfältig im Hinblick auf ihre Funktionsweise, Datenverarbeitung, den Abschluss von AVVs und Serverstandorte, insbesondere bei personenbezogenen Daten. Berücksichtigen Sie die Empfehlungen für DSGVO-konforme Tools wie Google Gemini Business, ChatGPT (Teams/Enterprise) oder DeepL Pro, und meiden Sie für Geschäftszwecke ungeeignete Tools wie Meta AI.
-
Proaktiv zu prüfen und laufend anzupassen: Führen Sie notwendige Risikobewertungen wie eine DSFA durch, stellen Sie KI-Kompetenz sicher, implementieren Sie eine menschliche Aufsicht für Hochrisiko-Systeme und achten Sie auf die Einhaltung der Transparenzpflichten und Urheberrechtsregeln. Nutzen Sie Synergien mit bestehenden Compliance-Prozessen.
Die rechtliche Landschaft für KI entwickelt sich stetig weiter. Unternehmen, die informiert agieren, die rechtlichen Rahmenbedingungen verstehen und ihre Prozesse entsprechend anpassen, können die Chancen der KI sicher nutzen und ihre Zukunftsfähigkeit sichern.
Erstgespräch kostenlos
In 30 Minuten zu klaren Prioritäten in der KI-Compliance
Sie sagen uns, was Sie vorhaben – wir sagen Ihnen klar, was möglich ist.
Rechtsanwalt, Partner | Berlin
Unsere KI-Beratung im Überblick
- Regulatory Mapping:
Identifikation relevanter rechtlicher Anforderungen durch detailliertes Mapping gemäß verschiedenen nationalen Vorgaben und EU-Datenregulierungen. - Data & AI Governance:
Entwicklung und Anpassung von Governance-Strukturen, Identifizierung der Anforderungen und Vorbereitungen für die KI-Verordnung. - Schulungen:
Workshops zur Reichweite und Umsetzung des Al Act, Vermittlung von Al-Kompetenz gem. Art. 4 Al Act für Führungskräfte, Produktteams und Entwickler. - AI Inventory:
Unterstützung bei der Erstellung einer Übersicht aller KI Systeme im Unternehmen, einschließlich der Bestimmung, ob ein System als KI-System definiert werden muss oder nicht. - Vertragsgestaltung:
Vertragsgestaltung im Zusammenhang mit Kl-Projekten, wie z.B. Entwicklungsverträge, KI-as-a-Service-Verträge (KIaaS) und weitere. - Beratung zu Externen Kl-Anwendungen:
Beratung und Anleitung zur Nutzung externer Kl-Anwendungen und Prüfung von Drittanwendungen. - Anonymisierung & Pseudonymisierung:
Ausgestaltung und Beratung zu Anonymisierungs- und Pseudonymisierungskonzepten - Risikobewertungen:
Beratung zu Risikobewertungen im Rahmen von Datenschutz- und Grundrechtefolgenabschätzungen in Bezug auf KI-Systeme. - Beratung zu Urheberrecht:
Beratung zu urheberrechtlichen Implikationen im Zusammenhang mit GenAl (z.B. Rechte am Dateninput, Schutzfähigkeit von Prompts und Output). - Rechtskonforme Datennutzung:
Beratung zu rechtskonformer Datennutzung von Big Data, maschinellem Lernen und generativer KI im Zusammenhang mit Datenschutzrecht, Geschäftsgeheimnissen und Datenbankrechten. - Beratung bei KI-Entwicklung:
Ganzheitliche Beratung bzgl. Vertragsmanagement, Compliance und weiteren rechtlichen Aspekten bei KI-Entwicklungsprojekten.
Inhalt
- Personenbezogene Daten und KI: Was ist erlaubt, was nicht? Die DSGVO-Ampel für Unternehmen
- KI-Input & -Output: Urheberrechtliche Dos & Don'ts
- Praxistipps für rechtssicheren KI-Einsatz
- Wesentliche Praxistipps
- KI in der Praxis – informiert agieren und rechtlich auf der sicheren Seite bleiben
- Unsere KI-Beratung im Überblick
Ihre Ansprechpartner:innen