Potenziale nutzen: Künstliche Intelligenz und Datenschutz-Folgenabschätzung

Als selbstlernendes System, das eigenständig Entscheidungen treffen und intelligentes Verhalten imitieren kann, bringt Künstliche Intelligenz (KI) (auch „AI“, von „Artificial Intelligence“) viele Innovationen in unseren Alltag. Bekannte Beispiele sind KI-gesteuerte Sprachassistenten wie Alexa oder Siri. Auch bei der Auswahl, welcher Film oder welche Serie uns auf einer Streaming-Plattform gefallen könnte, ist uns KI behilflich. Sogar erste Zulassungen für autonomes Fahren auf öffentlichen Straßen wurden bereits erteilt. KI-basierte Anwendungen sind vielfältig und scheinen in Anbetracht der KI-nutzenden Technologien grenzenlos. Vor allem auch im unternehmerischen Kontext macht sich KI schon heute bewährt. So können KI-Systeme etwa bei der Auswahl von Bewerber:innen unterstützen. In der Kund:innen-Betreuung übernehmen sie die automatisierte Erkennung und Erstbearbeitung von Kund:innen-E-Mails.

KI muss aber zunächst angelernt werden und das funktioniert in der Regel nur, wenn ihr ausreichende Mengen an Daten zugeführt werden. Weisen diese Daten einen Personenbezug auf, gilt es, die KI mit der Datenschutz-Grundverordnung (DSGVO) in Einklang zu bringen. Nutzen Unternehmen KI, müssen sie dafür sorgen, dass die personenbezogenen Daten, die innerhalb der KI verarbeitet werden, ausreichend geschützt werden. Besteht nach Art, Umfang, Umständen oder Zweck der Datenverarbeitung ein besonders hohes Risiko für die Rechte und Freiheiten von Personen, so muss gem. Art. 35 DSGVO eine Datenschutz-Folgeabschätzung (DSFA) vorgenommen werden. Die Durchführung einer solchen dient der Identifizierung von Risiken bei riskanten Verarbeitungsvorgängen. Mittels einer DSFA können Unternehmen den gesamten Entwicklungsprozess einer KI-Anwendung datenschutzkonform und sicher gestalten und begleiten. Wie eine DSFA bei KI-Systemen effizient durchgeführt werden kann, erläutern wir Ihnen im Folgenden.

Die DSFA als Risikoanalyse

Neben den vielen positiven Aspekten, ergeben sich auch Risiken, die aus dem Einsatz von KI-Systemen resultieren können. Zum Beispiel können einzelne Entscheidungsprozesse einer KI aufgrund ihrer Komplexität undurchsichtig werden (sog. „Blackbox“). Was innerhalb der Blackbox mit den Daten geschieht, ist oft unklar und nimmt somit auch jegliche Möglichkeit bei Bedarf einzuschreiten. Außerdem können der KI zugrundeliegende Daten unvollständig, fehlerhaft, manipuliert oder mit menschlichen Vorurteilen (sog. „Bias“) belastet sein, mit der Konsequenz diskriminierender Entscheidungen. Die Risiken sind noch weitaus vielfältiger. Eine DSFA hilft, diese zu analysieren und durch entsprechende Maßnahmen zu entschärfen.

Die DSFA ist in Art. 35 DSGVO geregelt. Das datenverarbeitende Unternehmen hat unter gewissen Voraussetzungen als Verantwortlicher vorab eine Abschätzung der Risiken und Folgen der vorgesehenen Verarbeitungsvorgänge für den Schutz personenbezogener Daten durchzuführen. Verantwortlicher ist gem. Art. 4 Nr. 7 DSGVO jede Stelle, die über die Zwecke und Mittel der Verarbeitung von personenbezogenen Daten zumindest mitentscheidet – also in der Regel das KI-einsetzende Unternehmen. Die DSFA ist darauf gerichtet, ob im Rahmen einer Verarbeitungstätigkeit voraussichtlich ein hohes Risiko für die Rechte und Freiheiten natürlicher Personen besteht. Insbesondere wenn die Verarbeitung unter Verwendung neuer Technologien erfolgt, kann ein voraussichtlich hohes Risiko vorliegen. Ziel der DSFA ist es, dass sich der Verantwortliche in besonders sensiblen Bereichen durch ein strukturiertes Verfahren über die möglichen Risiken und Folgen der Datenverarbeitungsvorgänge bewusst wird und besonders riskante Verarbeitungen unterlässt bzw. der Datenschutzaufsichtsbehörde vorlegt. Unternehmen können mit der DSFA also prüfen, ob bzw. inwiefern eine KI-Anwendung als datenschutzkonform eingesetzt werden kann.

Vorabprüfung einer DSFA

Zunächst muss überprüft werden, ob eine DSFA überhaupt durchgeführt werden muss. In Art. 35 Abs. 3 DSGVO finden sich einige Regelbeispiele, wonach eine DSFA immer notwendig ist. Beim Profiling (vgl. Art. 4 Nr. 4 DSGVO), das häufig mit KI-basierten Tools ausgeführt wird, ist nach Art. 35 Abs. 3 lit. a DSGVO eine DSFA notwendig. Für den Fall, dass eine KI-basierte Anwendung nicht unter eines der Regelbeispiele fällt, bleibt die von der Datenschutzkonferenz (gemeinsames Gremium der deutschen Datenschutzaufsichtsbehörden) gem. Art. 35 Abs. 4 Satz 1 DSGVO veröffentlichte Positivliste zu berücksichtigen. Darin sind Verarbeitungstätigkeiten aufgeführt, für die eine DSFA immer durchzuführen sind. In Nummer 11 heißt es, dass eine DSFA dann vorzunehmen ist, wenn KI eingesetzt wird, um personenbezogene Daten zu verarbeiten, um die Interaktion mit Betroffenen zu steuern oder persönliche Aspekte von ihnen zu bewerten, beispielsweise also, wenn ein Unternehmen KI einsetzt, um mit Kund:innen zu interagieren. In Nummer 13 ist vorgegeben, dass eine DSFA dann erforderlich ist, wenn eine automatisierte Auswertung von Video- oder Audio-Aufnahmen zur Bewertung der Persönlichkeit von Betroffenen erfolgt, etwa die automatisierte Auswertung von Callcenter-Telefonaten.

Es kann also festgehalten werden, dass beim Einsatz von KI in vielen Fällen eine DSFA durchgeführt werden muss.


Das könnte Sie auch interessieren:


Die Durchführung einer DSFA

Die eigentliche DSFA ist in Art. 35 Abs. 7 DSGVO normiert.

1. Systematische Beschreibung der geplanten Verarbeitungsvorgänge

Sie beginnt mit einer systematischen Beschreibung aller Verarbeitungsvorgänge. Hier sollten Art, Umfang, Umstände und vor allem Zwecke der Verarbeitung erfasst werden. Gegebenenfalls können auch die vom Verantwortlichen verfolgten berechtigten Interessen berücksichtigt werden. Unter anderem sollten auch die unterschiedlichen Kategorien an Personen und an Daten, die betroffen sind, systematisch beschrieben werden. Kategorien von Personen können z.B. Beschäftigte oder Kundinnen und Kunden sein. Datenkategorien sind etwa Gesundheits-, Meta- oder Anmeldedaten. Vor dem Hintergrund der o.g. Blackbox-Problematik ist es nicht immer einfach, genaue Beschreibungen der Verarbeitungsvorgänge beim Einsatz einer KI abzugeben. Jedoch genügt es, wenn die geplanten Verarbeitungsvorgänge beschrieben werden.

2. Beurteilung aus rechtlicher Perspektive

Im Anschluss müssen die Verarbeitungsvorgänge aus rechtlicher Perspektive beurteilt werden. Dabei geht es um die Rechtsgrundlagen sowie die Bewertung der Notwendigkeit und Verhältnismäßigkeit der Verarbeitungsvorgänge in Bezug auf den Zweck (vgl. Art. 35 Abs. 7 lit. b DSGVO). In diesem Rahmen muss auch die Vereinbarkeit mit dem Grundsatz der Datenminimierung aus Art. 5 Abs. 1 lit. c DSGVO geklärt werden. Demnach muss die Verwendung personenbezogener Daten dem Zweck angemessen und erheblich sowie auf das für die Zwecke der Verarbeitung notwendige Maß beschränkt sein. Da KI aufgrund von riesigen Datenmengen-Analysen („Big Data“) funktioniert, ist der Datenminimierungsgrundsatz häufig schwierig einzuhalten. Im Einzelnen ist oft nicht klar, welche Daten nun tatsächlich Gegenstand der Analyse waren und welche anderen Daten für die Entwicklung der KI nicht erheblich gewesen wären. Werden also Daten von einer KI verarbeitet, die für ihre Entwicklung nicht notwendig waren, wären diese Daten eigentlich nicht dem Zweck angemessen und nicht auf das notwendige Maß beschränkt. Diesem Konflikt können Unternehmen entgehen, wenn sie vorab Daten bereits anonymisieren, pseudonymisieren oder entsprechende Löschkonzepte vorsehen. Andernfalls bietet es sich an, zunächst mit einer kleinen Menge an Trainingsdaten zu beginnen und die Menge dann – falls der Trainingserfolg nicht eintritt – sukzessive zu erhöhen.

3. Die Bewertung der Risiken

Hauptbestandteil der DSFA ist dann die eigentliche Bewertung der Risiken für die Rechte und Freiheiten der betroffenen Personen (vgl. Art. 35 Abs. 7 lit. c DSGVO). Dies meint die konkrete Risikoanalyse und setzt sich aus Risikobewertung anhand Eintrittswahrscheinlichkeit und Schwere, der Risikobehandlung und der Ermittlung des Restrisikos zusammen. In diesem Zusammenhang hat sich als Methode unter anderem das Standard-Datenschutzmodell (SDM) der Datenschutzkonferenz etabliert, mit dem die relevanten Datenschutzvorgaben der DSGVO in entsprechende technische und organisatorische Maßnahmen übersetzt werden können. Anhand von Gewährleistungszielen des Datenschutzrechts und der Informationssicherheit sollen die Risiken erfasst und beschrieben werden. Zu ihnen zählen unter anderem die Integrität, Vertraulichkeit und Transparenz der Daten. Dabei ist immer wieder die Blackbox-Problematik relevant. Oftmals scheint auch die nachvollziehbare Darstellung über Art, Zweck und Ausmaß der Datenverarbeitung im Rahmen der Transparenz kaum machbar. In diesem Zusammenhang ist es für Unternehmen eine große Herausforderung, die komplexen Analysevorgänge verständlich abzubilden. Darüber hinaus erschwert die Autonomie einer KI das Erreichen der Gewährleistungsziele, da bestimmte Zwecke und das Ausmaß der Datenverarbeitung nicht vom Verantwortlichen, sondern möglicherweise von der KI selbst bestimmt werden. Auch der Verlust von Daten innerhalb der KI scheint möglich, wenn sie gewisse Schlüsse aus Datensätzen zieht, sich auf dieser Grundlage fortbildet, aber nicht alle Daten vollumfänglich dafür nutzt. Ein äußerst alarmierendes Risiko ist die Diskriminierung durch eine KI. Werden fehlerhafte oder von bias-geprägte Daten zum Training einer KI verwendet, können diskriminierende Entscheidungsprozesse folgen.

Sind die Risiken bestimmt, muss daraufhin eine spezifische Bewertung der Eintrittswahrscheinlichkeit eines Schadens und einer Schadenshöhe erfolgen. Anhand dieser Ergebnisse sind dann die passenden Abhilfemaßnahmen zu bestimmen.

KI Verordnung Whitepaper
Jetzt das Whitepaper zur KI-Verordnung downloaden!

4. Geplante Abhilfemaßnahmen

Schließlich müssen die zur Bewältigung der Risiken vorgesehenen Abhilfemaßnahmen dargelegt werden. Dies soll auch Garantien, Sicherheitsvorkehrungen und Verfahren umfassen, durch die der Schutz personenbezogener Daten sichergestellt wird. In Betracht kommt dabei zunächst die Anonymisierung oder Pseudonymisierung der Trainingsdaten einer KI. Auch die Transport- und Inhaltsverschlüsselung oder umfassende Zugriffs- und Berechtigungskonzepte sind geeignet. KI-Entscheidungen sollten immer kontrollierbar bleiben, sodass es denkbar wäre eine Kontroll-KI zu implementieren. Ein menschlicher Kontrolleur könnte diese Funktion ebenfalls übernehmen. Zusätzlich ist auch die Dokumentation aller Vorgänge sinnvoll. Diese kann dem Verlust von Daten entgegenwirken und dient darüber hinaus der Rechenschaftspflicht aus Art. 5 Abs. 2 DSGVO. Für die Identifizierung und Beurteilung von Risiken haben sich ebenfalls sog. Threat Modeling Workshops im Kontext von Technologien wie KI bewährt. Dabei werden alle Beteiligten über den gesamten Entwicklungsprozess einer Anwendung dahingehend geschult, Risiken zu erkennen und direkt zu entschärfen. Schließlich, nach der Umsetzung der Abhilfemaßnahmen, folgt eine Risikobewertung des verbleibenden Restrisikos.

Newsletter

Abonnieren Sie unseren monatlichen Newsletter mit Infos zu Urteilen, Fachartikeln und Veranstaltungen.

Mit einem Klick auf „Abonnieren“ stimmen Sie dem Versand unseres monatlichen Newsletters (mit Infos zu Urteilen, Fachartikeln und Veranstaltungen) sowie der aggregierten Nutzungsanalyse (Messung der Öffnungsrate mittels Pixel, Messung der Klicks auf Links) in den E-Mails zu. Sie finden einen Abmeldelink in jedem Newsletter und können darüber Ihre Einwilligung widerrufen. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung.

Auswirkungen des Entwurfes der KI-Verordnung auf die DSFA

Auch die Europäische Union hat erkannt, dass KI viel Potenzial hat, welches unbedingt rechtssicher ausgeschöpft werden sollte. In einem Vorschlag für eine KI-Verordnung versucht die Kommission, KI als Innovation zu fördern und für den Schutz und das Vertrauen der Bevölkerung zu regulieren. Der Entwurf zielt nicht auf die Regulierung der KI als solche ab, sondern auf den möglichen Einsatz von KI-Systemen. Dabei geht es nicht um die konkrete Funktionsweise der KI und der ihr zugrundeliegenden Technologie, sondern um deren Anwendungsbereiche. Insbesondere Anbieter und Nutzer von KI-Systemen sollten sich mit den Regelungen und Pflichten aus der Verordnung auseinandersetzen. Beispielsweise greift die Verordnung verbotene Praktiken im Bereich der Künstlichen Intelligenz auf, was sehr an die Modellierung der Risiken innerhalb der DSFA anlehnt. Zu den Regelungen für Hochrisiko-KI-Systemen finden sich unter anderem Anforderungen, die diese Systeme erfüllen müssen. Dabei decken sich einige Vorgaben des Entwurfes mit den bei einer DSFA anzustellenden Gedanken, wie etwa die Verwendung diskriminierungsfreier Trainingsdatensätze oder die Resilienz und Robustheit der Systeme, was an das SDM erinnert. Darüber hinaus wird in Art. 9 des Verordnungsentwurfes die Pflicht zur Einrichtung eines Risikomanagementsystems vorgeschrieben, was innerhalb einer DSFA zum Beispiel als Abhilfemaßnahme bereits jetzt schon berücksichtigt werden kann. Die oben erwähnte Abhilfemaßnahme, einen menschlichen Kontrolleur für die Verarbeitungstätigkeiten der KI einzusetzen, schreibt der Entwurf der KI-Verordnung für den Einsatz von Hochrisiko-KI-Systemen in Art. 14 Abs. 1 KI-VO-E sogar vor. Der Entwurf gibt Unternehmen leitende Grundideen mit, die diese bei der Durchführung einer DSFA bereits jetzt mitberücksichtigen können.

Weitere Ausführungen zum Anwendungsbereich und den Pflichten des Entwurfes der KI-Verordnung finden Sie hier auf unserem Blog.

Mit der Anwendbarkeit der KI-Verordnung ist jedoch in Anbetracht der langen Umsetzungsfrist von 36 Monaten nach Inkrafttreten gem. Art. 85 Abs. 2 der Verordnung wohl kaum vor 2026 zu rechnen. Aktuell arbeiten EU-Parlament und Ministerrat ihre Kompromissvorschläge zum Verordnungsentwurf der EU-Kommission aus. Voraussichtlich Anfang 2023 werden sie dann die offiziellen Trilogverhandlungen aufnehmen.

Fazit

Künstliche Intelligenz bringt neben vielen Errungenschaften auch einige Herausforderungen mit sich. Mit einer DSFA können KI-Anwendungen dennoch über ihren gesamten Entwicklungsprozess hinweg datenschutzkonform ausgestaltet werden. Unternehmen sollten sich daher von einer umfassenden Prüfung nicht abschrecken lassen, sondern sie als Chance sehen, neue innovative Technologien zu nutzen und sich damit Wettbewerbsvorteile zu verschaffen.

Gerne sind wir Ihr Ansprechpartner für alle Fragen rund um den Datenschutz – auch wenn es um die rechtssichere Generierung oder Implementierung einer KI in Ihrem Unternehmen geht. Gemeinsam entwickeln wir mit Ihnen gerne eine zielorientierte Strategie für Ihr Unternehmen!

Kontakt

office@srd-rechtsanwaelte.de

Berlin

+49 (0)30 21 30 028-0

Düsseldorf

+49 (0)211 41 55 868-0

München

+49 (0)89 61 42 412-70

Newsletter

Abonnieren Sie unseren monatlichen Newsletter mit Infos zu Urteilen, Fachartikeln und Veranstaltungen.

Mit einem Klick auf "Abonnieren" stimmen Sie dem Versand unseres monatlichen Newsletters (mit Infos zu Urteilen, Fachartikeln und Veranstaltungen) sowie der aggregierten Nutzungsanalyse (Messung der Öffnungsrate mittels Pixel, Messung der Klicks auf Links) in den E-Mails zu. Sie finden einen Abmeldelink in jedem Newsletter und können darüber Ihre Einwilligung widerrufen. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung.