Explainable AI und ihre Vorteile für die Unternehmenspraxis

Laut einer Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie (mittlerweile das Bundesministerium für Wirtschaft und Klimaschutz) werden im Jahr 2025 etwa 13 % des deutschen Bruttoinlandsproduktes durch Dienstleistungen und Produkte, die auf den Einsatz von Künstlicher Intelligenz (KI) zurückgehen, generiert werden. Sicher ist, dass der Einsatz von KI für Unternehmen in Zukunft wettbewerbsentscheidend sein wird. Doch ob jeweilige Use Cases tatsächlich einen Mehrwert generieren und damit einen Markterfolgsfaktor darstellen, hängt von einer Vielzahl von Kriterien ab. Zu diesen zählt unter anderem die Transparenz eines KI-Systems. Denn immer häufiger wird KI in Entscheidungsfindungen einbezogen oder ihre Outputs wirken sich auf andere Weise auf ihre Umwelt aus. In vielen Fällen ist jedoch nicht mehr nachvollziehbar, wie die Systeme zu bestimmten Ergebnissen gekommen sind. Denn die meisten KI-Modelle zeichnen sich dadurch aus, dass sie mit einem bestimmten Grad an Autonomie arbeiten und sich selbstlernend sukzessiv anpassen, ohne, dass Menschen dabei involviert sind. Aus mehreren Gründen ist die Erklärbarkeit von KI jedoch wichtig. Zunächst sollten Entwickler und Nutzer unter technisch-organisatorischen Gesichtspunkten die Transparenz ihrer KI-Systeme gewährleisten. Zudem steigert die Erklärbarkeit von KI die Akzeptanz dafür unter denen, die damit arbeiten oder von ihren Arbeitsergebnissen betroffen sind. Nicht zuletzt sehen unterschiedliche rechtliche Vorgaben die Erklärbarkeit von KI vor, insbesondere aus dem Datenschutzrecht und aus der kommenden europäischen KI-Verordnung (KI-VO). Aus diesem Grund hat sich das Feld der erklärbaren KI (XAI vom engl. Explainable AI) gebildet. Ziel von XAI ist es, KI-basierte Systeme nachvollziehbar und damit auch nutzerfreundlicher zu machen.

Das Problem von intransparenter KI

KI, die auf der Technologie des maschinellen Lernens (Machine Learning) basiert, welche den Großteil der derzeitig boomenden KI-Systeme ausmacht, kann für Unternehmen erhebliche Mehrwerte schaffen. Insbesondere aufgrund ihrer Fähigkeit, große Mengen an Daten schnell und präzise zu analysieren und zu verarbeiten. Dadurch können die Algorithmen in den Datensätzen Muster erkennen und erlernen, selbständig Aufgaben zu erfüllen und Outputs zu generieren. In Ermangelung einer allgemeingültigen Definition lässt sich KI zumindest mit ihren beiden wohl wichtigsten Merkmalen beschreiben: Ein gewisser Grad an Autonomie und die Fähigkeit zur selbstlernenden Anpassung der Arbeitsprozesse.

KI-Systeme sind damit überaus vielfältig verwendbar. In fast allen Bereichen kann die Technologie gewinnbringend eingesetzt werden. Exemplarisch lassen sich etwa die Felder der Versicherungswirtschaft, der Energieversorgung oder des Gesundheitswesens nennen.

Aufgrund der autonomen Arbeitsweise und der sich anpassenden Vorgänge der Systeme sind die Prozesse im Rahmen der Machine Learning KI oftmals nicht mehr nachvollziehbar. Die KI ist dadurch nicht transparent und erklärbar, wodurch es dazu kommen kann, dass schwere Fehler unbemerkt bleiben oder das ganze Modell unbrauchbar ist. Abhängig von den jeweiligen Use Cases können die Konsequenzen davon verheerend sein. Etwa wenn KI in die Entscheidung über die Bewilligung von Leistungen oder den Abschluss von Verträgen eingebunden ist, kann es zu unbemerkter, ungerechtfertigter Ungleichbehandlung kommen. Im medizinischen Bereich könnten versteckte Fehlfunktionen von KI noch ernstere Konsequenzen haben, beispielsweise wenn ein System für die Krebsdiagnose eingesetzt wird.

Die Blackbox-Problematik

Ein KI-System, dessen Arbeitsprozesse bzw. -ergebnisse nicht nachvollziehbar sind, kann als Blackbox betrachtet werden. Eine solche liegt vor, wenn ein KI-System so komplex ist, dass die einzelnen Schritte, die zur Entscheidungsfindung führen, im späteren Produktivbetrieb der KI grundsätzlich nicht mehr ersichtlich sind. Im Falle von Machine Learning liegt dies zumeist daran, dass die KI auf künstlichen neuronalen Netzen basieren, die gewissermaßen die Vernetzungen von Neuronen in einem menschlichen Gehirn imitieren. In den künstlichen neuronalen Netzen werden dabei tausende, oft Millionen, von nicht-linearen Beziehungen auf mehreren Ebenen zwischen Eingaben und Ausgaben gebildet. Entscheidungsfindungsprozesse sind dann nicht mehr zu erklären, etwa, weil nicht einmal ersichtlich ist, welcher Teil des Netzes für einen bestimmten Output zuständig ist. Die KI erzeugt also ein Arbeitsergebnis, der Weg dahin ist jedoch für einen Menschen nicht zu verstehen.

Diskriminierungsrisiken

Eine Art der nicht nachvollziehbaren, ‘fehlerhaften‘ KI-Entscheidungen, sind solche, die diskriminierende Outputs erzeugen. KI kann im Rahmen der Entscheidungsfindung äußerst sinnvoll und effizienzsteigernd eingesetzt werden. Im Wesentlichen basiert die Entscheidung, die eine KI dabei erzeugt, jedoch auf den Daten, mit denen das System trainiert wurde. Es kann also als ein Spiegelbild seiner Entwicklungsumgebung gesehen werden. Dabei ist es möglich, dass das System bei der Entscheidungsfindung Zusammenhänge zugrunde legt, die zu einer Ungleichbehandlung auf Basis von nichtzulässigen Kriterien führen, daher zu Diskriminierung. Ein vergleichsweise einfaches Beispiel wäre etwa die Benachteiligung von Menschen aus gewissen Stadtteilen durch einen Algorithmus bei der Bewerbung auf Arbeitsplätze. Leben in dem Stadtteil vorrangig Menschen mit einer bestimmten Herkunft, würde die nachteilige, KI-gestützte Entscheidung über die Stellenvergabe mit der Ethnie der Bewerber:innen koinzidieren. Es käme also zu einer Diskriminierung aufgrund der Herkunft, die nicht intendiert gewesen sein muss. Im Gegenteil, viele Unternehmen setzen bei der Entscheidungsfindung gerade deshalb auf KI, weil sie sich durch das Entfernen menschlicher Faktoren neutrale, nicht-diskriminierende Ergebnisse erhoffen. Aufgrund der Komplexität und Intransparenz von KI-Arbeitsprozessen kann es jedoch aus einer Vielzahl von Gründen zu Benachteiligung durch KI kommen, die für Entscheider:innen in vielen Fällen weder ersichtlich noch nachvollziehbar ist.

Automation Bias

Das Risiko, das von fehlerhaften, intransparenten KI-Outputs ausgeht, wird durch den sogenannten Automation Bias verstärkt. Der Begriff beschreibt das Phänomen, dass Menschen häufig ein übersteigertes Vertrauen in die Funktion und Zuverlässigkeit von KI haben. Oftmals fußt dieses darauf, dass die Systeme in vielen Fällen funktionieren und sich eine Nachlässigkeit bei den Nutzern einstellt. Teilweise ist dieses Vertrauen jedoch unberechtigt, wenn die Funktionsweise einer KI nicht mehr nachvollzogen werden kann und Fehler und deren Ursachen in den Ergebnissen deshalb unentdeckt bleiben.

Explainable AI als Antwort auf intransparente KI

Als Reaktion auf die Probleme, die intransparente KI mit sich bringt, hat sich das Feld der Explainable AI entwickelt. XAI zielt darauf ab, die Funktionsweise und die Ergebnisse von KI nachvollziehbar und erklärbar zu machen. Während die Bezeichnung „XAI“ erst in den letzten Jahren geprägt wurde, ist das Konzept wesentlich älter. Nahezu seitdem es maschinelles Lernen gibt, sind Entwickler:innen darum bemüht, die KI erklärbar zu machen. Insbesondere seit den 90er Jahren wird interdisziplinär in dem Bereich geforscht und gearbeitet. Bis heute hat sich jedoch keine einheitliche Methodik gefunden, mit der KI transparenter gemacht werden kann. Vielmehr existieren verschiedene Ansätze, die sich mit der Erklärbarkeit von KI beschäftigen. Grundlegend lässt sich unterscheiden, zwischen KI, die intrinsisch erklärbar ist und solcher, die durch XAI nachträglich erklärt wird.

Bei ersterer handelt es sich meist um einfache Ansätze des maschinellen Lernens, wie Entscheidungsbäume oder Bayes-Klassifikatoren. Ihre Funktionsweise zeichnet sich bereits dadurch aus, dass die Systeme von sich aus nachvollziehbar und erklärbar sind. Etwa tritt die Blackbox-Problematik im Rahmen ihrer Entwicklung und Verwendung gar nicht erst auf. In einigen Bereichen kann die Verwendung derartiger Methoden eine gute Wahl darstellen und muss keinen Präzisionsverlust bedeuten. Für viele Unternehmen stellen solche vergleichsweise einfachen KI-Systemen daher oft genau die richtige Lösung dar.

Anders verhält es sich jedoch bei dem gegenwärtig extrem populären und leistungsfähigeren Deep Learning. Diese Methode des maschinellen Lernens basiert auf den oben besprochenen neuronalen Netzen. Nachteil ist dabei, dass die Entscheidungen von Menschen nicht mehr nachvollzogen werden können. Hier setzen XAI-Verfahren an, welche die KI-Systeme nachgelagert erklärbar machen sollen. Üblicherweise handelt es sich dabei um Methoden, die in Ergänzung zu einem bestehenden KI-System eingesetzt werden. Unterschieden wird diesbezüglich zwischen globaler und lokaler Erklärbarkeit. Globale Erklärbarkeit soll zeigen, wie ein bestimmtes System als Ganzes funktioniert, sodass es von Menschen vollständig verstanden werden kann. Lokale Erklärbarkeit meint, dass bei einem bestimmten Use Case und in Bezug auf die jeweiligen Eingabedaten, nachvollziehbar gemacht wird, wie eine KI zu einer konkreten Entscheidung gekommen ist. Eine Vielzahl von unterschiedlichen Methoden wird genutzt, um die beiden Arten der Erklärbarkeit zu gewährleisten. In der Wahl der jeweiligen Methode sollte berücksichtigt werden, welchen Zweck die Erklärung erfüllen soll, an wen sie gerichtet ist und welche regulatorischen Anforderungen einzuhalten sind.

Ein beispielhafter Ansatz für XAI ist die Nutzung von sogenannten Stellvertretermodellen, auch genannt Whitebox. Zunächst wird dafür ein neuronales Netz als Blackbox trainiert. Anschließend wird das Stellvertretermodell als Nachbildung dessen erzeugt. Es soll die Funktionsweise des Blackbox-Modells nachempfinden, ist dabei aber einfacher ausgebaut, etwa als einfacher Entscheidungsbaum. Im Wesentlichen stimmen die Ergebnisse der beiden Modelle überein, da die Whitebox eine vereinfachte Nachstellung ist, ihre Outputs sind jedoch nachvollziehbar. Aufgrund der tatsächlichen Unterschiede in den Funktionsweisen kann es aber nichtsdestotrotz zu abweichenden Arbeitsergebnissen kommen.

Newsletter

Abonnieren Sie unseren monatlichen Newsletter mit Infos zu Urteilen, Fachartikeln und Veranstaltungen.

Mit einem Klick auf „Abonnieren“ stimmen Sie dem Versand unseres monatlichen Newsletters (mit Infos zu Urteilen, Fachartikeln und Veranstaltungen) sowie der aggregierten Nutzungsanalyse (Messung der Öffnungsrate mittels Pixel, Messung der Klicks auf Links) in den E-Mails zu. Sie finden einen Abmeldelink in jedem Newsletter und können darüber Ihre Einwilligung widerrufen. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung.

Gründe für Unternehmen auf XAI zu setzen

Unternehmen sollten aus einer Vielzahl von Gründen XAI Methoden einführen. Etwa wird damit bezweckt, das Vertrauen in KI zu erhöhen und die Auditierbarkeit der Systeme zu gewährleisten. Außerdem werden die rechtlichen Einsatzmöglichkeiten einer KI durch ihre Erklärbarkeit wesentlich erhöht, bzw. ist es in vielen Fällen rechtlich erforderlich, dass die Funktionsweise und die Ergebnisse einer KI erklärbar sind. Zudem erlaubt die Erklärbarkeit von KI Rückschlüsse auf ihr Verhalten und kann damit das Verständnis für die verarbeiteten Aufgaben verbessern. Im Folgenden werden wesentliche technisch-organisatorische sowie rechtliche Gründe erörtert, aus denen Unternehmen auf XAI setzen sollten.

Technisch-organisatorische Gründe

Es gibt eine Reihe von technischen und organisatorischen Gründen, die für den Einsatz von KI in Unternehmen sprechen. Auf einige dieser Aspekte wird im Folgenden näher eingegangen.

IT-Sicherheit

Mit der immer größeren Verbreitung von KI und der zentralen Stellung, die sie in Unternehmen einnimmt, werden die Systeme auch immer häufiger Ziel von Cyberangriffen. Die Erklärbarkeit von KI kann erhebliche Vorteile für die Sicherheit der Systeme bringen und kann diesbezüglich mithin teilweise Abhilfe verschaffen. Beispielsweise kann XAI Unternehmen dabei helfen, Anomalien und Datenmuster in den eigenen Systemen zu erkennen, die auf potenzielle Cyber-Bedrohungen hindeuten können. Zudem kann erklärbare KI dabei unterstützen, verdächtiges Verwender:innenverhalten aufzudecken und somit Cybersicherheit zu gewährleisten. Außerdem kann es für Unternehmen sinnvoll sein, KI in den eignen IT-Sicherheitslösungen zu verwenden. Die Verwendung von XAI ermöglicht es in diesem Fall etwaige Fehler in den Entscheidungen des Sicherheitssystems zu erkennen. Zusätzlich kann ersichtlich gemacht werden, wo Schwachstellen in der Sicherheitsarchitektur bestehen.

Kommunikation zwischen Abteilungen

XAI kann ferner die Kommunikation und das Verständnis zwischen technischen und nicht-technischen Abteilungen im Unternehmen stärken. Die Erklärbarkeit der Systeme erleichtert es Data Scientists und Developern, die Funktionsweise und Ergebnisse von KI zu kommunizieren. Damit kann unternehmensweit die Akzeptanz für die Systeme gesteigert werden. Auch das Vertrauen von Kund:innnen wird durch den Einsatz von XAI gesteigert. Gleichzeitig ermöglicht XAI die Implementierung der rechtlichen Vorgaben während der gesamten Entwicklung und der Nutzung eines KI-Systems.

Kontinuierliche Modellverbesserung

Die Möglichkeit, KI-Systeme zu verstehen bedeutet auch, dass Entwickler:innen dazu befähigt werden, die Modelle effektiver zu fine-tunen und zu verbessern. Die KI-Entwicklung und -Nutzung ist ein dynamischer, iterativer Prozess. Mithilfe von XAI kann sichergestellt werden, dass die KI-Modelle stets im Einklang mit den Unternehmens- und Geschäftszielen sind. Zudem lässt sich so die Robustheit von KI-Systemen steigern und die Algorithmen können hinsichtlich ethischer Gesichtspunkte verbessert werden.

Rechtliche Gründe

Einer der Hauptgründe für die Implementierung von XAI-Methoden ist aber die Compliance mit rechtlichen Vorgaben. Unterschiedliche Gesetze schreiben für viele Fälle die Erklärbarkeit von KI vor. Im Folgenden wird ein Überblick über Transparenzpflichten aus der Datenschutzgrundverordnung (DSGVO) und der kommenden KI-VO gegeben.

DSGVO

Die DSGVO enthält Transparenz- und Informationspflichten, die auch für KI von Bedeutung sind, sofern diese mit personenbezogenen Daten arbeitet. Bereits in den Grundsätzen für die Verarbeitung personenbezogener Daten in Art. 5 DSGVO wird vorgeschrieben, dass personenbezogene Daten immer in einer für die betroffene Person nachvollziehbaren Weise verarbeitet werden müssen (Transparenz) und dass der Verantwortliche die Einhaltung dieser Verpflichtung nachweisen können muss (Rechenschaftspflicht). Die Ausgangsnorm, die Verantwortlichen im Datenschutzrecht gegenüber Betroffenen Informationspflichten auferlegt, ist Art. 12 DSGVO. Die Norm sieht vor, dass die Verarbeitung stets transparent sein muss und Informationen über den Prozess der Datenverarbeitung und die verwendeten Trainingsdaten leicht zugänglich und verständlich gemacht werden müssen.

Die nachfolgenden Normen formen die Informationspflicht weiter inhaltlich aus. Im Zusammenhang mit KI sind dabei vor allem Art. 13 Abs. 2 lit. f und Art. 14 Abs. 2 lit. g DSGVO relevant. Danach ist vorgegeben, dass Betroffene über das Bestehen einer automatisierten Entscheidung einschließlich Profiling informiert werden müssen. Zudem müssen aussagekräftige Informationen über die involvierte Logik sowie die Tragweite und die angestrebten Auswirkungen der jeweiligen Datenverarbeitung für die betroffene Person zur Verfügung gestellt werden. Profiling bezeichnet nach Art. 4 DSGVO „jede Art der automatisierten Verarbeitung personenbezogener Daten, die darin besteht, dass diese personenbezogenen Daten verwendet werden, um bestimmte persönliche Aspekte, die sich auf eine natürliche Person beziehen, zu bewerten […]“. Nach herrschender Auffassung greift die Informationspflicht auch dann, wenn mit dem bloßen Profiling keine Einzelentscheidung verbunden ist.

Die Vorschriften stehen in einem starken Spannungsverhältnis zur Blackbox-Problematik bei komplexeren Machine Learning Modellen. Denn weder komplizierte Ausführungen mit mathematischen Formeln und Details zu den eingesetzten KI-Systemen noch der pauschale Hinweis auf KI werden den Anforderungen aus der DSGVO gerecht. Vielmehr muss es möglich sein, undurchsichtige Entscheidungsprozesse sowie die Trainingsmethoden transparent darzustellen. Die Implementierung von XAI-Methoden kann in diesem Zusammenhang einen entscheidenden Beitrag bei der DSGVO-Compliance leisten.

Weitere Betroffenenrechte aus der DSGVO, die Verantwortliche gewährleisten müssen und bei deren Umsetzung die Verwendung von XAI hilfreich oder gar notwendig sein kann, sind das Recht auf Berichtigung, das Recht auf Datenübertragbarkeit und das Recht, nicht einer ausschließlich auf einer automatisierten Verarbeitung beruhenden Entscheidung unterworfen zu werden.

KI-VO

Das wohl wichtigste KI-Regelwerk, das Unternehmen in Zukunft berücksichtigen müssen, ist die geplante KI-VO. Die Verordnung soll EU-weit einen Rechtsrahmen für die Entwicklung und Nutzung von KI schaffen. Derzeit befindet sich die Verordnung noch im europäischen Gesetzgebungsprozess, an dem EU-Parlament, EU-Ministerrat und die EU-Kommission beteiligt sind und der wahrscheinlich noch dieses Jahr abgeschlossen wird. Im Sommer 2024 wird die KI-VO voraussichtlich in Kraft treten. Nach einer zweijährigen Umsetzungsfrist gilt es für Unternehmen dann, die Vorgaben aus der Verordnung zu befolgen. Die Reglungen sind bereits absehbar. Aufgrund ihrer Komplexität sollten sich Unternehmen schon jetzt darauf vorbereiten.

Die KI-VO verfolgt einen risikobasierten Ansatz. Das heißt, dass die Vorgaben, die für Entwicklung und Nutzung von KI gemacht werden, von dem Risiko abhängen, das von dem jeweiligen System ausgeht. Herzstück der Verordnung sind dabei sogenannte Hochrisiko-KI-Systeme. Für Entwickler und unter bestimmten Voraussetzung auch Nutzer und andere Akteure derartiger Modelle, wird die KI-VO einen umfangreichen und komplexen Pflichtenkatalog enthalten. Unter anderem zählen dazu auch Transparenzanforderungen. Zentrale Norm ist diesbezüglich Art. 13 des Entwurfes zur KI-VO (KI-VO-E). In der letzten Version, die vom Europäischen Parlament vorgeschlagen wurde, soll die Norm vorschreiben, dass der Betrieb von KI-Systemen so transparent ist, dass „Anbieter“ und „Nutzer“ von KI ihre Funktionsweise hinreichend verstehen können. Anbieter definiert der Verordnungsentwurf als alle Stellen, die eine KI entwickeln oder entwickeln lassen, um sie auf den Markt zu bringen oder selbst in Betrieb zu nehmen. Nutzer sind alle Stellen, die ein KI-System verwenden. Dabei handelt es sich nicht um natürliche betroffene Personen, deren Schutz etwa die DSGVO bezweckt, sondern um beispielsweise Unternehmen oder Behörden, die KI-Systeme in Verwendung haben.

Nach Art. 13 KI-VO-E soll eine angemessene Transparenz entsprechend der Zweckbestimmung eines KI-Systems gewährleistet werden, was nach dem aktuellen Parlamentsentwurf bedeutet, dass „alle nach dem allgemein anerkannten Stand der Technik verfügbaren technischen Mittel eingesetzt werden, um sicherzustellen, dass die Ergebnisse des KI-Systems vom Anbieter und vom Nutzer interpretierbar sind“. Das zentrale Tool soll zu diesem Zweck eine Gebrauchsanweisung sein, mit der eine KI versehen wird und die „den Betrieb und die Wartung des KI-Systems sowie die fundierte Entscheidungsfindung der Nutzer unterstützt“. Um eine hinreichende Transparenz zu gewährleisten, listet Art. 13 KI-VO-E die Informationen auf, die die Gebrauchsanweisung umfassen soll. Nach dem EU-Parlament gehört dazu auch das Ausmaß, in dem ein KI-System die von ihm getroffenen Entscheidungen erklären kann.

Zusätzlich enthält der Entwurf des EU-Parlaments mit Artikel 68c auch das Recht auf Erläuterung einer individuellen KI-Entscheidungsfindung von Betroffenen. Danach haben Personen, die von einer Entscheidung betroffen sind, die auf Grundlage von Daten aus einer Hochrisiko-KI getroffen wurde, unter bestimmten Voraussetzungen das Recht, auf eine aussagekräftige Erläuterung der Rolle des KI-Systems im Entscheidungsprozess, zu den wichtigsten Parametern der getroffenen Entscheidung und zu den zugehörigen Eingabedaten. Die genaue Ausgestaltung der Norm in der finalen KI-VO ist noch offen. Klar ist jedoch, dass die Erklärbarkeit von KI eine wichtige Stellung in der künftigen KI-Compliance einnehmen wird.

Ein Blick auf die Praxis – so kann KI erklärt werden

Wie aufgezeigt kann die Verwendung von XAI-Methoden unabdingbar für die Unternehmenspraxis sein. Für die Art und Weise, wie die Arbeitsweise und die Ergebnisse von KI kommuniziert werden, also das Ergebnis der KI-Erklärung, gibt es verschiedene Möglichkeiten. Bei der Auswahl zwischen diesen sollte vor allem darauf abgestellt werden, wem gegenüber die Erklärung erfolgen soll. Zudem muss etwa berücksichtigt werden, in Umsetzung welcher rechtlicher Vorgaben gehandelt wird. Denn vor allem auch in Hinblick auf die Adressaten unterscheiden sich DSGVO und KI-VO. Während erstere die Erklärung gegenüber den Betroffenen bezweckt, soll die KI-VO in erster Linie eine Informationspflicht für Anbieter gegenüber Nutzern einführen.

Im Falle der DSGVO ist eine Darstellung des gesamten Algorithmus und der Funktionsweise hinter einem Ergebnis grundsätzlich nicht erforderlich. Schließlich ist vor allem auch wichtig, dass die Erklärung für den Betroffenen verständlich ist. Vielmehr bietet sich etwa eine visuelle Darstellung an, beispielsweise in Form von Entscheidungsbäumen, Piktogrammen oder Ablaufdiagrammen. So können die verschiedenen Parameter in der Entscheidungsfindung transparent und verständlich gemacht werden. Dabei lassen sich die Informationen jedoch abstrakt genug darstellen, dass keine Geschäftsgeheimnisse preisgegeben werden. Ergänzen lässt sich die visuelle Darstellung durch schriftliche Kommentare, repräsentative Beispiele und Beschreibungen, um die Verständlichkeit zu erhöhen.

Der Entwurf zur KI-VO verfolgt hingegen einen anderen Ansatz, da vor allem Nutzer in die Lage versetzt werden sollen, ein KI-System entsprechend seiner Zweckbestimmung zu nutzen und Fehler, Verzerrungen oder Diskriminierungen erkennen zu können. Es geht daher eher um eine technische Erklärung, die sich nach den Anforderungen an die Gebrauchsanweisung aus Art. 13 KI-VO-E richtet. Doch seit dem letzten Entwurf des EU-Parlaments sieht auch der KI-VO-E eine Informationspflicht gegenüber Betroffenen vor. Diese ähnelt eher der Informationspflicht aus der DSGVO. In der Umsetzung der Vorgaben werden sich deshalb Synergieeffekte aufzeigen, die es unbedingt zu nutzen gilt.


Das könnte Sie auch interessieren:


Auch darüber hinaus bietet sich bei der Erklärung von KI eine gemeinsame Behandlung der unterschiedlichen rechtlichen Informationspflichten an. Denn so lässt sich die Informationserteilung, etwa in der Datenschutzerklärung und der KI-Gebrauchsanweisung, widerspruchsfrei gewährleisten. Zudem lassen sich durch die Nutzung von Synergien im Gegensatz zu getrennten Bearbeitung Ressourcen einsparen. Die Informationen, die im Rahmen der Gebrauchsanweisung bereitgestellt werden müssen, können dabei als Ausgangspunkt und zur Erfüllung der Informationspflichten aus der DSGVO dienen.

Wir beraten Sie bei der Umsetzung Ihrer KI-Projekte

Entfalten Sie das volle Potenzial Ihrer KI-Projekte – rechtssicher und ethisch einwandfrei. Wir, ein Team von hochqualifizierten Juristinnen und Juristen, unterstützen Ihr Vorhaben mit präzisen, auf Ihre spezifischen Bedürfnisse zugeschnittenen Rechtsstrategien. Wir sind Ihre Begleiter in der navigationsintensiven Welt der XAI-Methoden und der transparenten Entwicklung und Anwendung künstlicher Intelligenz. Unsere Beratung geht weit über das Übliche hinaus: Wir suchen gemeinsam mit Ihnen den optimalen Weg, wählen zielorientiert sinnvolle Lösungen und Methoden aus und verbinden fundiertes juristisches Know-how mit technischer Expertise in den Bereichen Technologie, Medien, Datenschutz und IT. Mit einem konsequenten Fokus auf Ihre Ziele und Herausforderungen erarbeiten wir Antworten auf alle Ihre rechtlichen Fragen rund um KI und sichern so den Erfolg Ihrer Projekte. Ihr Fortschritt in der Welt der KI beginnt mit einer Beratung bei uns – sprechen Sie noch heute mit einem Mitglied unseres Expertenteams und erleben Sie eine Beratung, die Technologie und Rechtsberatung nahtlos miteinander verbindet.

Sichern Sie Ihre KI-Projekte – Sprechen Sie jetzt mit unseren Expertinnen und Experten!

Erfolg im digitalen Zeitalter: Der Data Act 2024 und seine Chancen für Ihr Unternehmen

Jetzt lesen

KG Berlin: Immaterielle Schadensersatzansprüche aus Art. 82 DSGVO müssen konkret dargelegt werden

Jetzt lesen

Newsletter

Abonnieren Sie unseren monatlichen Newsletter mit Infos zu Urteilen, Fachartikeln und Veranstaltungen.

Mit einem Klick auf "Abonnieren" stimmen Sie dem Versand unseres monatlichen Newsletters (mit Infos zu Urteilen, Fachartikeln und Veranstaltungen) sowie der aggregierten Nutzungsanalyse (Messung der Öffnungsrate mittels Pixel, Messung der Klicks auf Links) in den E-Mails zu. Sie finden einen Abmeldelink in jedem Newsletter und können darüber Ihre Einwilligung widerrufen. Mehr Informationen erhalten Sie in unserer Datenschutzerklärung.