30.01.2023

ChatGPT und seine Regulierung nach der KI-VO

Ende November 2022 hat das kalifornische Unternehmen OpenAI ChatGPT an die Öffentlichkeit gebracht. Dieser KI-basierte Chatbot besteht aus einem Large Language Model und kann unterschiedliche sprachbasierte Aufgaben lösen. Das Akronym „GPT“ ist dabei die Abkürzung für „Generative Pretrained Transformer“ und bezieht sich auf ein Sprachmodell, das auf einem mittels Deep Learning trainierten neuronalen Netz basiert.

Unverbindliches Erstgespräch vereinbaren

Ende November 2022 hat das kalifornische Unternehmen OpenAI ChatGPT an die Öffentlichkeit gebracht. Dieser KI-basierte Chatbot besteht aus einem Large Language Model und kann unterschiedliche sprachbasierte Aufgaben lösen. Das Akronym „GPT“ ist dabei die Abkürzung für „Generative Pretrained Transformer“ und bezieht sich auf ein Sprachmodell, das auf einem mittels Deep Learning trainierten neuronalen Netz basiert. Das Unternehmen OpenAI wurde erst 2015 gegründet und hat 2019 von Microsoft ein Investment von einer Milliarde US-Dollar erhalten. Nun soll ChatGPT in Microsofts Suchmaschine Bing eingebaut werden und mit Google konkurrieren. Diese Entwicklung wird dazu führen, dass die Nutzer von Suchmaschinen anstatt einer langen Liste von Ergebnissen mit potentiell hilfreichen Links zukünftig flüssige und passgenaue Antworten erwarten können. Damit hat ChatGPT das Potential, das Internet und viele verschiedene Lebensbereiche zu disruptieren.

In rechtlicher Hinsicht stellt sich insbesondere die Frage, wie Chatbots dieser Art zukünftig nach der bevorstehenden KI-Verordnung reguliert werden. Ziel des Entwurfs der Europäischen Kommission zur Regulierung von künstlicher Intelligenz (KI-VO-E) ist es, die mit KI-Systemen einhergehenden Risiken regulatorisch einzugrenzen. Wenn ChatGPT in der Lage ist, selbstständig Programme zu schreiben, kann es dies auch für Hacker, Erpresser und staatliche Angreifer tun. In den Händen „falscher“ Akteure hat die Software daher ein erhebliches Bedrohungspotential. Dem soll auch durch die KI-Verordnung entgegengewirkt werden.

Was ChatGPT bereits heute kann – und was noch nicht

Es ist lange her, dass sich die Netzszene derart intensiv für eine neue Technologie begeistert hat. Fünf Tage nach dem Launch hatte ChatGPT bereits eine Million Nutzer. Dies ist im Vergleich zu anderen Tech-Hypes der Vergangenheit eine beachtliche Zahl. Die Software ist derzeit (noch) für jeden unentgeltlich im Internet verfügbar und das Ergebnis lässt staunen: ChatGPT kann wesentlich mehr als nur einfache Sachfragen beantworten. Der Chatbot kann Gedichte schreiben, Argumente abwägen, Programmiercodes erstellen, Fehler darin korrigieren und vieles mehr. Es gibt somit zahlreiche Aufgaben, für die ein Mensch viele Stunden braucht, ChatGPT dagegen nur wenige Sekunden. Die neue Technologie könnte daher viele Berufe disruptieren. Der akademische Lehrbetrieb befürchtet bereits, keine Hausaufgaben mehr bewerten zu können, da sich oft nicht mehr genau nachvollziehen lässt, ob die Studierenden diese selbst verfasst haben oder ChatGPT.

Newsletter

Alle wichtigen Neuigkeiten zu Themen wie Datenschutz, Künstliche Intelligenz, IT-Recht und vielen mehr – einmal monatlich in Ihr Postfach.

Bitte addieren Sie 1 und 3.

Mit Klick auf den Button stimmen Sie dem Versand unseres Newsletters und der aggregierten Nutzungsanalyse (Öffnungsrate und Linkklicks) zu. Sie können Ihre Einwilligung jederzeit widerrufen, z.B. über den Abmeldelink im Newsletter. Mehr Informationen: Datenschutzerklärung.

Zwar beeindrucken die Fähigkeiten von ChatGPT. Von einer „starken KI“, welche annähernd die gleichen intellektuellen Fähigkeiten wie ein Mensch besitzt, also eigenständig, flexibel und vorausschauend handelt, ist ChatGPT jedoch noch weit entfernt. Der Chatbot klingt einerseits besonders authentisch, weil er mit voller Überzeugung Informationen ausgibt, selbst wenn diese ungesichert sind. Das klingt dann so glaubwürdig, dass es viele Nutzer leicht beirren kann. Andererseits scheitert ChatGPT zuweilen schon an einfachen Rechenaufgaben. Das hängt damit zusammen, dass die KI nicht auf richtige oder falsche Antworten zurückgreifen kann, sondern immer nur aus einem riesigen Informationspool zu berechnen versucht, welche Antwort wahrscheinlich die beste ist. ChatGPT greift also nicht auf Wissen zurück, sondern reproduziert Muster, die es in den Texten erkennt, mit denen es gefüttert wurde. Deshalb produziert die KI häufig unzutreffende Fakten: So war sich ChatGPT beispielsweise sehr sicher, dass der Elefant das Säugetier sei, das die größten Eier legt, obwohl dies offensichtlich nicht der Fall ist. Das Unternehmen OpenAI erklärt selbst, das System von ChatGPT sei noch in einem Forschungsstadium und nicht ausgereift. Konfrontiert man die KI mit einer Falschaussage, ist sie hin und wieder imstande, ihre Meinung zu ändern. Gelegentlich beharrt sie aber auch auf ihrer Einschätzung. Dies mutet dann doch sehr menschlich an.

Bis ChatGPT zum verlässlichen Assistenten wird, muss die KI indes noch weiter reifen. Gleichwohl ist das Fundament bereits gelegt. Im Februar dieses Jahres soll dann der Nachfolger GPT-4 kommen. Er soll mit 100 Billionen Parametern arbeiten, 500-mal so vielen wie sein Vorgänger ChatGPT.

Wie sind Chatbots konzipiert?

Um Chatbots im Allgemeinen und ChatGPT im Besonderen rechtlich präzise einzuordnen, ist es erforderlich, die zugrundeliegende Technologie grundrissartig zu erfassen. Die Art der Technologie bestimmt, ob sie unter ein Regulierungsregime fällt und wie streng sie reguliert wird.

Moderne Chatbots basieren auf maschinellem Lernen (ML). Dort geht es darum, Wissen automatisch und meist in Bezug auf ein spezielles Problem aus Daten zu erlernen und dieses durch ein geeignetes Modell zu erfassen. Das Wissen soll dabei nach Beendigung der Lernphase durch Anwendung auf neue Daten verallgemeinert werden. Um diese Transferleistung bieten zu können, ist es wichtig, dass das Lernverfahren Muster, Beziehungen und Gesetzmäßigkeiten in den Daten erkennt.

Chatbots, die auf ML-Algorithmen beruhen, lassen sich einteilen in Information-Retrieval-Modelle und Generative Modelle. Erstere vergleichen ähnlich wie eine Websuche die Anfrage des Nutzers mit einem Index an Antworten, um sodann die am besten passende Antwort zu geben. Letztere erstellen mithilfe des Algorithmus die Antworten Wort für Wort. Bei Generative Modellen extrahiert der Algorithmus also keinen Pool an Antworten, sondern lediglich Vokabular, Syntax und derlei mehr. Chatbots der neuesten Generation bauen zudem auf dem Transformer-Modell auf. Auch hier nimmt der Algorithmus eine Gewichtung des Inputs nach Relevanz vor, um so zu treffenderen Ergebnissen zu gelangen. ChatGPT ist ein solcher Generativer Transformer.

Um dem Modell den Bias auszutreiben und zu verhindern, dass das Programm Hassbotschaften verbreitet, haben die Entwickler von OpenAI ChatGPT zudem einer menschlichen Revision unterzogen – „Reinforcement Learning from Human Feedback“ (kurz: RLHF, zu deutsch: bestärkendes Lernen mit Rückmeldung von Menschen) nennt sich das Verfahren. Für sein RLHF verwendete OpenAI seinen Vorgänger InstructGPT, ein Sprachmodell, das bereits vortrainiert wurde. Daher rührt der Begriff „Pretrained“ (vortrainiert). Auf dieser Grundlage hat ChatGPT dann selbst Eingaben beantwortet und mehrere Ausgaben erstellt. Diese Ausgaben wurden wiederum von Menschen bewertet, welche eine Rangfolge von der besten bis zur schlechtesten Ausgabe erstellt haben. ChatGPT hat dann dieses Feedback berücksichtigt und versucht die Ausgabe zu optimieren.

 

ChatGPT und die geplante KI-VO

Nahezu zeitgleich mit der aktuellen technologischen Entwicklung um ChatGPT ist auf der europäischen Ebene Schwung in die rechtliche Bewertung von KI-Systemen gekommen. Der Europäische Rat hat am 25. November 2022 seinen finalen Standpunkt zur geplanten KI-VO vorgelegt. Nun gehen die Beratungen im Europäischen Parlament weiter. Die Verordnung soll gewährleisten, dass KI-Systeme, die auf dem EU-Markt in den Verkehr gebracht und in der EU verwendet werden, sicher sind und die Grundrechte und Werte der EU wahren. Dabei verfolgt der KI-VO-E einen horizontalen Ansatz: Das Gesetz will branchenübergreifend das Inverkehrbringen, die Inbetriebnahme und die Nutzung von KI-Systemen regulieren. Wenn der Europäische Rat und das Europäische Parlament intern zu einer Übereinstimmung gelangt sind, fangen die Trilog-Verhandlungen an, bei denen sich Kommission, Parlament und Rat abschließend einigen müssen, voraussichtlich Mitte 2023.

Chatbots wie ChatGPT, die auf ML beruhen, würden grundsätzlich sowohl nach der alten, kommissionsseitig entwickelten als auch nach der neuen, enger gefassten Definition des Rates als KI-System i.S.d. KI-VO-E klassifiziert werden. Der Rat definiert ein KI-System als ein solches, welches so konzipiert ist, dass es mit autonomen Elementen arbeitet, und das auf der Grundlage von maschinellen oder von Menschen bereitgestellten Daten und Eingaben mithilfe von maschinellem Lernen und/oder logik- und wissensbasierten Ansätzen ableitet, wie eine bestimmte Reihe von definierten Zielen erreicht werden kann, und das systemgenerierte Ergebnisse wie Inhalte (generative KI-Systeme), Vorhersagen, Empfehlungen oder Entscheidungen erzeugt, die die Umgebung beeinflussen, mit der das KI-System interagiert. In nuce muss es sich damit um ein autonomes und adaptives System handeln. Es sind durchaus strikt regelbasierte Chatbots denkbar, die frei von ML lediglich eine dialogisch aufgebaute Benutzeroberfläche mit einer Stichwortsuche darstellen. Solche Chatbots würden von vornherein nicht unter die Definition und damit auch nicht unter das Regulierungsregime der KI-VO fallen.

Der KI-VO-E klassifiziert KI-Systeme weiter nach einem risikobasierten Ansatz in Kategorien mit abgestuften Anforderungen. Es wird dabei zwischen vier Risikoklassen differenziert: „verbotene KI-Praktiken“, „Hochrisiko-KI-Systeme“ und andere KI-Systeme mit einem „geringen“ oder „minimalem Risiko“.

Zunächst ist zu konstatieren, dass der Einsatz von ChatGPT je nach beabsichtigtem Zweck grundsätzlich unter alle der vier Risikoklassen fallen kann.

Verbotene KI-Systeme werden für die wenigsten Unternehmen eine praktische Bedeutung entfalten. Sie enthalten besonders kritische Systeme, die nicht hinnehmbare Risiken für die Grundrechte und Werte der Union darstellen. Hierrunter würde ChatGPT etwa fallen, wenn es durch gezielte Kommunikation versuchen würde, Menschen in den Suizid zu treiben.

Hochrisiko-KI-Systeme umfassen solche Systeme, von denen eine besonders hohe Gefahr für die Gesundheit und Sicherheit oder die Grundrechte von EU-Bürgern befürchtet wird. Die Einstufung in den Hochrisikobereich beschränkt sich u. a. auf die in Anhang III KI-VO-E gelisteten Systeme. Mensch-Maschine-Interaktionen (z. B. Cobots, algorithmisches Management usw.) werden nicht per se umfasst. Findet ChatGPT zukünftig etwa Eingang in ein Online-Bewerbungsverfahren, sodass es mit potenziellen Bewerbern kommuniziert und damit auch interagiert, so würde der Bot jedoch als Hochrisiko-KI-System einer strengen Regulierung unterliegen, weil Anhang III Nr. 4 a) KI-VO-E dies explizit regelt. Zusätzlich müsste ChatGPT aber auch den Transparenzanforderungen des Art. 52 KI-VO-E genügen müssen. Das hieße, dass der Bot eine Hochrisiko-KI-Konformitätsbewertung nach Art. 43 ff. KI-VO-E durchlaufen, aber auch den Bewerbern gegenüber der Transparenzpflicht nach Art. 52 Abs. 1 KI-VO-E genügen müsste. Dieses Beispiel zeigt deutlich, dass die Regulierung von Chatbots nach dem KI-VO-E changiert. Je nach Konzeption und beabsichtigtem Einsatzzweck eines Chatbots sind damit unterschiedliche Regulierungsanforderungen zu beachten.

Für KI-Systeme mit einem lediglich geringen Risiko gelten nach Art. 52 KI-VO-E grundsätzlich besondere Transparenzpflichten. KI-Systeme mit einem minimalen Risiko unterfallen nicht Art. 52 KI-VO-E. Für diese Systeme empfiehlt der KI-VO-E in seinem Art. 69 lediglich die Implementierung fakultativer Verhaltenskodizes.

Art. 52 KI-VO-E regelt Transparenzpflichten, da die dort genannten KI-Systeme ein „besonderes Risiko in Bezug auf Identitätsbetrug oder Täuschung [in sich] bergen“ (ErwG 70 KI-VO-E). Diese besondere Manipulationsgefahr macht die Kommission bei drei Gruppen aus: KI-Systeme zur Interaktion mit natürlichen Personen (Art. 52 Abs. 1 KI-VO-E), KI-Systeme zur Emotionserkennung oder zur biometrischen Kategorisierung (Art. 52 Abs. 2 KI-VO-E) und KI-Systeme, die Bild-, Ton- oder Videoinhalte erzeugen, die echten Personen oder Gegenständen entsprechen, sog. Deepfakes (Art. 52 Abs. 3 KI-VO-E). In diesen drei Fällen muss jeweils kenntlich gemacht werden, dass Inhalte mittels KI erzeugt worden sind.

ChatGPT ist fluid und vielseitig einsetzbar. Damit einher geht ein hohes Missbrauchspotential, welches der KI-VO-E zu kanalisieren sucht. ChatGPT lässt sich augenscheinlich unter alle drei Risiko-Kategorien subsumieren. Würde ChatGPT etwa zukünftig in anderen Programmen integriert werden, sodass die KI in Interaktion mit natürlichen Personen tritt, so muss das KI-System so konzipiert sein, dass den natürlichen Personen mitgeteilt wird, dass sie es mit einem KI-System zu tun haben. Auch wenn ChatGPT zur Emotionserkennung in anderen Programmen integriert wird oder für Deepfakes eingesetzt wird, müssen die Verwender bzw. Nutzer besondere Transparenzpflichten erfüllen.

ChatGPT als General Purpose AI?

Der finale Ratsentwurf vom 25. November 2022 sieht einen besonderen Abschnitt für sog. General Purpose AIs (GPAI) vor, welcher in der ursprünglichen Kommissionsfassung fehlte. Die Vorschriften zur GPAI sind dabei auch für ChatGPT von Relevanz.

Nach Art. 3 (1b) des finalen Ratsentwurf versteht man unter General Purpose AIs (GPAI) solche KI-Systeme, die unabhängig von der Art und Weise, in der sie in Verkehr gebracht oder in Betrieb genommen wurden, Funktionen wie Bild- und Spracherkennung, Audio- und Videogenerierung, Mustererkennung, Beantwortung von Fragen sowie Übersetzungsfunktionen aufweisen und in anderen KI-Systemen integriert werden können.

GPAI-Systeme sind also vielseitig einsetzbar und zeichnen sich durch die Anwendung von Transferwissen aus. ChatGPT, Dall-E und alle ähnlichen KI-Systeme dürften als GPAIs i.S.d. Definition zu klassifizieren sein. ChatGPT ist genuin ein Chatbot, der aber durch seine Programmierung auch in der Lage ist, Programmiercode zu lösen und den man über APIs in andere KI-Systeme integrieren kann.

Hintergrund der angedachten GPAI-Regulierung, die erstmals unter Slowenischer Ratspräsidentschaft Eingang in den Verordnungstext gefunden hat und unter Tschechischem Ratspräsidentschaft ausgearbeitet und verfeinert wurde, war unter anderem das spezifische Instrumentalisierungspotential, welches von GPAIs ausgeht, einzudämmen. Man denke etwa an den Deep-Learning-Text-zu-Bild-Generator „Stable Diffusion“, der bereits für die Erstellung von Kinderpornos missbraucht wurde. Zudem war den am Gesetzgebungsprozess Beteiligten aufgefallen, dass GPAIs im Wesentlichen nur von Tech-Giganten bzw. von Firmen, die von diesen Giganten protegiert werden, entwickelt werden können. Hier sah man das Risiko, dass diese Unternehmen bei einer nicht expliziten Regulierung Schlupflöcher in dem kommissionsseitigen Entwurfstext finden könnten, um von der Regulierung ausgeschlossen zu sein. So ist es theoretisch möglich, den Hochrisikobereich zu umgehen, wenn man als Anbieter nicht mehr unter die von Art. 6 KI-VO-E zitierten Anhänge II und III fällt. Nicht zuletzt haben verschiedene Studien und Lobbygruppen das Thema immer heikler erscheinen lassen und forciert: Tech monitor prognostiziert etwa eine Verdoppelung des Marktvolumens bis 2025 von GPAI-Anwendungen (insbesondere in Amerika und China). Auch deshalb haben Tendenzen in die Verhandlungen des finalen KI-VO-E Einzug gehalten, die EU stärker vor solchen rasanten Entwicklungen zu schützen.

Ferner wurde bereits darauf hingewiesen, dass ChatGPT bisweilen aufgrund der Programmierung des Algorithmus ungeprüfte Informationen verbreitet. Damit ließe sich das Programm gezielt als Vehikel einsetzen, um postfaktische Informationen, Hetze und Propaganda zu streuen. Es lässt sich also sagen, dass GPAIs ein inhärent höheres Risiko für die Verbraucher darstellen als „Narrow AIs“, die zu spezifischen Zwecken programmiert wird.

Der Titel IA des finalen Ratsentwurfs widmet sich eigens den GPAIs. Nach Art. 4 b werden GPAIs, die als Hochrisiko-KI-Systeme genutzt werden, auch den strengen Anforderungen der Hochrisikoregulierung unterfallen. Art. 4 c macht hiervon eine Ausnahme, sofern der Anbieter alle Hochrisiko-Implikationen seiner GPAI ausgeschlossen hat. Auf der Risikoskala der KI-VO ließen sich die GPAIs damit als Subkategorie der Hochrisiko-KI-Systeme verorten. Statt einer direkten Anwendung der GPAI-Regeln, soll die EU-Kommission mit einem Durchführungsakt beauftragt werden, in dem die Verpflichtungen für General-Purpose-KI angepasst werden können.

Zusammenfassung und Fazit

ChatGPT wird das Such- und Wissensmanagement revolutionieren und große Bereiche der Wissensarbeit automatisieren. Der rasante technische Fortschritt, der zu deutlich verbesserten Prozessoren und immensen Datenmengen geführt hat, ermöglicht nun die Konstruktion solch riesiger Sprach-Modelle. Dies ist ein gutes Timing für eine europäische KI-VO, die solchen Technologien klare Grenzen bei der Anwendung setzt. Es bleibt abzuwarten, ob in der endgültigen Fassung der KI-VO ChatGPT als GPAIs reguliert werden. Jedenfalls zeigt sich, dass auch nach bisheriger kommissionsseitiger Fassung ChatBots wie ChatGPT abhängig von ihrem intendiertem Anwendungszweck unterschiedlich von dem KI-VO-E reguliert werden und von besonderen Transparenzpflichten flankiert werden müssen.

Vereinbaren Sie jetzt ein
unverbindliches Erstgespräch!

Lassen Sie uns über Ihre Herausforderungen sprechen und vereinbaren Sie ein unverbindliches Erstgespräch mit unseren spezialisierten Anwält:innen.

Termin vereinbaren

Weitere Neuigkeiten

30.09.2024

Künstliche Intelligenz (KI) – wer haftet, wenn ein Roboter versagt?

20.09.2024

Datenschutz und M&A: Data Due Diligence und der Schlüssel zur rechtssicheren Datennutzung

12.09.2024

Microsoft Copilot für M365 & Datenschutz: So gelingt der sichere Einsatz im Unternehmen