30.09.2024

Künstliche Intelligenz (KI) – wer haftet, wenn ein Roboter versagt?

Stellen Sie sich vor, ein KI-basierter Roboter unterstützt Ärzt:innen bei einer OP und trifft die falsche Entscheidung. Die OP geht deshalb schief und der/die Patient:in kann Schadenersatz oder Schmerzensgeld geltend machen. Ein autonom fahrendes Auto entscheidet sich für ein Ausweichen auf den Fußweg anstatt in die Hecke und verletzt dabei Menschen. Auch hier muss der daraus entstandene Schaden ersetzt werden. Aber durch wen? Wer haftet hier? Ärzt:in oder Fahrer:in, die als Systemanwendende die künstliche Intelligenz für ihre Zwecke benutzen? Hersteller:innen? Oder kann sogar die künstliche Intelligenz selbst haften?

Unverbindliches Erstgespräch vereinbaren

Haftungslücke bei KI-basierten Maschinen: Wer trägt die Verantwortung?

Diese Fragen sind rechtlich schwer zu beantworten. Grundlage des deutschen Haftungssystems ist immer ein Fehlverhalten, das zu einem Schaden führt. Ein Fehlverhalten, das rechtliche Konsequenzen nach sich zieht, kann aber nicht von jedem begangen werden. Nach deutschem Recht kann nur derjenige haften, dem per Gesetz eine Rechtspersönlichkeit zugesprochen wird.

Dies ist bei Robotern und Maschinen bisher noch nicht der Fall, weshalb auf das Fehlverhalten eines Menschen hinter der künstlichen Intelligenz abzustellen ist. Kann jedoch diesem Menschen überhaupt ein Fehlverhalten vorgeworfen werden, wenn die KI-basierte Maschine verselbstständigt Entscheidungen trifft? Oder stehen wir einer großen Haftungslücke gegenüber, die rechtlich gesehen die Anwendung und Entwicklung von Robotern und künstlicher Intelligenz blockiert?

Unverbindliches Erstgespräch zu
KI-Lösungen

  • Wir stehen Ihnen bei der Lösung der rechtlichen Fragen und Probleme im Zusammenhang mit künstlicher Intelligenz und Robotik zur Seite.
  • Wir helfen Ihnen dabei, die Haftungsrisiken bei der Anwendung von KI-basierten Systemen zu minimieren.
  • Wir unterstützen Sie, die rechtlichen Rahmenbedingungen für Ihre Produkte und Dienstleistungen zu schaffen.

Termin vereinbaren

Rechtliche Herausforderungen bei der Anwendung von Robotern und künstlicher Intelligenz: Lösungen und Chancen für Unternehmen

Angesichts dieser anspruchsvollen Fragen kann der Einsatz von Robotern und künstlicher Intelligenz eine Vielzahl von Herausforderungen und Problemen mit sich bringen. Dazu gehören Fragen der Datenverarbeitung und des Datenschutzes, der Sicherheit und Zuverlässigkeit der Systeme sowie der Einhaltung ethischer Grundsätze. In diesem Beitrag gehen wir auf die mögliche Lösung dieser Probleme ein und zeigen auf, wie Sie die Vorteile von Robotern und künstlicher Intelligenz voll ausschöpfen können, ohne dabei rechtliche Risiken einzugehen.

Haftung der Hersteller:innen bei KI-Robotern: Eine nähere Betrachtung

Zunächst bietet es sich an, die Haftung der Hersteller:innen des KI-basierten Roboters unter die Lupe zu nehmen. Es liegt nahe, dass diese bei einem Fehlverhalten der Maschine haften könnten. Schließlich sind es die Hersteller:innen, die durch Entwicklung, Programmierung und Training der künstlichen Intelligenz ihrer Entscheidungsfindung noch am nächsten stehen. Das deutsche Recht hat genau diesen Grundgedanken, dass Hersteller:innen „nah am Produkt“ sind, schon längst aufgegriffen, und zwar unabhängig von der Art des Produkts. Es mag zunächst verwirrend klingen, aber die Haftung der Hersteller:innen für Fehler des Produkts ist immer nach den gleichen Regelungen zu beurteilen, egal, ob das Produkt eine Wasserflasche oder ein hochkomplexes selbstfahrendes Auto ist.

Produkthaftungsgesetz (ProdHaftG): Haftungsgrundlagen und Voraussetzungen für Hersteller:innen

Einerseits kann sich eine Haftung der Hersteller:innen aus den Regelungen über die Produkthaftung nach dem Produkthaftungsgesetz (ProdHaftG) ergeben. Dazu müssen folgende Voraussetzungen vorliegen (§ 1 Abs. 1 ProdHaftG):

Verletzung eines geschützten Rechtsguts (Tötung einer Person, Verletzung von Körper oder Gesundheit, Beschädigung einer Sache)

  • durch ein fehlerhaftes Produkt
  • mit daraus resultierendem (finanziellen) Schaden
  • sowie kein Vorliegen einer gesetzlichen Ausnahme aus § 1 Abs. 2, Abs. 3 ProdHaftG.

Whitepaper zur KI-Verordnung direkt in Ihr Postfach

Lassen Sie sich unser umfangreiches Whitepaper zur KI-Verordnung (AI Act) kostenfrei zuschicken. Sie erhalten darin wertvolle und praxisnahe Informationen zur Umsetzung der KI-Verordnung in Ihrem Unternehmen.

Zum Whitepaper

Haftung der Hersteller:innen bei KI-Produkten: Schwierigkeiten bei der Fehlerfeststellung und Produkthaftung

Wenn man sich diese Voraussetzungen anschaut, dann dürften die Hersteller:innen bei Rechtsgutsverletzungen, die durch die entwickelte künstliche Intelligenz hervorgerufen wurden, eigentlich immer haften. Dieser Anspruch ergibt sich vor allem aus dem Prinzip der sogenannten Gefährdungshaftung. Bei der Gefährdungshaftung kommt es nicht darauf an, ob der Schädiger oder die Schädigende die Rechtsgutsverletzung zu verschulden hat.

Das bedeutet konkret, dass es egal ist, ob er oder sie fahrlässig oder vorsätzlich gehandelt hat. Entscheidend für die Haftung ist einzig, dass er oder sie eine Gefahrenquelle geschaffen hat, indem er oder sie dieses fehlerhafte Produkt auf den Markt gebracht hat. Des Weiteren müssen Rechtsgutsverletzung und Schaden auf den Produktfehler zurückzuführen sein (Kausalität).

Haftung bei künstlicher Intelligenz: Schwierigkeiten bei der Fehlerfeststellung und Beweisführung

Verzwickt wird es jedoch in Hinblick auf das Vorliegen eines Fehlers, da die Vorgänge innerhalb der Entscheidungsfindung einer künstlichen Intelligenz schwer nachzuvollziehen sind (Stichwort: Blackbox) und daher auch ein Fehler in der Programmierung nicht immer leicht nachgewiesen werden kann. Schwierig wird es insbesondere deshalb, weil es dem oder der Geschädigten obliegt, den Fehler nachzuweisen. Im Zweifel sind es Laien, die von künstlicher Intelligenz und der dahinterstehenden Technik gar keine Ahnung haben und die auch nicht in den Produktionsprozess involviert waren. Meistens wird eine Haftung der Hersteller:innen über die Produkthaftung an dieser Voraussetzung scheitern.

Newsletter

Alle wichtigen Neuigkeiten zu Themen wie Datenschutz, Künstliche Intelligenz, IT-Recht und vielen mehr – einmal monatlich in Ihr Postfach.

Bitte rechnen Sie 5 plus 1.

Mit Klick auf den Button stimmen Sie dem Versand unseres Newsletters und der aggregierten Nutzungsanalyse (Öffnungsrate und Linkklicks) zu. Sie können Ihre Einwilligung jederzeit widerrufen, z.B. über den Abmeldelink im Newsletter. Mehr Informationen: Datenschutzerklärung.

Produzentenhaftung nach § 823 BGB: Unterschiede, Beweislastumkehr und KI-Entwicklungsstand

Von der Produkthaftung muss jedoch die sog. Produzentenhaftung unterschieden werden. Diese richtet sich nicht nach dem ProdHaftG, sondern nach dem allgemeinen Schadenersatzanspruch des § 823 Abs. 1 BGB. Dieser Schadenersatzanspruch ist nicht speziell auf Produzent:innen eines Produkts zugeschnitten, sondern kann jeden treffen, der ein dort aufgezähltes Rechtsgut verletzt. Handelt es sich allerdings um einen oder eine Produzent:in, werden spezielle Kriterien innerhalb dieses Anspruchs angewendet.

Verschuldenshaftung vs. Produkthaftung: Anforderungen an Hersteller:innen bei fehlerhaften Produkten

Im Unterschied zur verschuldensunabhängigen Produkthaftung nach dem ProdHaftG bedarf es für die Haftung nach § 823 Abs. 1 BGB eines Verschuldens.

Der Haftungsgrund im Rahmen Produzentenhaftung besteht darin, dass der oder die Hersteller:in schuldhaft ein fehlerhaftes Produkt in den Verkehr gebracht hat, d.h. fahrlässig oder vorsätzlich. Fahrlässigkeit setzt voraus, dass die im Verkehr erforderliche Sorgfalt nicht beachtet wurde. Vorsätzlich handelt, wer wissentlich und willentlich ein fehlerhaftes Produkt in den Verkehr gebracht hat.

Der Vorwurf hierbei ist regelmäßig ein Verstoß des / der Hersteller:in gegen sog. Verkehrssicherungspflichten. Danach ist derjenige bzw. diejenige, der / die eine Gefahrenlage oder -quelle gleich welcher Art schafft und andauern lässt, verpflichtet, Rücksicht auf die Gefährdung zu nehmen und die zumutbaren Vorkehrungen zu treffen, um Schädigungen von Dritten möglichst zu verhindern.

Für die Produzentenhaftung haben sich insbesondere vier Fallgruppen herausgebildet:

Organisationspflichten: der / die Hersteller hat den Betrieb so einzurichten, dass Fehler im Rahmen der Produktion (Fabrikation), Konstruktion und Instruktion möglichst ausgeschaltet oder durch Kontrollen entdeckt werden.

Instruktionspflichten: im Rahmen dieser Pflicht bestehen für den / die Hersteller:in Hinweis- und Warnpflichten, etwa dahingehend, wie mit dem Produkt zur Schadensvermeidung umzugehen ist.

Produktbeobachtungspflichten: anders als die erst genannten Pflichten, die bereits vor dem Inverkehrbringen des Produkts beachtet werden müssen, setzt die Produktbeobachtungspflicht ein, nachdem das Produkt bereits auf dem Markt ist. Wird nachträglich erkannt, dass von dem Produkt eine Gefahr ausgeht, so hat der / die Hersteller:in diese Gefahren im Rahmen des ihm / ihr Zumutbaren abzuwenden. Dies umfasst sowohl die bereits in Verkehr gebrachten Produkte als auch die zukünftige Produktion.

Gefahrabwendungspflichten: hat der / die Herstellerin Gefahren erkannt, die durch die Verwendung des Produkts drohen, muss für die Vermeidung gesorgt werden. Der / die Herstellerin hat also Anstrengungen zu unternehmen, um den Schadenseintritt zu verhindern. Dies kann durch Warnung, durch einen Produktrückruf, durch Beseitigung oder ähnliche Maßnahmen erfolgen.

Besonderheiten der Produzentenhaftung: Beweislastumkehr und Herausforderungen bei KI-Entwicklungsständen

Die Geschädigten stehen jedoch auch bei der Produzentenhaftung vor demselben Problem wie bei der Produkthaftung: wie können sie die Fehlerhaftigkeit des Produkts beweisen?

Grundsätzlich muss der oder die Geschädigte auch im Rahmen der Produzentenhaftung nachweisen, dass der oder die Hersteller:in schuldhaft ein fehlerhaftes Produkt in den Verkehr gebracht hat. Hier kommt jedoch eine Besonderheit der Produzentenhaftung ins Spiel: anders als bei der Produkthaftung wird an dieser Stelle eine Beweiserleichterung bis hin zur Beweislastumkehr vorgenommen.

Die Hersteller:innen müssen sich entlasten, dass sie gerade kein fehlerhaftes Produkt in den Verkehr gebracht haben, sie also ihre Verkehrssicherungspflichten eingehalten haben. Dies liegt darin begründet, dass der oder die Geschädigte nur selten Einblicke in den Produktionsprozess hat und aus diesem Grund auch selten schon einen Anspruch nach dem ProdHaftG gelten machen kann. Irgendwie muss er oder sie jedoch eine Chance haben, die Hersteller:innen für den Schaden aufkommen zu lassen.

Die Produzentenhaftung der KI Hersteller:innen wird in Zukunft noch eine Vielzahl von schwierigen (wenngleich spannende) Fragen aufwerfen. Insbesondere aufgrund des Entwicklungsstandes der künstlichen Intelligenz. Können KI Hersteller:innen sagen, dass der Fehler nicht mehr in ihrer Sphäre liegt, sondern erst viel später durch die selbstlernenden Eigenschaften der KI entstanden ist? Wie verhält sich dies zu den vorgenannten Verkehrssicherungspflichten? Und wie überhaupt können KI Hersteller:innen überhaupt ihren Verkehrssicherungspflichten entsprechen, wenn die KI auf dem Markt und in Betrieb ist?

Wie die Antworten hierauf lauten werden, ist noch nicht absehbar.

Haftung des Anwendenden bei KI-Technologie: Verschuldensfrage und Herausforderungen in der Praxis

Beim Anwendenden bzw. Betreibenden der KI-gestützten Technik fallen Produkt- und Produzentenhaftung weg. Es kann sich eine Haftung je nach konkretem Einzelfall sowohl aus vertragsrechtlichen Grundsätzen als aus dem Deliktsrecht ergeben.

Die Schwierigkeiten, die sich hierbei ergeben, sollen an folgendem Beispielsfall verdeutlicht werden.

Ein Arzt bzw. eine Ärztin stützt sich bei der Diagnose eines Melanoms hauptsächlich auf ein KI-gestütztes Diagnosesystem. Die KI diagnostiziert das Melanom irrtümlich als gutartig ein - die Diagnose der KI ist mithin falsch. Der Arzt / die Ärztin vertraut auf die Richtigkeit und infolgedessen tritt im Rahmen der Behandlung ein Schaden bei dem / der Patient:in ein.

Die vertragliche Haftung des Arztes / der Ärztin richtet sich nach den Vorschriften über den Behandlungsvertrag (§§ 630a ff. BGB). Die deliktische Haftung folgt aus dem bereits erwähnten § 823 BGB.

Haftung bei KI-Einsatz in der medizinischen Diagnose: Schwierigkeiten bei der Beurteilung des Verschuldens

Der Knackpunkt wird hier häufig das Verschulden sein. Die geschädigte Person müsste daher nachweisen, dass der KI-Betreibende die im Verkehr erforderliche Sorgfalt nicht beachtet hat. Das stellt sich in der Praxis meistens als schwierig heraus. Dieses Problem besteht grundsätzlich sowohl im Rahmen der vertraglichen als auch der deliktischen Haftung.

Denn wie kann man beurteilen, ob der Arzt / die Ärztin die im Verkehr erforderliche Sorgfalt beachtet hat? Schließlich kann auch der Arzt /die Ärztin nicht in den Entscheidungsprozess der KI-Einblick nehmen und beurteilen, ob und wo da etwas schiefgelaufen ist.

Ausschlaggeben für die Haftungsfrage dürfte sein, ob und inwieweit der Arzt / die Ärztin sich auf die Entscheidungen verlassen konnte bzw. durfte und ob nicht eine kritische Überprüfung der KI-gestützten Diagnose erforderlich ist.

Hinsichtlich der vertragsrechtlichen Haftung dürfte der Arzt / die Ärztin sich mit diesem Umstand nicht aus der Haftung ziehen können. Denn nach § 630a Abs. 2 BGB hat die Behandlung nach den bestehenden, allgemeinen anerkannten fachlichen Standards zu erfolgen, sofern nichts anderes vereinbart ist.

Stand jetzt gehören KI-Anwendungen noch nicht zu den anerkannten medizinischen Standards. Medizinisches Personal kann sich insofern nicht blindlings auf die Ergebnisse der KI verlassen, sondern ist grundsätzlich weiterhin verpflichtet, das Ergebnis (kritisch) zu überprüfen und selbständig die Diagnose zu treffen.

Diese Umstände müssen auch im Rahmen der deliktischen Haftung beachtet werden.

Entscheidender Unterschied zwischen der vertragsrechtlichen und der deliktischen Haftung liegt jedoch in der Frage, wer die Verletzung, die Kausalität und das Verschulden zu beweisen hat.

Die deliktische Haftung folgt hier den zuvor bereits beschriebenen Grundsätzen: der / die Geschädigte muss den Beweis über die schuldhafte Verletzung führen. Dies stellt - wie bereits erwähnt - die Geschädigten vor meist unüberwindbare Hürden.

Auf der vertragsrechtlichen Seite sieht es jedoch anders aus. Denn im Bereich des Arzthaftungsrechts besteht mit § 630h Abs. 1 BGB eine Beweislastumkehr hinsichtlich des Fehlers und des Verschuldens. Ein Fehler des Arztes / der Ärztin wird demnach vermutet, wenn sich ein allgemeines Behandlungsrisiko erfüllt hat, das für den Behandelnden voll beherrschbar war und das zur Verletzung des Patienten geführt hat. Die Beweislast ist hier für die Geschädigten wesentlich günstiger.

Es lässt sich feststellen, dass sich eine Haftung der KI Anwendenden aus verschiedenen Gesichtspunkten ergeben kann. Während die deliktische Haftung wohl regelmäßig aufgrund der schwierigen Beweisbarkeit zu verneinen ist, dürfte eine vertragliche Haftung hingegen häufiger anzunehmen sein.

Haftungsfragen beim autonomen Fahren: Besonderheiten im Straßenverkehrsgesetz (StVG)

Das wohl bekannteste Beispiel, wenn es um die Thematik Künstliche Intelligenz und Haftung geht, stellt vermutlich das autonome Fahren dar. Das liegt vor allem daran, dass stetig immer mehr automatische Systeme die Steuerung im Auto übernehmen und es nur noch eine Frage der Zeit ist, bis KI das Auto komplett übernehmen kann – zumindest technisch gesehen. Rechtlich stellen sich auch dann dieselben Haftungsfragen, wie bei allen anderen selbstständig handelnden auch. Eine Besonderheit liegt allerdings darin, dass die Haftung im Straßenverkehr spezialgesetzlich im Straßenverkehrsgesetz (StVG) geregelt ist.

Haftung im autonomen Fahren: Unterschiede zwischen der Haftung des Fahrzeugführers und des Fahrzeughalters

Der Gesetzgeber hat 2017 das StVG auf die Zukunft des autonomen Fahrens angepasst. Das Haftungsregime des StVG unterscheidet zwischen der Haftung des Führers oder der Führerin des Kfz und der Haftung des Halters oder der Halterin. Der / die Führer:in haftet gem. § 18 StVG verschuldensabhängig. Der/die Halter:in haftet hingegen verschuldensunabhängig (§ 7 Abs. 1 StVG), also im Zweifel immer, wenn bei Betrieb eines Kfz ein Mensch getötet, der Körper oder die Gesundheit eines Menschen verletzt oder eine Sache beschädigt wird.

Haftungsregelungen im autonomen Fahren: Wer gilt rechtlich als Fahrzeugführer:in?

Die Gesetzesänderung 2017 hat dazu geführt, dass zunächst einmal die hoch- oder vollautomatisierte Fahrfunktion als ausdrücklich zulässig erklärt wurde (§ 1a Abs. 1 StVG). Die für Haftungsfragen relevante Änderung besteht jedoch darin, dass klargestellt wird, dass ein/e Fahrzeugführer:in im Sinne des StVG auch der- oder diejenige ist, der/die die autonome Fahrfunktion aktiviert und verwendet. Insbesondere ist er oder sie auch dann als Fahrzeugführer:in anzusehen, wenn er/sie das Fahrzeug gerade nicht eigenhändig steuert.

Unverbindliches Erstgespräch zu
KI-Lösungen

  • Wir stehen Ihnen bei der Lösung der rechtlichen Fragen und Probleme im Zusammenhang mit künstlicher Intelligenz und Robotik zur Seite.
  • Wir helfen Ihnen dabei, die Haftungsrisiken bei der Anwendung von KI-basierten Systemen zu minimieren.
  • Wir unterstützen Sie, die rechtlichen Rahmenbedingungen für Ihre Produkte und Dienstleistungen zu schaffen.

Termin vereinbaren

Haftungsfolgen für Halter, Fahrer und Hersteller beim autonomen Fahren

Welche Folge hat diese Klarstellung nun für die Haftung? Zunächst einmal ist die Struktur der Halter- und Fahrerhaftung bestehen geblieben. Des Weiteren hat die Änderung zur Folge, dass auch der- oder diejenige, der/die sein/ihr Auto „fahren lässt“ als Führer:in im Sinne des § 18 Abs. 1 StVG anzusehen ist. Das heißt, er/sie haftet auch wie ein/e Fahrzeugführer:in, der/die kein autonomes Auto fährt. Hat er/sie den Unfall also zu verschulden, dann haftet er/sie.

Die Änderung hat folglich klargestellt, dass der/die Fahrzeugführer:in unabhängig vom Automatisierungsgrad haftet, wenn ihn/sie ein Verschulden trifft. Hierbei stellt sich jedoch die Frage, ob die Haftung entfallen kann, wenn der Unfall auf einem Fehler der KI basiert. Regelmäßig wird dieser Umstand jedoch nicht dazu führen, dass die Haftung des / der Fahrzeugführer:in entfällt. Denn wie der § 1b StVG zeigt, kann und darf sich der / die Fahrzeugführer:in keineswegs stets auf das autonome Fahrsystem verlassen. Vielmehr muss der / die Fahrzeugführer:in, wie im Straßenverkehr üblich, weiterhin wahrnehmungsbereit sein und unverzüglich die Fahrzeugsteuerung übernehmen, wenn er dazu von dem autonomen Fahrsystem aufgefordert wird oder er / sie erkennt, dass eine bestimmungsgemäße Verwendung des autonomen Fahrens nicht mehr vorliegt.

Künftig wird es darauf ankommen, ob und inwiefern der Fehler für den / die Fahrzeugführer:in erkennbar war bzw. erkennbar gewesen wäre. Erst wenn das Fahren vollständig autonom erfolgt und kein:e menschlich:e Fahrzeugführer:in mehr erforderlich ist, sondern nur noch Personen transportiert werden, entfällt die Fahrzeugführerhaftung.

Daneben besteht die verschuldensunabhängige Halterhaftung ohne Besonderheiten weiter fort. Anders formuliert, die Haftung des Fahrzeughalters besteht unabhängig von der Frage, ob das Fahrzeug autonom oder durch einen Menschen geführt wird. Gleichwohl stellt sich auch für den / die Kfz Halter:in die Frage, ob ein Fehler der KI zu einem Haftungsausschluss führen kann, etwa indem es als Fall höherer Gewalt (§ 7 Abs. 2 StVG) angesehen werden kann.

Unter dem Begriff der höheren Gewalt ist ein von außen einwirkendes, außergewöhnliches und nicht abwendbares Ereignis zu verstehen. Für autonome Fahrsysteme ist hierbei entscheidend, dass ein Fehler der KI kein von außen einwirkendes Ereignis darstellt. Denn die KI steht in unmittelbaren Zusammenhang mit der Fahrzeugautomatik.

Zudem ist auch der Herstellende des autonomen Autos nicht befreit. Er oder sie haftet zwar nicht über das StVG, aber nach dem ProdHaftG sowie dem BGB.

Zusammenfassend lässt sich feststellen, dass bereits ein umfassendes Haftungsregime hinsichtlich autonomer Fahrsysteme vorhanden ist.

Reformierung des KI-Haftungsrechts: das plant die EU

In absehbarer Zukunft wird es im Haftungsrecht rund um KI einige Neuerungen geben. Denn auf EU-Ebene gibt es derzeit mehrere Gesetzgebungsbestrebungen, die die Regulierung von KI zum Gegenstand haben.

Die Regelungen der KI-Verordnung dürften zwar in weiten Teilen ein Schutzgesetz im Sinne des § 823 Abs. 2 BGB darstellen, sodass bei einem Verstoß gegen die Vorgaben der KI-Verordnung ein Schadensersatzanspruch nach § 823 Abs. 2 BGB entstehen kann. Die KI-Verordnung selbst enthält jedoch keine haftungsrechtlichen Regelungen.

Daneben arbeitet die EU jedoch auch an zwei Richtlinien, die sich mit Haftungsfragen in Bezug auf KI beschäftigen. Damit sollen vor allem die bereits dargestellten Probleme adressiert werden. Zudem soll damit die Entwicklung und Verbreitung von KI gefördert werden, indem Rechtssicherheit geschaffen wird. Insbesondere auch, da Unternehmen ihr Haftungsrisiko so besser einschätzen und versichern werden können.

Anpassung der EU-Produkthaftungsrichtlinie an Künstliche Intelligenz

Zum einen soll die europäische Produkthaftungsrichtlinie überarbeitet und ersetzt werden, die auch die Grundlage für das deutsche Produkthaftungsgesetz bildet. Mit der Richtlinie, die schon 1985 in Kraft trat, soll im Rahmen der voranschreitenden Digitalisierung die Gefährdungshaftung umfassend modernisiert werden. Die neue Richtlinie wird etwa die Haftungstatbestände mit Blick auf Künstliche Intelligenz ausweiten. Zudem wird durch den Gesetzesvorschlag die Beweiserbringung für Geschädigte erleichtert.

Die Richtlinie wird voraussichtlich noch in diesem Jahr in Kraft treten. Die Mitgliedstaaten haben dann 12 Monate Zeit, die Vorgaben der Richtlinie in das nationale Recht umzusetzen.

Die zuvor erwähnten Probleme, die den / die Geschädigte im Rahmen der Beweisbarkeit des fehlerhaften Produkts treffen, werden von der Richtlinie adressiert, jedoch nicht gänzlich beseitigt. Eine komplette Beweislastumkehr zugunsten der Geschädigten wird es nicht geben, sodass nach wie vor die geschädigte Person den Fehler in der Software und die Kausalität nachweisen muss. Die Richtlinie sieht jedoch einige Beweiserleichterungen vor.

Beispielsweise soll eine Kausalitätsvermutung eingeführt werden. Können Opfer nachweisen, dass jemand für die Nichteinhaltung einer schadensrelevanten Verpflichtung verantwortlich war und ist ein Zusammenhang zwischen Schaden und Nichteinhaltung nach vernünftigem Ermessen wahrscheinlich, so soll zukünftig die Kausalität zwischen beiden widerlegbar vermutet werden.

Das eingangs erwähnte "Blackbox"-Problem wird durch die neue EU-Produkthaftungsrichtlinie ebenfalls adressiert. Den Geschädigten soll der Zugang zu relevanten Beweismitteln erleichtert werden, indem Beklagten eine Offenlegungspflicht auferlegt wird. Auf Antrag werden Gerichte danach die Offenlegung von bestimmten Informationen anordnen können. Voraussetzung für die Offenlegung ist jedoch, dass die Klagenden genügend Tatsachen und Beweismittel vorgelegt haben, die einen Schadensersatzanspruch wahrscheinlich erscheinen lassen. Damit die Hersteller:innen sich dieser Pflicht nicht unbehelligt entziehen können, sieht die Richtlinie hierfür vor, dass die Fehlerhaftigkeit des Produkts vermutet wird, wenn der / die Herstellerin seiner Offenlegungspflicht nicht nachkommt.

Betreffen diese Informationen Geschäftsgeheimnisse von Unternehmen, muss das Gericht Maßnahmen zur Vertraulichkeit treffen.

Die neue Produkthaftungsrichtlinie greift viele der bestehenden Probleme auf und schafft diesbezüglich Abhilfe. Ob hiermit jedoch weitreichende Änderungen im Bereich der KI-Haftung einhergehen, wird sich zeigen. Denn von der Richtlinie werden gerade solche Schadenstypen nicht erfasst, die bei KI regelmäßig von besonderer Bedeutung sind. So fallen etwa reine Vermögensschäden oder immaterielle Schäden in Folge Manipulation oder Diskriminierung weiterhin nicht unter den Anwendungsbereich der Produkthaftung.

Die neue Richtlinie über KI-Haftung

Zudem soll eine gänzliche neue Richtlinie geben, die die KI-spezifische Haftung regulieren soll. Anders als die Produkthaftungsrichtlinie soll diese jedoch keine verschuldensunabhängige Haftung zum Gegenstand haben, sondern Fälle regeln, in denen es aufgrund von Vorsatz oder Fahrlässigkeit zu Schäden durch KI kommt. Sie soll eine Vielzahl von Schäden umfasst sein, auch etwa Verletzungen von Privatsphäre durch Sicherheitsprobleme in KI.

Die KI-Haftungsrichtlinie enthält dabei keine eigenen Anspruchsgrundlagen für die Geschädigten. Vielmehr sieht die Richtlinie Regelungen vor, die die Durchsetzung eines Schadensersatzanspruches betrifft.

Ähnlich wie die neue Produkthaftungsrichtlinie wird auch die KI-Haftungsrichtlinie eine Kausalitätsvermutung und eine Offenlegungspflicht beinhalten, um Geschädigten die Geltendmachung ihrer Ansprüche zu erleichtern. Sie nimmt dabei Bezug auf sogenannte Hochrisiko-KI, die von der KI-Verordnung reguliert wird. In gewisser Weise kann sie damit als Sanktionsregime für Schäden aufgrund der Nichteinhaltung der Vorgaben aus der Verordnung gesehen werden.

Ein Datum des Inkrafttretens der KI-Haftungsrichtlinie ist zum jetzigen Zeitpunkt noch nicht absehbar. Ebenfalls unsicher ist, ob der bisherige Entwurf auch der finalen Version entsprechen wird.

Im September 2024 veröffentlichte der Wissenschaftliche Dienst des Europäischen Parlaments eine Studie zur KI-Haftungsrichtlinie. In der Studie werden Änderungs- und Verbesserungsvorschläge vorgetragen. Die Studie schlägt dabei unter anderem vor, dass für bestimmte KI-Systeme eine verschuldensunabhängige Haftung begründet werden sollte. Generell sollte laut der Studie die KI-Richtlinie enger auf die KI-Verordnung abgestimmt werden und die erfassten KI-Systeme konkreter und in enger Orientation an der KI-Verordnung definiert werden.

Die Studie wirft zudem die Frage auf, ob eine Richtlinie für die KI-Haftung der "richtige" Rechtsakt ist.  Es wird der Vorschlag geäußert, ob nicht eine EU-Verordnung vorzugswürdig sei. Eine Verordnung würde aufgrund ihrer unmittelbaren Anwendbarkeit die KI-Haftung stärker harmonisieren und europaweit weitestgehend einheitliche Rahmenbedingungen schaffen.

Es bleibt abzuwarten, ob und inwieweit der europäische Gesetzgeber gewillt ist, die KI-Haftungsrichtlinie anzupassen.Diskussionen um Rechtspersönlichkeit von KI: Hindernisse und praktische Herausforderungen

Als nächstes stellt sich die Frage nach den praktischen Herausforderungen, die sich aus dieser Regulierung ergeben.

Eine Künstliche Intelligenz verfügt zunächst weder über ein Bankkonto noch über eine Versicherung, was bei Verursachung eines Schadens problematisch ist. Die Einführung einer Art E-Person könnte dieses Problem lösen. Eine solche E-Person würde jedoch auch Grundrechte wie eine natürliche Person haben, was im Widerspruch zur EMRK und der EU-Grundrechtecharta stehen würde. Bisher besteht ein Haftungsregime durch Rückgriff auf die hinter der KI stehenden Personen. Daher wäre die Einführung einer E-Person unnötig.

Diskussionen um Rechtspersönlichkeit von KI: Hindernisse und praktische Herausforderungen

Mit dem stets steigenden Entwicklungsfortschritt von KI stellt sich zunehmend die Frage, wie es um das Haftungsregime besteht, wenn KI zukünftig vollständig autonom handelt bzw. handeln kann.

Wie ist es zu beurteilen und wer haftet etwa, wenn eine KI vollautomatisch mit einem anderen Unternehmen oder gar einer anderen KI einen Vertrag abschließt? Nach der geltenden Rechtslage hat eine Künstliche Intelligenz keine Rechtspersönlichkeit wie ein Mensch. Eine KI ist nicht Träger von Rechten und Pflichten sein. Eine KI als Vertragspartner zu haben, ist bisher nicht möglich.  Das Problem kann auch nicht über die Regelungen zur Stellvertretung (§§ 164 ff. BGB) oder die Haftung eines Verrichtungsgehilfen (§ 831 BGB) gelöst werden. Denn diese setzen eine rechtsfähige Hilfsperson voraus.

Auch verfügt eine KI weder über ein Bankkonto noch über eine Versicherung, was bei Verursachung eines Schadens problematisch ist.

Vor diesem Hintergrund wird die Einführung einer "E-Person" zur Lösung dieses Problem diskutiert. Die Begründung einer Rechtspersönlichkeit für KI-Systeme und Anwendungen könnte daher diese Probleme ausräumen. Dabei ist jedoch zu erwähnen, dass es damit nicht getan ist. Um Rechtssicherheit zu schaffen, müsste der Gesetzgeber umfangreiche Gesetzesänderungen in fast allen denkbaren Bereichen vornehmen. Die Folgen wären tiefste Änderungen des gesamten Rechtssystems.

Ein Ende der Diskussion und der möglichen Lösungen ist noch nicht abzusehen. Zum jetzigen Zeitpunkt bedarf es einer solchen E-Person (noch) nicht. Das bisher bestehende Haftungsregime, bei dem auf die hinter der KI stehenden Person zurückgegriffen wird, ist noch bewährt und gewährt (noch) ausreichend Schutz.

Künstliche Intelligenz und Haftung: Ein theoretisch lückenloses Haftungssystem

Zusammenfassend zeigt sich, dass das deutsche Haftungssystem lückenlos ist. Für Schäden, die durch die KI bzw. die durch den Einsatz einer KI verursacht werden, bestehen ausreichend mögliche Anspruchsgrundlagen. Es werden auch bei den neuen Herausforderungen, die Künstliche Intelligenz und Roboter mit sich bringen, immer passende Rechtsgrundlagen vorhanden sein.

Gänzlich ohne Probleme ist das bestehende Haftungsregime bezogen auf KI jedoch auch nicht. Insbesondere im Rahmen der Beweisbarkeit stehen Geschädigte teils vor großen Hürden. Die EU versucht diesen zwar mit ihren Gesetzgebungsverfahren entgegenzuwirken, beseitigt werden sie aber nicht.

Hier die wichtigsten Fakten auf einen Blick:

Herstellerhaftung: Der/die Hersteller:in kann über Produkt- oder Produzentenhaftung zur Haftung herangezogen werden. In der Praxis wird der Anspruch aus Produkthaftung regelmäßig keine Chance haben, aus Produzentenhaftung allerdings schon.

Systembetreiberhaftung: Der Systembetreibende wird nur haften müssen, wenn ihn/sie ein Fehlverhalten zur Last gelegt werden kann. Welche Maßstäbe hierfür heranzuziehen sind, wird stark vom Einzelfall und dem konkreten Einsatz der KI abhängig sein. Nicht zu unterschätzen ist hierbei stets die Frage, ob die Anwendenden nicht aufgrund vertraglicher Regelungen haften.

Kfz-Halterhaftung:  Für den Sonderfall des autonomen Fahrzeugs bietet das StVG ein umfassendes und lückenloses Haftungssystem. Sowohl der/die Halter:in als auch der / die Fahrer:in wird daher meistens haften müssen. Eine Exkulpation für Fehler der KI wird nur in den seltensten Fällen möglich sein.

Reformierung der Haftung auf EU-Ebene: Lösungen für rechtliche Fragen und Probleme im Zusammenhang mit KI und Robotik

Zwar gibt es mehrere Möglichkeiten, an verschiedene Personen heranzutreten und den entstandenen materiellen oder immateriellen Schaden ersetzt zu bekommen. In der Praxis schwer zu beantwortende Fragen wie die Abgrenzung eines fahrlässigen zu einem nicht fahrlässigen Verhalten lassen das Haftungssystem allerdings lückenhaft erscheinen. Etwaige Unklarheiten und Regelungslücken werden jedoch in absehbarer Zeit voraussichtlich durch eine Reformierung auf EU-Ebene ausgeräumt. Diese wird es für Geschädigte leichter machen, ihre Ansprüche geltend zu machen und Unternehmen eine bessere Einschätzung und Versicherbarkeit von Haftungsrisiken ermöglichen.

Wir stehen Ihnen bei der Lösung der rechtlichen Fragen und Probleme im Zusammenhang mit künstlicher Intelligenz und Robotik zur Seite und helfen Ihnen dabei, die Haftungsrisiken bei der Anwendung von KI-basierten Systemen zu minimieren sowie die rechtlichen Rahmenbedingungen für Ihre Produkte und Dienstleistungen zu schaffen.

Unsere Anwältinnen und Anwälte verfügen über langjährige Erfahrung im Technologierecht und sind stets auf dem neuesten Stand der Entwicklungen im Bereich Künstliche Intelligenz. Wir bieten Ihnen eine individuelle und praxisorientierte Beratung, die auf Ihre speziellen Bedürfnisse und Anforderungen zugeschnitten ist. Wir sind gerne für Sie da!

Weitere Neuigkeiten