22.08.2019 | Künstliche Intelligenz

Künstliche Intelligenz – wer haftet, wenn ein Roboter versagt?

Stellen Sie sich vor, ein KI-basierter Roboter unterstützt Ärzte bei einer OP und trifft die falsche Entscheidung. Die OP geht deshalb schief und der Patient kann evtl. Schadenersatz oder Schmerzensgeld geltend machen. Ein autonom fahrendes Auto entscheidet sich für ein Ausweichen auf den Fußweg anstatt in die Hecke und verletzt dabei Menschen. Auch hier muss der daraus entstandene Schaden ersetzt werden. Aber durch wen? Wer haftet hier? Arzt oder Fahrer, die als Systemanwender die künstliche Intelligenz für ihre Zwecke benutzen? Der Hersteller? Oder kann sogar die künstliche Intelligenz selbst haften?

Diese Fragen sind rechtlich sehr schwer zu beantworten. Grundlage des deutschen Haftungssystems ist immer ein Fehlverhalten, das zu einem Schaden führt. Ein Fehlverhalten, das rechtlich geahndet wird, kann aber nicht jeder an den Tag legen. Nach deutschem Recht kann nur der haften, dem per Gesetz Rechtspersönlichkeit zukommt. Dies ist bei Robotern und Maschinen bisher noch nicht der Fall, weshalb auf das Fehlverhalten eines Menschen hinter der künstlichen Intelligenz abzustellen ist. Kann jedoch diesem Menschen überhaupt ein Fehlverhalten vorgeworfen werden, wenn die KI-basierte Maschine verselbstständigt Entscheidungen trifft? Oder stehen wir einer großen Haftungslücke gegenüber, die rechtlich gesehen die Anwendung und Entwicklung von Robotern und künstlicher Intelligenz blockiert?

Wann haftet der Hersteller?

Zunächst bietet es sich an, die Haftung des Herstellers des KI-basierten Roboters unter die Lupe zu nehmen. Es liegt nahe, dass er bei einem Fehlverhalten der Maschine haften könnte. Schließlich ist er derjenige, der durch Entwicklung, Programmierung und Training der künstlichen Intelligenz ihrer Entscheidungsfindung noch am nächsten steht.

Das deutsche Recht hat genau diesen Grundgedanken, dass der Hersteller sozusagen „nah am Produkt ist“, schon längst aufgegriffen und zwar unabhängig von der Art des Produkts. Es mag zunächst verwirrend klingen, aber die Haftung des Herstellers für Fehler seines Produkts ist immer nach den gleichen Regelungen zu beurteilen, egal, ob das Produkt eine Wasserflasche oder ein hochkomplexes selbst fahrendes Auto ist.

Einerseits kann sich eine Haftung des Herstellers aus den Regelungen über die Produkthaftung nach dem Produkthaftungsgesetz (ProdHaftG) ergeben. Dazu müssen folgende Voraussetzungen vorliegen (§ 1 Abs. 1 ProdHaftG):

  1. Verletzung eines geschützten Rechtsguts (Tötung einer Person, Verletzung von Körper oder Gesundheit, Beschädigung einer Sache)
  2. durch ein fehlerhaftes Produkt
  3. mit daraus resultierendem (finanziellen) Schaden
  4. sowie kein Vorliegen einer gesetzlichen Ausnahme aus § 1 Abs. 2, Abs. 3 ProdHaftG.

Wenn man sich diese Voraussetzungen anschaut, dann dürfte der Hersteller bei Rechtsgutsverletzungen, die durch die von ihm entwickelte künstliche Intelligenz hervorgerufen wurden, eigentlich immer haften. Vor allem entspringt dieser Anspruch dem Prinzip der sog. Gefährdungshaftung. Bei der Gefährdungshaftung kommt es nicht darauf an, ob der Schädiger die Rechtsgutsverletzung zu verschulden hat. Das bedeutet konkret, dass es egal ist, ob er fahrlässig oder vorsätzlich gehandelt hat. Entscheidend für die Haftung ist einzig, dass er eine Gefahrenquelle geschaffen hat, indem er dieses fehlerhafte Produkt auf den Markt gebracht hat. Des Weiteren müssen Rechtsgutsverletzung und Schaden auf ihn zurückzuführen sein (Kausalität).

Verzwickt wird es jedoch in Hinblick auf das Vorliegen eines Fehlers, da die Vorgänge innerhalb der Entscheidungsfindung einer künstlichen Intelligenz schwer nachzuvollziehen sind (Stichwort: Blackbox) und daher auch ein Fehler in der Programmierung nicht immer leicht nachgewiesen werden kann.  Schwierig wird es insbesondere deshalb, weil der Geschädigte den Fehler nachweisen muss. Im Zweifel sind das Laien, die von künstlicher Intelligenz und der dahinterstehenden Technik gar keine Ahnung haben und die auch nicht in den Produktionsprozess involviert waren. Meistens wird eine Haftung des Herstellers über die Produkthaftung an dieser Voraussetzung scheitern.

Von der Produkthaftung unterschieden werden muss jedoch die sog. Produzentenhaftung. Diese richtet sich nicht nach dem ProdHaftG, sondern nach dem Schadenersatzanspruch des § 823 Abs. 1 BGB. Dieser Schadenersatzanspruch ist eigentlich gar nicht speziell auf Produzenten eines Produkts zugeschnitten, sondern kann jeden treffen, der ein dort aufgezähltes Rechtsgut verletzt. Handelt es sich allerdings um einen Produzenten, werden spezielle Kriterien innerhalb dieses Anspruchs angewendet.

Hierbei handelt es sich um einen Anspruch, der der sog. Verschuldenshaftung entspringt. Das bedeutet im Unterschied zur Produkthaftung, die zur Gefährdungshaftung zählt, dass der Hersteller schuldhaft ein fehlerhaftes Produkt in den Verkehr gebracht haben muss, d.h. fahrlässig oder vorsätzlich. Fahrlässigkeit setzt voraus, dass die im Verkehr erforderliche Sorgfalt nicht beachtet wurde. Vorsätzlich handelt, wer wissentlich und willentlich ein fehlerhaftes Produkt in den Verkehr gebracht hat.

Hier kommt eine Besonderheit der Produzentenhaftung ins Spiel: Normalerweise müsste der Geschädigte nachweisen, dass der Hersteller schuldhaft ein fehlerhaftes Produkt in den Verkehr gebracht hat. Anders als bei der Produkthaftung wird an dieser Stelle eine Beweislastumkehr vorgenommen: Der Hersteller muss sich entlasten, also beweisen, dass er gerade kein fehlerhaftes Produkt in den Verkehr gebracht hat. Dies liegt darin begründet, dass der Geschädigte nur selten Einblicke in den Produktionsprozess hat und aus diesem Grund auch selten schon einen Anspruch nach dem ProdHaftG gelten machen kann. Irgendwie muss er jedoch eine Chance haben, den Hersteller für den Schaden aufkommen zu lassen.

Die Frage ist jedoch, ab welchem Entwicklungsstand der KI der Hersteller sagen kann, dass der Fehler nicht mehr in seiner Sphäre liegt, sondern sich erst viel später durch die selbstlernende Eigenschaft der KI entwickelt hat. Hier wird es sehr stark auf die Argumente im Einzelfall ankommen.

Wann haftet der Anwender?

Beim Anwender bzw. Betreiber der KI-gestützten Technik fallen Produkt- und Produzentenhaftung weg. Allerdings könnte eine Haftung aus § 823 Abs. 1 BGB in Betracht kommen – nur dieses Mal ohne die besonderen Voraussetzungen, die für Produzenten gelten. Stattdessen haftet der Anwender, wenn durch das Betreiben der KI fahrlässig oder vorsätzlich eine Rechtsgutsverletzung (Leben, Körper, Gesundheit, Eigentum, sonstiges Recht) eingetreten ist, die zu einem Schaden geführt hat.

Der Knackpunkt wird hier häufig das Verschulden sein. Wie kann man beurteilen, ob beispielsweise ein Arzt, der sich bei der Diagnose hauptsächlich auf ein KI-gestütztes Diagnosesystem stützt, die im Verkehr erforderliche Sorgfalt beachtet hat? Schließlich kann auch der Arzt nicht in den Entscheidungsprozess der KI Einblick nehmen und beurteilen, ob und wo da etwas schiefgelaufen ist und ob er sich deshalb nicht auf die Entscheidung hätte verlassen können. Deshalb wird man meistens davon ausgehen können, dass in dem Fall in dem der Betreiber den Roboter bzw. die Maschine richtig bedient hat, ihm auch kein Fehlerhalten zur Last gelegt werden darf. Insbesondere greifen hier nicht die Regeln der Produzentenhaftung. Der Geschädigte müsste daher nachweisen, dass der KI-Betreiber die im Verkehr erforderliche Sorgfalt nicht beachtet hat. Das stellt sich in der Praxis meistens als schwierig heraus.

Sonderfall: Autonomes Fahren

Das wohl bekannteste Beispiel, wenn es um die Thematik KI und Haftung geht, stellt vermutlich das autonome Fahren dar. Das liegt vor allem daran, dass stetig immer mehr automatische Systeme die Steuerung im Auto übernehmen und es nur noch eine Frage der Zeit ist, bis KI das Auto komplett übernehmen kann – zumindest technisch gesehen. Rechtlich stellen sich auch dann dieselben Haftungsfragen, wie bei allen anderen selbstständig handelnden KIs auch. Eine Besonderheit liegt allerdings darin, dass die Haftung im Straßenverkehr spezialgesetzlich im Straßenverkehrsgesetz (StVG) geregelt ist.

Der Gesetzgeber hat sich 2017 daran gesetzt, das StVG auf die Zukunft des autonomen Fahrens anzupassen. Das Haftungsregime des StVG unterscheidet einmal die Haftung des Führers des KfZ und die des Halters. Der Führer haftet gem. § 18 StVG verschuldensabhängig. Der Halter jedoch haftet verschuldensunabhängig (§ 7 Abs. 1 StVG), also im Zweifel immer, wenn bei Betrieb eines KfZ ein Mensch getötet, der Körper oder die Gesundheit eines Menschen verletzt oder eine Sache beschädigt wird.

Die Gesetzesänderung 2017 hat dazu geführt, dass zunächst einmal die hoch- oder vollautomatisierte Fahrfunktion als ausdrücklich zulässig erklärt wurde (§ 1a Abs. 1 StVG). Die für Haftungsfragen relevante Änderung besteht jedoch darin, dass klargestellt wird, dass ein Fahrzeugführer im Sinne des StVG auch derjenige ist, der die autonome Fahrfunktion aktiviert und verwendet. Insbesondere ist er auch dann als Fahrzeugführer anzusehen, wenn er das Fahrzeug gerade nicht eigenhändig steuert.

Welche Folge hat diese Klarstellung nun für die Haftung? Zunächst einmal ist diese Struktur der Halter- und Fahrerhaftung bestehen geblieben. Des Weiteren hat die Änderung zur Folge, dass auch derjenige, der sein Auto „fahren lässt“ als Führer im Sinne des § 7 Abs. 1 StVG anzusehen ist. Das heißt, er haftet auch wie ein Fahrzeugführer, der kein autonomes Auto fährt. Hat er den Unfall also zu verschulden, dann haftet er. Im Umkehrschluss bedeutet das aber auch, dass der Halter des autonomen Autos verschuldensabhängig weiterhin immer haftet. Zudem ist auch der Hersteller des autonomen Autos nicht befreit. Er haftet zwar nicht über das StVG, aber neben dem StVG kommen das ProdHaftG sowie das BGB zur Anwendung.

Die Änderung hat folglich klargestellt, dass der Fahrzeugführer unabhängig vom Automatisierungsgrad haftet, wenn ihn ein Verschulden trifft. Die Frage ist jedoch, wann ihn wirklich ein Verschulden treffen kann. Fährt er nicht selbst und beruht der Unfall auf einem Fehler der KI, dann wird er von der Haftung befreit sein. Die Regel wird daher lauten, dass wenn die KI das Auto steuert, die Haftung beim Hersteller und Halter liegen wird.

Ein Blick in die Zukunft: Haftung der Künstlichen Intelligenz selbst

Stellen Sie sich vor, die Polizei steht vor der Tür und will Ihr Auto verhaften. Oder sie kommt in einen OP-Saal und will dem OP-Roboter Handschellen anlegen. Ja, es klingt definitiv nach Science Fiction, aber diese Vorstellungen haben bereits das EU-Parlament herumgetrieben. Zwar sind wir noch weit entfernt davon, Roboter in Gerichtsverfahren zu bestrafen oder sie Schadenersatz zahlen zu lassen. Diskussionen darüber, ob einer Künstlichen Intelligenz Rechtspersönlichkeit zukommen soll, sind jedoch voll im Gang.

Grundlage der Überlegung ist, dass nur Rechtspersonen haften können. Im deutschen Recht fallen darunter natürliche Personen (also wir alle als Individuen) oder juristische Personen (z.B. eine GmbH, AG, OHG).  Die KI könnte zu einer Art E-Person gemacht werden. Trifft sie dann eine falsche Entscheidung und muss für einen Schaden haften, dann könnte die KI als E-Person belangt werden. Schließlich lernt sie immer weiter und entfernt sich von dem Wissenstand, auf den sie ursprünglich programmiert wurde. Der Einfluss des Menschen auf die Entscheidungen der KI wird damit immer geringer. Dass KI dann auch eine eigene Rechtspersönlichkeit erlangt, erscheint nur folgerichtig.

Die an sich logische Grundidee stößt jedoch auf eine Reihe praktischer Hindernisse. Erstens hat eine KI kein Konto und auch keine Versicherung. Dies müsste mit Einführung einer E-Person ebenfalls eingeführt werden, denn woher soll eine KI Geld bekommen, um den von ihr verursachten Schaden zu begleichen? Zweitens hätte die Gleichstellung mit natürlichen Personen zur Folge, dass eine E-Person auch Grundrechte haben wird, wie eine natürliche Person auch. Dies würde jedoch der EMRK und der EU-Grundrechtecharta widersprechen. Drittens zeigt ein Blick auf das bisherige Rechtssystem, dass per Rückgriff auf die hinter der KI stehenden Menschen ein Haftungsregime bereits besteht. Die Einführung einer E-Person wäre damit überflüssig.

Fazit: KI und Haftung: Ein theoretisch lückenloses Haftungssystem!

Theoretisch ist das deutsche Haftungssystem lückenlos. Es werden auch bei den neuen Herausforderungen, die Künstliche Intelligenz und Roboter mit sich bringen, immer passende Rechtsgrundlagen vorhanden sein – die Frage ist nur, ob sie auch einschlägig sind! Hier die wichtigsten Fakten auf einen Blick:

  1. Herstellerhaftung: Der Hersteller kann über Produkt- oder Produzentenhaftung zur Haftung herangezogen werden. In der Praxis wird der Anspruch aus Produkthaftung keine Chance haben, aus Produzentenhaftung allerdings schon!
  2. Systembetreiberhaftung: Der Systembetreiber wird nur haften müssen, wenn ihn ein Fehlverhalten zur Last gelegt werden kann. Hat er den Roboter richtig bedient, dann wird er auch nicht haften müssen.
  3. KfZ-Halterhaftung: Im Sonderfall des autonomen KfZ kommt durch das StVG die verschuldensunabhängige Halterhaftung hinzu. Der Halter wird daher meistens haften müssen.

Zwar gibt es durchaus mehrere Möglichkeiten, an verschiedene Personen heranzutreten und den entstandenen (materiellen oder immateriellen) Schaden ersetzt zu bekommen. In der Praxis schwer zu beantwortende Fragen wie die Abgrenzung eines fahrlässigen zu einem nicht fahrlässigen Verhalten lassen das Haftungssystem allerdings lückenhaft erscheinen. Bis sich der Gesetzgeber jedoch zu einem anderen System bei Fehlverhalten von KI durchgerungen hat, gilt es so. Er könnte beispielsweise in Betracht ziehen, Versicherungspflichten für Hersteller und Systemanwender zusammen mit einer Gefährdungshaftung für alle einzuführen. So wäre immer eindeutig, wer haftet und derjenige kann sich finanziell von der Versicherung abstützen lassen.

Lesen Sie auch folgende Beiträge:

Datenschutzkonformer Aufbau von Künstlicher Intelligenz: kein Widerspruch?!

„Künstliche Kreativität“? – Schutz von KI und ihrer Werke durch Urheberrecht

Künstliche Intelligenz: Datenminimierung durch Anonymisierung & Pseudonymisierung

Künstliche Intelligenz – trotz DSGVO ein Markt der Zukunft?!



Weitere Artikel

Anwälte der Kanzlei empfohlen durch: