Notice: Undefined index: post_type in /mnt/web322/d2/68/59163168/htdocs/ml-tech.org/wp-content/themes/ml-tech/functions.php on line 234 Wie steht's eigentlich um die haftungsrechtliche Bewertung von KI? - MLTech

In Anbetracht dessen, dass die EU-Kommission kürzlich ein Weißbuch zur Künstlichen Intelligenz veröffentlicht hat, soll es heute um den Themenkomplex “Haftung autonomer Systeme” gehen. Die Kommission hat sich zum Ziel gesetzt, einen Regulierungsrahmen zu konzipieren, der den Besonderheiten des KI Rechnung trägt und “den Menschen [dient], ihren Rechten [folgt]”, so Kommissionspräsidentin von der Leyen bei der Vorstellung des Weißbuchs. Im Hinblick auf den Stand der Technik erscheint es als kein fernliegendes Szenario mehr, dass Autos uns autonom durch den Verkehr steuern und Roboter im Alltag zu flexiblen Helfern werden. Um autonome Systeme derartig einsetzen zu können, müssen sie jedoch auch eigene Entscheidungen treffen. Der Einsatz künstlicher Intelligenz wirft vor diesem Hintergrund eine Vielzahl juristischer Fragestellungen auf. Der Einsatz von Software bringt in etlichen Wirtschaftszweigen Effizienzvorteile mit sich. Insbesondere die Haftung für durch Software begangene Fehler ist jedoch nur teilweise geklärt. Dem deutschen Haftungsregime liegt das menschliche Fehlverhalten zugrunde. Fraglich ist deshalb zunächst, ob nicht vorhersehbare Fehlausführungen einer Software dem Betreiber oder Hersteller eines Systems zugerechnet werden können.

Rückgriff auf das Produkthaftungsgesetz

§ 1 Abs. 1 ProdHaftG ordnet eine verschuldensunabhängige Gefährdungshaftung an – entscheidend für die Haftung ist damit in erster Linie, dass der Hersteller durch das Inverkehrbringen eines fehlerhaften Produkts eine Gefahrenquelle geschaffen hat und der dem Nutzer entstandene Schaden kausal auf dieser beruht. Kennzeichnend für die Produkthaftung sind im Vergleich zur Produzentenhaftung zudem ihr weiter Herstellerbegriff (§ 4 ProdHaftG) sowie eine Regelung zum Haftungshöchstbetrag von 85 Millionen Euro (§ 10 ProdHaftG) sowie zur Selbstbeteiligung bei Sachbeschädigung bei einem Schaden bis zu einer Höhe von 500 € (§ 11 ProdHaftG). Das europäische Produkthaftungsrecht ist durch die Richtlinie 85/374/EWG harmonisiert. Insbesondere im Fall von Fabrikationsfehlern geht die harmonisierte Produkthaftung über die des § 823 Abs. 1 BGB hinaus, weil der Hersteller gemäß § 1 ProdHaftG auch für Fehler der betreffenden Software einzustehen hat, die sich auch bei größter Sorgfalt nicht hätten vermeiden lassen.

Schon auf Ebene der Anwendbarkeit des Produkthaftungsgesetzes wird sich in der Praxis jedoch oft das Problem ergeben, dass das zum Einsatz gebrachte System schon gar nicht “fehlerhaft” war. Ursächlich für den Schaden ist nämlich oft gerade nicht ein wirklicher Systemfehler, sondern die systeminterne Falschverarbeitung einer Information. Gegen eine umfassende Herstellerhaftung spricht außerdem, dass die durch das System erzielten Arbeitsergebnisse teilweise nur bedingt kontrolliert werden (können). Strittig ist im Übrigen bereits, ob standardisierte Software unter den Begriff des „Produkts“ fällt.

Die Produzentenhaftung

Das durch die Rechtsprechung entwickelte Haftungskonstrukt der Produzentenhaftung entspringt der Verschuldenshaftung nach § 823 Abs. 1 BGB und setzt damit voraus, dass der Hersteller vorsätzlich oder fahrlässig ein fehlerhaftes Produkt in Verkehr bringt. Das Verschulden des Produzenten wird der Rechtsprechung zufolge vermutet. Von der Haftung umfasst ist jeder Schaden, der darauf zurückzuführen ist, dass ein Hersteller oder seine Organe schuldhaft oder jedenfalls fahrlässig ein Produkt in Verkehr gebracht haben, welches Konstruktions-, Fabrikations- oder Instruktionsfehlern unterliegt oder wenn Produktbeobachtungspflichten verletzt wurden. Ein Anspruch im Rahmen der Produzentenhaftung besteht nur dann, wenn Rechtsgüter wie Leben, Körper und Gesundheit oder Eigentum verletzt sind. Bloße Vermögensschäden sind damit ausdrücklich nicht umfasst. Das Haftungspotential ist hierdurch eingeschränkt. Gleichzeitig wird die Produzentenhaftung jedoch insbesondere dann relevant, wenn der Schaden durch das Produkthaftungsgesetz (bspw. aufgrund der in den §§ 10, 11 ProdHaftG geregelten Haftungshöchstbeträgen und der Selbstbeteiligung) nicht vollständig abgedeckt wird.

Die Rechtspraxis war in Bezug auf den haftungsrechtlichen Rückgriff auf Grundlage des Deliktsrechts bisher zurückhaltend. Problematisch ist hier vor allem auch die Frage, ob von einem Fehlverhalten des Herstellers einer Software überhaupt ausgegangen werden kann, wenn das autonome System letztlich eigene Entscheidungen trifft. Es stellt sich die Frage, ab welchem Punkt eine KI derartig weit entwickelt ist, dass von ihr begangene Fehler faktisch und juristisch betrachtet nicht mehr der Sphäre des Herstellers zuzuordnen sind.

Gefährdungshaftung im weiteren Sinne

Ähnlich wie im deutschen Haftungssystem für Kraftfahrzeuge (Halterhaftung, § 7 I StVG) oder Tiere (§ 833 S. 1 BGB) schafft der Hersteller eines Produkts, das sich einer bestimmten Software bedient, eine Betriebsgefahr, die sich nie vollständig reduzieren lässt. Die Gefährdungshaftung erscheint folglich als ein sinnvolles Instrument, um nicht vollständig beherrschbare Technologien juristisch zu erfassen.

Solange IT-Systeme im Rahmen ihrer Programmierung agieren und es sich damit um sogenannte „schwache KI“ handelt, lassen sich die Grundsätze der Gefährdungshaftung somit gut auf Software übertragen. Komplexer werden Haftungsfragen, wenn es um vollständig autonom agierende Systeme geht. Hierbei handelt es sich jedoch bisher um Zukunftsmusik. Darüber hinaus kann die Gefährdungshaftung im weiteren Sinne jedoch dann an Bedeutung gewinnen, wenn das Verschulden bei dem Betreiber eines KI-Systems liegt. Vor diesem Hintergrund wird der Vorschlag einer auf den Einsatz künstlicher Intelligenz zugeschnittenen “allgemeinen Gefährdungshaftung” im Europäischen Parlament schon seit einigen Jahren diskutiert. Konkrete Empfehlungen des Committee on Legal Affairs des Europäischen Parlaments an die Europäische Kommission im Hinblick auf die zivilrechtliche Haftung für KI enthält der Draft Report 2020/2017/INL vom 27.4.2020. Hierin schlägt das Committee eine Gefährdungshaftung des Betreibers sog. “high risk KI-Systeme” vor – ganz nach dem Vorbild der Halterhaftung für die Gefahrenquellen “Kraftfahrzeug” und “(Haus-)Tier” vor. Betreiber in diesem Sinne ist gem. Art. 3 (d) des Verordnungsentwurfs diejenige natürliche oder juristische Person, die über den Einsatz des KI-Systems entscheidet, die Kontrolle über das damit verbundene Risiko ausübt und Nutzen aus dem Einsatz zieht. Der Personen- oder Sachschaden nach Art. 3 (f) des Entwurfs wird definiert als jede “nachteilige Auswirkung auf das Leben, die Gesundheit, die körperliche Unversehrtheit oder das Eigentum einer natürlichen oder juristischen Person”. Der Geltungsbereich des Verordnungsentwurfs umfasst keine immateriellen Schäden.

Ausblick

Im Ergebnis wird in Anbetracht der deutschen Rechtslage deutlich: Zwar gestaltet sich die Abgrenzung des fahrlässigen zu einem nicht fahrlässigen Verhalten nicht einfach. Dieses Problem stellt sich i.R.d. Gefährdungshaftung jedoch schon gar nicht. Für den jetzigen Stand der Technik besteht mit der Produzentenhaftung und dem ProduktHaftG ein umfassendes Haftungsregime.

Der Vorschlag des Europäischen Parlaments, der Künstlichen Intelligenz mit dem Konstrukt der “E-Person” zur juristischen Verselbstständigung zu verhelfen, ist problematisch. Die Rechtssubjektivität setzt zwar schon denklogisch nicht notwendigerweise Bewusstsein und Willensfreiheit voraus.  Dennoch stellen sich in dieser Hinsicht ganz grundlegende Fragen, wie zum Beispiel ob der Status des Rechtssubjekts nicht eine Art menschlichen Kern voraussetzt. Mit der Rechtspersönlichkeit intelligenter Systeme sind nicht nur juristische Fragestellungen, sondern auch ethische Probleme verbunden. Zu beobachten bleibt, ob autonome Systeme dem Menschen in ihren Fähigkeiten so nahe kommen, dass die Anerkennung ihrer eigenen Rechtspersönlichkeit als unumgänglich erscheint.

Als überzeugend erscheint der durch die Kommission in ihrem Weißbuch vorgestellte Ansatz, eine risikobasierende Anpassung des Rechtsrahmens vorzunehmen. So sollen in verschiedenen Sektoren geltende Vorschriften wie im Medizinprodukte-, Produkthaftungs- und Datenschutzrecht weiterhin vollumfänglich Anwendung finden, in einem zweiten Schritt aber durch Regelungen ergänzt werden, die den besonderen juristischen Herausforderungen Rechnung tragen, die die Anwendung KI-basierter Systeme Rechnung tragen. Die praktische Umsetzung dieses Konzepts erscheint bisher noch als vage. Jedenfalls zeichnen sich in dem Weißbuch zur Künstlichen Intelligenz der Kommission sowie dem Verordnungsentwurf des Europäischen Parlaments jedoch Kernelemente eines europäischen KI-Konzepts ab, womit der Grundstein der Beurteilung ausgereifter und gänzlich autonom agierender Systeme wohl gelegt ist.


Über den Autor

Shazana Eliza Rohr

Kommentare

Leave a Reply

Your email address will not be published. Required fields are marked *

Notice: Undefined index: post_type in /mnt/web322/d2/68/59163168/htdocs/ml-tech.org/wp-content/themes/ml-tech/functions.php on line 234