Datenschutzwissen

Schaden durch den Einsatz von KI – die Frage der Haftung

Der Einfluss von künstlicher Intelligenz ist in immer mehr Lebensbereichen spürbar. Dazu häufen sich Haftungsfragen, sobald KI für Schäden verantwortlich ist. Nachdem die Europäische Union überraschenderweise den Vorschlag zu einer Richtlinie zu diesem Thema vorerst zurückgezogen hat, bleibt die rechtliche Situation weiterhin schwierig. Denn es fehlt häufig der Bezug der Gegenständlichkeit.

Schon vor gut drei Jahren hatte sich die EU-Kommission mit der KI-Haftung beschäftigt und seinerzeit einen Vorschlag in Form eines Gesetzentwurfs präsentiert, der für Unternehmen wie für Verbraucher Richtlinien definieren sollte. Die damalige Richtlinie beinhaltete die Einführung der sogenannten „Kausalitätsvermutung“.

Dies bedeutete nichts anderes, als dass Geschädigte keinen Nachweis dazu erbringen sollten, wo, wann und wie genau die KI einen Schaden verursacht hätte. Die Begründung wurde gleich mitgeliefert: Angesichts hochkomplexer Prozesse, die zumeist in „Blackboxes“ ablaufen, sei es Verbrauchern und Unternehmen nicht zuzumuten, in die Prozessdetails vorzudringen. Somit verlagerte der Richtlinien-Entwurf die Verantwortung und damit die Haftung auf die Betreiber sogenannter „Hochrisiko-KI-Systeme“. Kurzum: Wer KI prozessual einsetzt, haftet für diesen Einsatz.

EU-Kommission knickt zur Haftungsfrage ein

Nach langwierigen Umsetzungsversuchen in den EU-Staaten zog die EU-Kommission den eigenen Vorschlag Anfang dieses Jahres überraschenderweise zurück. Was bleibt, sind eine uneinheitliche Handhabe und eine Fülle nationaler Regelungen. Viele dieser nationalen Regelungen reduzieren die Frage der Haftung beim Einsatz von KI rechtlich auf bestehende Gesetze zur Produkthaftung. Das heißt unterm Strich, dass Prozesse, die von einer KI gesteuert werden, genauso bewertet werden wie beispielsweise beim Einsatz herkömmlicher Maschinen. Entscheidend ist, dass ein Unternehmen ein „Produkt“ als marktfähig in Umlauf bringt und in der Folge in allen rechtlichen Bereichen über die Produkthaftung für dieses Produkt zur Verantwortung gezogen wird. Kommt es beispielsweise zur Verletzung eines Konsumenten durch ein Produkt, ist es unerheblich, ob die KI ursächlich für den Schaden war oder beispielsweise ein Materialfehler.

Produkthaftungsgesetz gilt vorerst auch für KI-Schäden

KI-Systeme bringen für ein Haftung den Nachteil mit, dass es sich bei ihnen niemals um ein Produkt im eigentlichen Sinn handelt, da diese Systeme einen stets lernenden, nicht endenden Prozess durchlaufen und daher nur schwerlich als „fertiges Produkt“ einzuordnen sind. Das Produkthaftungsgesetz wurde ursprünglich für Produkte im klassischen, gegenständlichen Wortsinn verfasst und bezieht sich im Wortlaut auf „bewegliche Sachen“. Software, cloudbasierte Services oder KI-Anwendungen sind unter diesen Begriff kaum zu fassen. Das Produkthaftungsgesetz (§ 1 ProdHaftG) tritt in Kraft,

  • wenn ein Produkt Menschen verletzt oder tötet oder
  • wenn durch ein Produkt eine Sache beschädigt wird, die normalerweise für den privaten Gebrauch bestimmt ist oder wenn es sich um eine verschuldensunabhängige Gefährdungshaftung handelt.

Dabei haftet der Hersteller auch dann, wenn ihm selbst kein Fehlverhalten nachgewiesen werden kann.

Die aktuelle Reform der Produkthaftungsrichtlinie vom vergangenen Jahr geht in puncto KI-Haftung zumindest einen Schritt in die richtige Richtung. In der Neufassung werden software- und KI-generierte Produkte ausdrücklich mit einbezogen. So ist nach aktueller Rechtslage ein Unternehmen auch dann in die Produkthaftung zu nehmen, wenn die verwendete KI unvorhersehbare Entscheidungen trifft, durch die ein Produkt, unabhängig davon, ob gegenständlich oder nicht, Schäden verursacht. Wenn ein KI-System, beispielsweise bei einer KI-gesteuerten Operation im Krankenhaus unvorhersehbar agiert und den Patienten schädigt, ist dies eindeutig dem Hersteller des Operationsgeräts zuzuordnen. Richter können nun davon ausgehen, dass immer dann ein Fehler des Produkts vorliegt, sofern der Hersteller das Gegenteil nicht beweisen kann.

Fazit: Der neu formulierte Begriff des „Produkts“ lässt KI-Prozesse besser in geltendes Haftungsrecht einordnen. Was aber rechtlich noch fehlt, sind Richtlinien für durch KI verursachte Schäden, die nicht „vergegenständlicht“ werden können, wie beispielsweise Irrtümer von Chatbots, oder KI-generierte Inhalte textlicher, sprachlicher oder grafischer Art, die Persönlichkeitsrechte verletzen. Hier muss juristisch noch klarer definiert werden.

Zurück

Hier bloggt Ihre Redaktion.