Rechtsfragen der digitalisierten Wirtschaft – Haftung für Systeme Künstlicher Intelligenz: Wer übernimmt die Risiken der KI?

Der Einsatz von Künstlicher Intelligenz verspricht neue Möglichkeiten und Verbesserungen für Wirtschaft und Gesellschaft. Wie bei jeder neuen Technologie sind aber Risiken und Gefahrenpotenziale nicht ausgeschlossen. Die Herausforderung für den Gesetzgeber besteht nun darin, den Rechtsrahmen für den Einsatz von Künstlicher Intelligenz so auszugestalten, dass Chancen der Technologie genutzt und gleichzeitig Risiken begrenzt werden. 

Allerdings muss der Gesetzgeber dabei nicht bei „Null“ anfangen; denn das geltende Recht kennt bereits eine Vielzahl von Vorgaben, insbesondere von Haftungsvorschriften, die auch auf Systeme mit Künstlicher Intelligenz anwendbar sind. Daher ist zu fragen, ob und wieweit diese Rechtsgrundlagen ausreichen oder angepasst oder ergänzt werden müssen. In diesem Positionspapier untersucht Bitkom die Haftungsvorgaben des geltenden Rechts für Anwendungen mit Künstlicher Intelligenz und evaluiert möglichen Handlungsbedarf.

 

Zusammenfassung

Derzeit wird auf vielen Ebenen über die Regulierung von Künstlicher Intelligenz nachgedacht. Der Fokus liegt dabei bisher auf dem Haftungsrecht. Ziel der Überlegungen ist es, dass beim Einsatz Künstlicher Intelligenz das bisher erreichte rechtliche Schutzniveau nicht unterschritten wird. Die vielen aktuell vorgeschlagenen und diskutierten Rechtsänderungen würden bei gleichzeitiger Umsetzung jedoch in eine nicht gerechtfertigte Überregulierung münden, die eine weitere Entwicklung von Künstlicher Intelligenz in der EU stark bremsen, wenn nicht sogar verhindern würde. Aus Sicht des Bitkom sind insbesondere folgende Punkte zu berücksichtigen:

  1. Das geltende Recht enthält flächendeckende Haftungsvorschriften für Schäden, die beim Einsatz technischer Geräte verursacht werden. Damit sichert es Risiken, die durch Systeme mit Künstlicher Intelligenz begründet werden können, zur Genüge ab. Individuelle Rechte und Interessen möglicher Anwender werden durch Diskriminierungsverbote, Produktsicherheitsvorschriften und Haftungsnormen angemessen geschützt. Weder im Haftungsrecht noch bei der Marktzugangskontrolle ist es sinnvoll, neue Vorschriften zu schaffen, die nur für Anwendungen mit Künstliche Intelligenz gelten. Bei einer Anpassung der geltenden Haftungs- und Marktzugangsvorschriften ist darauf zu achten, dass besondere Aspekte von Systemen Künstlicher Intelligenz von den Haftungsvorschriften angemessen erfasst werden. Dabei sind auch mittelbare Auswirkungen sorgfältig zu evaluieren, die solche Änderungen auf Vertragsbeziehungen im B2C- und B2BGeschäftsverkehr haben können. 
  2. Das geltende Haftungsrecht verfolgt richtigerweise einen technologieneutralen Ansatz, der im Hinblick auf die Bewertung von Produktsicherheit und Haftung für Künstliche Intelligenz beibehalten werden sollte. Dabei orientiert sich die Haftung an Anwendungsbereich und typischem Gefahrenpotenzial eines Gerätes, nicht an der eingesetzten Technologie.1 Rechtsänderungen sollten daher nicht an den zu allgemeinen Begriff der Künstlichen Intelligenz anknüpfen.
  3. Es besteht derzeit kein Bedarf für eine spezifische Gefährdungshaftung mit Pflichthaftpflichtversicherung für Betreiber von Hochrisiko-Systemen mit Künstlicher Intelligenz, da die Risiken solcher Systeme (z.B. autonome Kraftfahrzeuge, Drohnen, autonome Reinigungsmaschinen) bereits durch bestehende Regelungen (nationale Straßenverkehrs- und Luftverkehrsgesetze) angemessen abgesichert sind. Bei einer dynamischen Ausweitung der Definition von Hochrisiko-Systemen besteht die Gefahr, dass Betreiber und Hersteller kurzfristig vor deutlich strengere Anforderungen in Bezug auf die Haftung und Herstellung von Systemen Künstlicher Intelligenz gestellt werden. Konkrete gesetzliche Regelungen für neue Hochrisiko-Systeme sollten daher frühestens dann und nur jeweils für bestimmte Bereiche eingeführt werden, wenn solche Hochrisiko-Systeme außerhalb der bereits durch bestehende gesetzliche Regelungen abgesicherten Bereiche vor der Markteinführung stehen. Andernfalls drohen aufgrund der Vielfalt verschiedener Systeme Künstlicher Intelligenz in bestimmten Bereichen unsachgemäße Regelungen.
  4. KI-Systeme kommen derzeit und auch mittelfristig absehbar nur als sog. „schwache“ Systeme Künstlicher Intelligenz bzw. als Assistenzsysteme zum Einsatz, die entweder Empfehlungen für eine abschließende menschliche Entscheidung liefern oder deren Lern- und Entscheidungsvorgänge in von Menschen vorgegebenen Bahnen und innerhalb vorgegebener Grenzen erfolgen. Deshalb kann solchen Systemen grundsätzlich keine besondere Gefahrneigung nachgesagt werden. Im Gegenteil: indem sie menschliche Fehler vermeiden (z.B. verspätete Reaktion, Übersehen wesentlicher Daten oder Informationen, Subjektivität), können KI-Systeme menschliche Fehleinschätzungen und damit Schadensrisiken reduzieren. Wenn der Gesetzgeber diese Möglichkeiten fördern und realisieren möchte, dürfen Betreiber und Hersteller von Systemen Künstlicher Intelligenz nicht mit Haftungsrisiken belastet werden, die über die Haftungsrisiken bei anderen Technologien hinausgehen. Auch aus diesem Grund dürfen Regelungen, die sich an der zumeist negativ konnotierten Komplexität, Autonomie oder Konnektivität eines Systems orientieren, nicht pauschal an den Einsatz Künstlicher Intelligenz anknüpfen.
  5. Auch bei Systemen Künstlicher Intelligenz kann eine absolute Fehlerfreiheit berechtigterweise nicht erwartet werden. Entsprechend darf eine Sanktion den Hersteller oder Betreiber eines Systems Künstlicher Intelligenz nicht schon dann treffen, wenn ein Status der Fehlerlosigkeit nicht erreicht wird.
     

 

Studienbericht kostenfrei herunterladen