Wer zahlt den Schaden, wenn die autonome Drohne crasht?

Wer haftet eigentlich, wenn eine Paketauslieferungsdrohne abstürzt und mich dabei verletzt? Das autonome KI System, das den Schaden verursacht, kann schließlich nicht selber haften. Wer zahlt also den Schadensersatz? Mit dieser Frage beschäftigt sich mein neuer legislativer Initiativbericht zur Zivilen Haftung von Künstlicher Intelligenz.

Unser bestehendes Haftungssystem bietet dem Geschädigten auch in Zeiten von Künstlicher Intelligenz in den meisten Fällen einen ausreichenden Schutz. Das Produkthaftungsgesetz greift, wenn der Schaden durch einen Defekt der Paketauslieferungsdrohne verursacht wurde. Ist ein Hacker für den Absturz verantwortlich, erfolgt der Schadensausgleich über das Deliktsrecht.

Liegt das Verschulden allerdings beim Betreiber von KI-Systemen kann die Haftung problematisch sein. Hier muss der Gesetzgeber tätig werden. KI-Systeme wie selbstfahrende Autos oder Paketauslieferungsdrohnen gefährden eine unvorhersehbare Zahl an arglosen Menschen. Deswegen fordere ich für diese „high risk“ Anwendungen eine verschuldensunabhängige Gefährdungshaftung. Das bedeutet, dass die Betreiber solcher KI-Systeme auch dann für den Schaden aufkommen müssen, wenn sie keine Schuld trifft; ganz wie der Halter eines Autos oder eines gefährlichen Tiers.

Alle „high risk“ KI-Systeme sollen transparent im Gesetz aufgelistet werden, wobei die Liste regelmäßig von der Europäischen Kommission überprüft und ergänzt wird. Ein Komitee von Experten aus Zivilgesellschaft, Wissenschaft und Wirtschaft wird eng in diesen Prozess einbezogen, um sicherzustellen, dass nur Systeme, von denen eine gesteigerte Gefahr ausgeht, einer schärferen Haftung unterliegen. Unbedingt verhindern möchte ich nämlich, dass sich das große Potential von KI-Systemen für unsere Gesellschaft durch Überregulierung nicht entfalten kann.

Hier finden Sie einige Grafiken zum Thema und den Berichtsentwurf in englischer Sprache.