Warum autonomes Fahren ein wirtschaftsethisches Problem ist

volkswagen automotive audi tt

Autos sollen bald selbstständig, also autonom fahren können. Damit können die Bord- oder Cloudcomputer in brenzligen Situationen für den Fahrer entscheiden und Tote verursachen. Klar, immer noch weniger als der irrende Mensch. Aber es ist ethisch irgendwie ziemlich fragwürdig, wenn der Passagier hinter dem eingezogenem Lenkrad auf dem Tablet (eklige) Videos schaut, während die KI einen Unfall baut.

Selbst wenn ihn dann das autonome System warnt, im Fall des Tesla-Unfalls waren es übrigens Unsinnswarnungen, ist vielleicht nicht mehr genug Zeit oder der Fahrer noch in ganz anderen Sphären, um zu reagieren.

Selbst mit der besten KI und bei unvermeidlichen Unfällen ist doch die erste moralische Intuition: “Der Mensch sollte wenigstens ein Auge auf den Verkehr haben, um eingreifen zu können. Denn menschliche Erfahrung wiegt manchmal KI auf.”

Und mit Erfahrung und Mutterwitz können wir sicherlich mitunter punkten, wenn Bewegungen des Verkehrsopfers antizipiert werden müssen.

Also halten Sie sich fest, denn wir betreten ein Schlachtfeld: Auf der einen Seite der Menssch mit seiner Erfahrung und moralische Gefühlen, auf der anderen Seite die KI, die Moral nachbilden soll. Okay, ein Schlachtfeld ist etwas martialisch gefasst – schließlich soll das autonome Fahren ja Todeszahlen drastisch reduzieren. Von den derzeit 3.500 Verkehrstoten sollen es laut dem Verkehrsminister bald unter 3000 sein.

Kommt es trotzdem mal zu Verkehrstoten, haften die Hersteller der neuen Technik. Das hat der Verkehrsminister schon per Gesetz beschlossen, das Mensch und Maschine gleichstellt. Wer gerade fährt, haftet. Das wird von einer Blackbox getrackt. Und auch der Vorsitzende der Ethikkommission zum autonomen Fahren, Professor Di Fabio, verkündet: “Wenn das Lenkrad eingezogen wird, übernimmt der Hersteller die Haftung”.

google autonomes auto

Ein halbwegs autonomes Auto von Google (Bild von Steve Jurvetson auf flickr.com unter der CC BY 2.0)


Halt, Stopp! Hersteller haften? Also können sich Fahrer doch ganz beruhigt während der Fahrt vom Tablet berieseln lassen! Das Verschieben der Verantwortung von Mensch auf Apple, Google, Tesla & Co löst das ethische Problem nicht auf. Dem Individuum im Verursacherauto wird die Schuld damit nur juristisch, nicht psychisch abgenommen.

Ethik: Die Wirtschaft steht in der Verantwortung

Verlassen wir also das schon ziemlich zertrampelte Schlachtfeld gleich wieder und begeben uns in den Reigen von Wirtschaft und Ethik. Nicht nur ich als Wirtschaftsethiker, wir alle sollten uns die Frage stellen:

Sollten die Hersteller für die Schäden aufkommen, die ihre autonomen Systeme verursachen?

Wenn die Hersteller haften, haben sie dann auch gleichzeitig Schuld?

Zum Glück hat Alexander Dobrindt schon eine Expertenkommission eingesetzt, um die Herstellerhaftung und andere Fragen zu klären. Bisher hat sich die Presse nur um die Antworten gekümmert, die in Form von 20 Thesen präsentiert wurden und problematisieren vor allem den Datenschutz, ja den Datenschutz und genuin ethische Fragen. Dabei bringt viel mehr Licht ins Dunkel der Hintergrund der Antwortenden…

Die Mitglieder der Ethik-Kommission zum automatisierten Fahren

    Vorsitz:

  • Prof. Dr. Dr. Udo Di Fabio
    Ehemaliger Richter des Bundesverfassungsgerichts. Inhaber des Lehrstuhls für Staatsrecht an der Universität Bonn. 2016 veröffentlichte er außerdem ein Buch, das die “Grundrechtsgeltung in digitalen Systemen” zum Thema hat.
  • Mitglieder:

  • Prof. Dr. Dr. Matthias Lutz-Bachmann
    Professor für mittelalterliche Philosophie an der Goethe Universität in Frankfurt am Main. Setzt sich vor allem mit Metaphysik und Religionsphilosophie auseinander. Ein Mittelalterspezialist diskutiert über die Zukunft? Die selbstfahrende Kutsche?
  • Prof. Dr. Dr. h.c. Manfred Broy
    Forscht auf dem Gebiet der Modellierung und Entwicklung komplexer softwareintensiver Systeme.
  • Renata Jungo Brüngger
    Seit 2011 Daimler-Konzernjuristin.
  • Dr. Ulrich Eichhorn
    Seit 2016 Leiter des Konzernbereichs Forschung und Entwicklung bei Volkswagen.
  • Prof. Dr. Armin Grunwald
    Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB).
  • Prof. Dr. Dirk Heckmann
    Hat den Lehrstuhl für Öffentliches Recht ander Universität Passau inne und ist Mitglied des Bayerischen Verfassungsgerichtshofes.
  • Prof. Dr. Dr. Eric Hilgendorf
    Ordinarius für Strafrecht, Strafprozessrecht, Rechtstheorie, Informationsrecht und Rechtsinformatik in Würzburg.
  • Prof. Dr. Henning Kagermann
    Arbeitet als Chef der Wissenschaftsakademie Acatech daran, den Standort Deutschland auf eine digitalisierte und vernetzte Weltwirtschaft vorzubereiten
  • Weihbischof Dr. Dr. Anton Losinger
    Sicherlich eingeladen, um auch die christlichen Werte abzubilden. Hat vielleicht die strikte Losung eingebracht: “Eine Aufrechnung von Opfern ist untersagt.”
  • Prof. Dr. Christoph Lütge
    Forscht auf dem Gebiet der Wirtschafts- und Unternehmensethik.
  • Dr. August Markl
    Präsident des ADAC
  • Klaus Müller
    Vorstand des Verbraucherzentrale Bundesverbands e.V.
  • Kay Nehm
    Ehemaliger Generalbundesanwalt

Für die Automobilindustrie wurden also Daimler und Volkswagen eingeladen. Prof. Dr. Armin Grunwald ist DIE KORYPHÄE, wenn es darum geht, ethische Folgen von technischen Innovationen zu bewerten. Uns interessiert aber nicht der Star, sondern die Ökonomen:

Dr. Ulrich Eichhorn sieht technische Grenzen

Sieht das automatisierte Fahren, aber auch das autonome Fahren als große Chance. Vor allem, dass sich der Fahrer währenddessen mit anderen Dingen beschäftigen kann. Im Interview mit http://www.elektroniknet.de Dr. Eichhorn vor allem die technischen Grenzen der Systeme. So sagt er gegenüber dem Online-Magazin: Für komplexe kritische Situationen, die unter Umständen gravierende Entscheidungen erfordern, sind technische Systeme noch nicht geeignet.

technik autonomes fahren

Schon heute ist die Technik der Assistenzsysteme gewaltig und sendet bis zu 25 Gb an Daten pro Fahrstunde

Der Euphoriker: Henning Kagermann

Ergraut, selbstparodierendes Englisch, aber vor allem leistet sich der Herr einen ziemlich starken Optimismus. Denn er ist leidenschaftlicher Verfechter der Industrie 4.0, den Begriff hat er selbst erfunden. Er meint damit die Vernetzung von Mitarbeitern, Maschinen und Robotern, wie auf youtube in seinen Vorträgen klar wird. In Technik wie dem autonomen Fahren sieht er sicherlich nur Vorteile, höchstens eine Herausforderung. Das Problem der Haftung geht er im Zuge des Fachforums “Autonome Systeme” so an:

Da gibt es so Ideen, dass autonome Systeme eine Haftpflichtversicherung haben.

Unschönes Zitat, aber es wird deutlich: Die Industrie wappnet sich schon für Rechtsstreits und hält die Haftung für mehr als möglich. Volvo hat dies laut der “Welt” als einer der ersten Fahrzeughersteller öffentlich bestätigt.

Die Haftung bezieht sich nicht nur auf Unfälle, sondern auch auf Hacks und Datendiebstahl. Dass zum Beispiel das Internet der Dinge in die Fabrik zieht, sieht Kagermann ebenfalls als Einfallstor. Eine Fabrik, die ganze Logistik könne lahmgelegt werden. Ja aber Fortschritt rechtfertigt die Risiken.

Irgendwie erinnert mich Herr Kagermann an einen Staffelläufer auf erster Position. Der Vorsprung seines schönen Deutschlands im Bereich des Maschinenbaus treibt den Ökonomen an, immer weiter vorzusprechen. Sonst verliert man ja den Vorsprung irgendwann und wird Zweiter oder gar Dritter. Seine Motivation steht für die vieler Magnaten.

Die beiden hören sich nicht wie technikkritische Zeitgenossen an. Vor allem bei Herrn Kagermann und seiner Euphorie wird deutlich:

Fortschritt wird als Wert an sich begriffen.

Die Ökonomen akzeptieren also die Haftung des Herstellers, zumindest die beiden Ökonomen der Expertenkommission. Dieser Schritt hat signalgebende Wirkung. Versicherungen werden dann eine gangbare Option für die Ökonomen, wenn die Technik ausgereift genug ist. Aber HAftung ist nur ein wirtschaftlicher Aspekt. Was ist mit der Schuld?

Wer hat Schuld an “autonomen erzeugten” Unfällen?

Nur weil jemand für irgendetwas haftet, hat er nicht automatisch Schuld. Wenn Sie für Ihr Kind haften sollen, weil das noch nass ist und die Bettdecke ihres Nachbarn besprenkelt hat, will keiner damit sagen, dass Sie Schuld sind. Sie sind nun mal einfach nur der Mensch, der mit dem Kind am engsten in Verbindung steht. Und da nur ein Unmensch ein Kind haften lassen wollen würde, bekommen Sie halt die Rechnung für das Laken und die extrem teure Matratze. Schließlich war sie von der Prinzessin auf der Erbse persönlich.

Halb so schlimm, ein Laken kostet nicht die Welt und der Nachbar ist wieder glücklich. Aber wenn das Kind des Nachbarn bei einem Autounfall stirbt, an dem kein menschlicher Fahrer beteiligt war, sieht der Sachverhalt anders aus.

schuld haftung programmierer

Wollen Sie diese armen Programmierer zur Verantwortung ziehen?

Der Nachbar fühlt sich allein gelassen, wenn ein Programmierfehler Schuld ist oder die Hardware ausfällt. Klar, man kann den Programmierer in die Pflicht nehmen, aber das ist viel zu weit weg und hunderte Programmierer arbeiten in der Regel an der KI zum Fahren. Ein System ist dann Schuld, das weiter millionenfach auf den Straßen verkehrt, so als wär nix gewesen. Denn solange es sich rechnet, wird es definitiv weiterentwickelt und verbreitet werden. Aber sollen wir die ethische Misslage außer Acht lassen, in der Opfer sich befinden, weil es wirtschaftlicher und bequemer ist?

Aber Schluss mit der Polemik, seien wir konstruktiv. Ich denke an eine Zwischenlösung, die bequemes autonomes Fahren ermöglicht und trotzdem den Opfern eine schuldige Person gegenüberstellt und so einen menschlichen Bezug zum Unfall und bei der Trauer ermöglicht.

Jeder Fahrer muss vor Erstbenutzung ein Formular ausfüllen, bei dem er alle seine Entscheidungen bei möglich Szenarien festhält. Soll die Oma oder das Kind überfahren werden, wenn es keinen anderen Ausweg gibt? Entscheidet das der Fahrer für sich allein, ist das Dilemma, wie es in der Öffentlichkeit aufgekocht wird, für ihn oder sie vielleicht gar nicht so groß… Wollen Sie immer möglichst schnell oder sicher ans Ziel kommen? Wünschen Sie ein Ausfahren des Lenkrads bei Situationen, in denen sich Gefahr abzeichnet?

Natürlich gibt es ethische Richtlinien und das Grundgesetz in Deutschland und vor allem der deonthologische Gesichtspunkt, dass kein Mensch für einen anderen geopfert werden darf, findet in Deutschland Niederschlag. Doch was ist mit der persönlichen Ethik? Warum sollen wir alle die selbe Richtschnur benutzen, wenn es ums autonome fahren geht? Wenn wir selbst fahren, handeln wir doch auch nach eigenem ethischen Kodex.

Die Welt zitiert Herrn Flemisch, es müsse “sich aber dann eine gesellschaftliche, eine politische Debatte anschließen.” Die gesellschaftliche Debatte kann der Einzelperson helfen, Entscheidungen bei seiner Festlegung der Parameter zu treffen. Aber die Politik sollte uns diese Entscheidung definitiv nicht abnehmen! Beim Datenschutz sind wir da schon viel individueller und weiter.

So ist bei einem Unfall auch immer der Fahrer etwas Schuld, selbst wenn er gar nicht gefahren ist. Denn er hat von Vornherein die Parameter festgelegt, die zum Ausgang des Unfalls geführt haben. Macht vielleicht nicht alles besser, aber erträglicher. Noch aben wir ja Zeit. Armin Grunwald sagte gegenüber dem SWR, dass wir vor 2037 nicht mit dem vollkommen autonomen Auto zu rechnen brauchen.

Kommentar verfassen