Deutschland publiziert Ethik-Regeln für selbstfahrende Autos

Wer wird vom selbstfahrenden Auto überfahren, wenn ein Unfall unausweichlich ist? Und wer haftet? Eine Ethik-Kommission definiert 20 Regeln.
 
Autonome Fahrzeuge werfen viele Fragen auf, aber nicht nur technische oder ökonomische, sondern auch ethische. Eine dieser schwierigen Fragen: Wie soll das Auto entscheiden, wenn eine Familie auf die Strasse rennt und ein Unfall unausweichlich ist? Wer wird überfahren?
 
Die irgendwann mit Algorithmen umzusetzenden Ethikregeln beschäftigen Autohersteller ebenso wie Versicherungen, Juristen und Kirchenvertreter heute schon. Eine Gruppe renommierter deutscher Staatsrechtler sowie der Leiter von Forschung und Entwicklung bei VW, der Leiter des Instituts für Technikfolgenabschätzung, ein Weihbischof, ein Minister a.D. und andere sachkundige Intellektuelle haben nun ethische Regeln diskutiert.
 
Im Auftrag des deutschen Ministeriums für Verkehr und digitale Infrastruktur schlägt diese Ethik-Kommission nun Leitlinien für die Programmierung automatisierter Fahrsysteme vor.
 
Unter den 20 Thesen findet sich eine Antwort auf die "Familien-Frage": "Bei unausweichlichen Unfallsituationen ist jede Qualifizierung von Menschen nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) unzulässig", so ein Punkt. Und Sachschaden geht vor Personenschaden.
 
Etwas vager wird es, wenn es um die Aufgabenteilung Fahrsystem - Mensch geht. Wer entscheidet wann? "In jeder Fahrsituation muss klar geregelt und erkennbar sein, wer für die Fahraufgabe zuständig ist: Der Mensch oder der Computer?"
 
Fehlende Regulierung könnte Investitionsbremse werden
Und wer haftet im Falle eines Unfalls? Der Autobesitzer? Der Fahrer? Der Auto-Hersteller? Ein Software-Lieferant? Der Sensor-Lieferant? Niemand? Auch hierzu äussert sich die Ethikkommission: "Die dem Menschen vorbehaltene Verantwortung verschiebt sich bei automatisierten und vernetzten Fahrsystemen vom Autofahrer auf die Hersteller und Betreiber der technischen Systeme und die infrastrukturellen, politischen und rechtlichen Entscheidungsinstanzen. Gesetzliche Haftungsregelungen und ihre Konkretisierung in der gerichtlichen Entscheidungspraxis müssen diesem Übergang hinreichend Rechnung tragen."
 
Damit der Haftungsnachweis möglich ist, müssen sämtliche Daten aufgezeichnet werden.
 
Im Prinzip dürfte es also auf eine komplex anmutende Produkthaftpflicht hinauslaufen, wenn den Leitlinien gefolgt wird.
 
Und Punkt 14 von 20 dürfte all denjenigen Kopfzerbrechen bereiten, welche in solche Systeme investieren: "Automatisiertes Fahren ist nur in dem Masse vertretbar, in dem denkbare Angriffe, insbesondere Manipulationen des IT-Systems oder auch immanente Systemschwächen nicht zu solchen Schäden führen, die das Vertrauen in den Strassenverkehr nachhaltig erschüttern."
 
Wer wagt es, ein Produkt unter diesen Umständen herzustellen? Können Security-Anbieter diese Sicherheit bieten? Wie sollen sich Investoren gegen einen potentiellen Vertrauensverlust absichern? Hier können sich nun Regulierer und Deregulierer noch vertiefter streiten.
 
Das deutsche Kabinett hat den Bericht der Ethikommission heute diskutiert und einen Massnahmenplan zur Umsetzung der Ergebnisse beschlossen.? Der Bericht kann als PDF heruntergeladen werden. (Marcel Gamma)