Autonome Autos – Zwischen Perfektion und Ethik

Volvo vermeldet, dass seine autonomen Fahrzeuge bereits 2020 Marktreife erlangen können, während in Kalifornien die Frage auftaucht, wer bei einem Unfall eigentlich die Verantwortung übernehmen muss. Der Hersteller, der IT-Dienstleister oder der Vermieter?

Eigentlich könnte alles nur schön sein: Fahrerlose Fahrzeuge führen uns in eine automobile Zukunft ohne Staus, Unfälle und Stress. Der „Fahrer“ sitzt entspannt daneben, kommuniziert, liest oder arbeitet mobil. Tatsächlich ist das, was ein wenig nach Science Fiction klingt, gar nicht mehr so weit entfernt. An mehreren Orten auf der Welt sind autonome Autos bereits unterwegs, nicht nur in Kalifornien, sondern auch in Braunschweig. Experten rechnen damit, dass die US-Regierung die Nutzung der Fahrzeuge im normalen Straßenverkehr in den kommenden fünf bis sieben Jahren genehmigen wird.

Auch an Modellen dürfte es bis dahin nicht mangeln. Zwar hat bislang nur der Internetkonzern Google einen Prototypen vorgestellt, doch Volvo beschäftigt sich schon eine geraume Weile mit dem Thema und will bis 2020 ein marktreifes Fahrzeug präsentieren. Auch BMW, Mercedes und Audi tüfteln mit Hochdruck am Roboterauto.

FBI warnt vor der Technik

Doch bevor dieses wirklich in die schöne neue Zukunft rollt, gilt es noch eine ganze Menge Fragen zu klären: technische, aber auch juristische und moralische. Denn wie mit jeder neuen Technologie sind auch mit dem autonomen Fahrzeug nicht nur ungeahnte Chancen, sondern auch Risiken verbunden. Nicht jedes Google Car ist ein K.I.T.T. und kämpft gemeinsam mit David Hasselhoff wie in der Serie aus den 80er Jahren für Recht und Gesetz.

Während in „Knight Rider“ die Welt noch ganz einfach war, das sprechende Wunderauto nur in die Hände der Guten gelangte, ist das mit den realen Roboterautos nicht so simpel. So wurde vor wenigen Wochen bekannt, dass die US-amerikanische Bundespolizei FBI vor der kriminellen Nutzung der führerlosen Fahrzeuge warnt. Die englische Zeitung „The Guardian“ hatte dies berichtet. Flüchtige könnten sich vollständig aufs Schießen konzentrieren, Terroristen fahrende Bomben programmieren.

Die Sorge, Verbrecher könnten sich eine neue Technik zunutze machen, gilt freilich auch in gewisser Weise für Flugzeuge, Computer oder motorisierte Verkehrsmittel an sich und hat mit einer spezifischen Problematik der autonomen Autos nichts zu tun. Vielmehr ist es so, dass mit der Übergabe der Kontrolle an eine Maschine, die potenziell Menschen großen Schaden zufügen kann, auch die Frage nach der Verantwortung für etwaige Fehler – und damit Unfälle – auftaucht.

Fahrer ist nicht mehr verantwortlich

Der Fahrer ist auf den ersten Blick am allerwenigsten verantwortlich, wenn es zu einer Kollision kommt. Doch wird er eventuell immer nachweisen müssen, dass er sein Fahrzeug auf dem neuesten Stand der Technik gehalten hat, sprich sämtliche Updates auf seinen fahrenden Computer aufgespielt hat. Handelt es sich um einen Mietwagen, ist selbstverständlich der Vermieter in der Bredouille.

Wenn der Wagen informationstechnisch tatsächlich auf dem neuesten Stand war, würden Juristen sich im nächsten Schritt an den Hersteller des Fahrzeugs halten und diesen zur Verantwortung ziehen. Vermutlich würde dieser aber – wiederum zurecht – auf seinen (IT-)Zulieferer verweisen. Damit liegt die Last, die Verantwortung für diejenigen Unfallopfer, die es auch bei autonomen Fahrzeugen geben wird, letztlich bei den Programmierern.

Google hält dies auf Nachfrage von „Kraftstoff“ für „eine sehr hypothetische Frage – es würde sicherlich auf die spezifischen Gegebenheiten des Unfalls ankommen. Sollte ein Auto im autonomen Betrieb einen Unfall verursachen, wäre allerdings schwer nachvollziehbar, warum der Passagier im Inneren in irgendeiner Weise verantwortlich sein sollte“, schreibt das Unternehmen. Im Unterschied zu Ingenieuren, die etwa an traditionellen Sicherheitssystemen arbeiten und im Zweifel auch dafür einstehen müssen, wenn hier Pannen passieren, haben Programmierer aber eine ganze Reihe von Möglichkeiten, Szenarien zu gestalten.

Denn ein autonomes Fahrzeug verfügt über eine Steuerung, die ihm vorgibt, ob es bei einer drohenden Kollision auf der mittleren Spur der Autobahn lieber nach rechts oder nach links ausweichen soll. Sinnvollerweise wird hier der Code auf rechts gesetzt, da dort schlichtweg die niedrigeren Geschwindigkeiten und damit das geringere Schadensausmaß zu erwarten sind. Doch – und so wird nicht selten argumentiert – gibt es nicht eine Fürsorgepflicht, die besagt, dass es besser ist, den tendenziell kleineren und weniger sichereren Wagen auf der rechten Spur zu schonen und stattdessen den Crash mit einem größeren Auto auf der linken Spur in Kauf zu nehmen? Wer soll solche Entscheidungen treffen? Der Wagen wird eines Tages stur genauso reagieren wie er programmiert wurde.

Überfrachtung mit Moraldiskursen

Womöglich strapazieren solche Fragen aber auch ein Stück weit das über, was Technik letztlich immer sein wird: ein Hilfsmittel der menschlichen (Entscheidungs-)kraft. Denn erstens gibt es nicht so viele Situationen, in denen tatsächlich sachlich kaum zwischen der Gefährdung mehrerer Verkehrsteilnehmer abgewogen werden kann, zumal die Fahrzeuge über eine Armada von Sensoren, Radarsystemen und Kameras verfügen, aus deren Informationen ein Rechner blitzschnell die Konstellation mit dem geringsten Risiko ableiten kann und das Auto entsprechend lenkt.

Zum zweiten sind etliche Fragen der Verantwortlichkeit schon im Luftverkehr aufgetaucht und teilweise beantwortet. Bei einem technischen Versagen haftet im Zweifel tatsächlich die Lufthansa und nicht Boeing, also der Betreiber und nicht der Hersteller. Menschliche Urteilskraft und Entscheidungswille sind trotz zahlloser Assistenzsysteme zwar immer noch gefragt, spielen aber in der Summe im Cockpit eine immer geringere Rolle. Das autonome Flugzeug ist – in der Form der Drohne – nicht umsonst längst Realität.

Dies soll freilich nicht darüber hinwegtäuschen, dass sich die Gesellschaft sehr wohl mit der Frage auseinandersetzen muss, wie sie mit den künftigen Unfällen autonomer Fahrzeuge umgehen will. Sind die Geschädigten einfach mit Opfern von Blitzschlägen gleichzusetzen? Gibt es bald eben schlicht auch eine Dimension der höheren Gewalt in Form der Maschine? Oder macht es sich zu einfach, wer so argumentiert?

Was meinen Sie?