Ausgabe 03 2016

Moral Das Problem Seifenblase

Autonomes Fahren: Was ist möglich, und was ist erlaubt?

Autonomes Fahren fasziniert unsere Gesellschaft – und spaltet sie gleichzeitig. Ist es moralisch vertretbar, die Macht über das eigene Leben einer künstlichen Intelligenz anzuvertrauen? Nein, sagen die einen. Es gehe gar nicht um Moral, finden die anderen. Klar ist: Nichts wird im Straßenverkehr so bleiben, wie wir es heute kennen.

Jeder Arbeitstag beginnt für Dr. Miklos Kiss mit einer Zeitreise. Von der Gegenwart springt er dann in die Zukunft, die nicht weniger bereithält als die monumentale Transformation des uns bekannten Straßenverkehrs. An seinem Arbeitsplatz in Ingolstadt forscht Kiss an der Entwicklung von intelligenten Autos, die uns schon bald wie selbstverständlich über die Straßen chauffieren werden. Für die Größe der Aufgabe spricht er ruhig und bedacht, in seiner Funktion als Leiter der Vorentwicklung Fahrerassistenzsysteme bei Audi ist das Thema für Kiss anscheinend zur Normalität geworden. „Voll automatisierte Autos sind keine Utopie, sie werden die Realität sein“, sagt er. „Auf allen Straßen.“ Ohne Wenn und Aber.

Ohne Wenn und Aber? Das Thema „Autonomes Fahren“ ist eines, das die Gesellschaft elektrisiert – und spaltet. Während in Ländern wie den USA vornehmlich die Chancen der Technologie debattiert werden, ist in Europa ein Streit über die potenziellen Risiken entbrannt. Alle noch so unwahrscheinlichen Unfallmöglichkeiten werden durchgespielt. Auch Miklos Kiss und sein Team bei Audi müssen immer wieder Aufklärungsarbeit leisten. „Eine einhundertprozentige Sicherheit wird es nie geben“, räumt der Entwickler ein. „Aber wir nähern uns dieser Zahl drastisch an, die Zahl der Unfalltoten kann stark minimiert werden. Daher ist dieser Prozess ein guter und wichtiger.“

Längst befinden sich weltweit selbstfahrende Autos, Busse und Lkws im Testbetrieb – auch auf öffentlichen Straßen. 2020, so die allgemein vorherrschende Meinung, wird die Technik bereit sein für das hoch automatisierte Fahren. Der Fahrer darf dann für gewisse Zeitperioden das aktive Lenken einstellen. In der Dekade ab 2030 soll das Fahrzeug in der Lage sein, etwa 90 bis 95 Prozent der Fahrzeit selbst zu leisten. Dass dieses Tempo sogar noch verschärft werden könnte, liegt auch an den finanziellen Interessen der Automobilkonzerne. Das selbstfahrende Auto gehört zu den Megatrends – und das Marktpotenzial ist milliardenschwer.

Die Autobahn macht den Anfang

So sicher die Nutzung der autonomen Autos auch sein mag – so unsicher ist heute deren Umsetzung. Automobilingenieure träumen davon, dass ihre entworfenen Fahrzeuge das Straßenbild beherrschen und das Leben sicherer machen. Zunächst auf der Autobahn, dann auf der Landstraße, zum Ende erst in der Stadt – weil diese am unübersichtlichsten ist. Der Weg zum voll automatisierten Fahren ist also auch eine graduelle Anpassung an den zweifelnden Menschen, der die Furcht vor der schleichenden Autorevolution erst noch ablegen muss. „Auf der Autobahn kann der Bordcomputer durch eine vorausschauende Fahrweise kritische Entscheidungen nahezu vermeiden“, sagt Dr. Volker Hartmann, Koordinator für Rechtsfragen zum Pilotierten Fahren bei Audi. „In komplexeren Verkehrssituationen wie der Stadt sind mittelfristig aber Situationen denkbar, in denen das nicht mehr ausreicht.“

Miniatur-Test­strecke Das autonome Fahren steht noch ganz am Anfang. Zwar wird schon längst auf öffentlichen Straßen getestet, doch Probeläufe in Miniaturform sind weiterhin unverzichtbar.

Maschinenethiker wie Prof. Dr. Oliver Bendel plädieren sogar dafür, autonome Fahrzeuge in erster Linie auf der Autobahn einzusetzen. In der Stadt müsste der Mensch übernehmen. „Es wird vor allem Hybride geben“, glaubt der Experte. „Nehmen wir zum Beispiel Innenstädte in Europa. Ändert sich da nichts an der Verkehrsinfrastruktur, sind autonome Fahrzeuge mit normaler Geschwindigkeit undenkbar. Es gibt zu viele Einflussfaktoren, die das Auto täuschen können: Fahrzeuge, Verkehrsteilnehmer, Tauben, Luftballons und Seifenblasen, Lichtreflexe, Schatten und Signale.“ Es sind Vorfälle wie jener in den USA, als ein Tesla-Fahrzeug mit Autopilot die Verkleidung eines kreuzenden Sattelschleppers nicht von einem Verkehrsschild unterscheiden konnte. Der in diesem Moment passive Fahrer fiel diesem Trugschluss des Computers zum Opfer – und die Debatte rund um die Sicherheit der autonomen Autos nahm neuen Schwung auf.

Die Verunsicherung der Menschen ist nichts Ungewöhnliches. Sie fürchteten sich auch schon vor Jahrzehnten, als Flugzeuge oder Lifte Einzug hielten. Heute gehören diese Fortbewegungsmittel zum Alltag. Genauso wird es mit den autonomen Autos sein. Doch vorerst ist die Hemmschwelle noch groß, das eigene Leben in die Hand eines Computers zu legen. Abhilfe schaffen könnten zwei Parameter. Erstens: Erfahrungswerte. „Wer zehn bis 15 Minuten im Auto sitzt, baut die Angst schnell ab“, berichtet Audi-Mann Kiss. „Man beginnt, die Hände vom Lenkrad zu nehmen, sich umzudrehen und ein Gespräch zu führen.“ Der zweite Parameter ist der weitaus komplexere: Wir wollen wissen, wie der Computer agiert, was er „denkt“. Wir wollen wissen, was mit uns in einer gefährlichen Situation geschieht. Die Frage ist: Wie kann das gelingen?

Austausch quer durch die Gesellschaft

Die Debatte wird momentan vor allem durch das Wort „Moral“ angeheizt. Maschinenethiker wie Oliver Bendel wollen bestimmten Computern eine Wertevorstellung vermitteln, mit der die künstliche Intelligenz geeignete Situationen aufschlüsseln kann. Dabei lehnt er es ab, dass Fahrzeuge über Leben und Tod von Menschen entscheiden. Vertreter der Automobilbranche nehmen den Begriff der Moral hingegen nicht so gern in den Mund. „Ich würde nur von einer Quasimoral sprechen“, sagt Rechtsexperte Hartmann. „Der Begriff Moral ist durch die Ethik doch sehr stark besetzt.“ Das, was seine Kollegen austüfteln, sei mehr Programmierungsarbeit als das Festlegen von Gut und Schlecht. „Der Hauptunterschied zwischen menschlicher und künstlicher Intelligenz ist, dass der Computer nicht im Affekt werten kann“, erklärt Hartmann. Mit einem Zusatz: „Bis auf Weiteres.“

Kontrolle per Knopfdruck Autonom fahrende Autos, darauf deutet im Moment vieles hin, werden zukünftig nicht zu 100 Prozent selbstständig sein. Der Fahrer soll stets eingreifen können – wie in diesem Beispiel ganz einfach per Knopfdruck.

Momentan arbeitet die künstliche Intelligenz im Auto nach dem Produktsicherheitsgedanken. Das bedeutet: Risikominimierung der Gesamtlage. Der Computer verhält sich stets so, dass das Risiko vermieden, in brenzligen Fällen immerhin minimiert wird. Dafür sorgen auch redundante Systeme: ein doppelter Sicherheitskreislauf, in dem verschiedene Sensoren dieselben Vorgänge über verschiedene Messprinzipien beobachten. So weit, so sicher hört es sich an.

Doch laut Oliver Bendel ist es nur eine Frage der Zeit, bis der künstlichen Intelligenz eine Form von Moral beigebracht wird. Das Auto könne dann theoretisch abwägen, was richtig ist und was falsch. Das beträfe potenzielle Unfälle genauso wie Todesfälle. Man kann das Gedankenspiel sogar sehr weit, aber trotzdem realitätsnah treiben: Das Fahrzeug kann eine Gefahrensituation nicht vermeiden und hat die Wahl, eine ältere Person oder ein Kind zu gefährden. Wessen Gesundheit setzt das Auto aufs Spiel? Vielleicht sogar die des eigenen Insassen? Und wer legt das im Vorhinein fest? Oliver Bendel ist dagegen, dass das Auto solche Entscheidungen mit Blick auf Menschen trifft. Andere lehnen solche Entscheidungen nicht kategorisch ab. „Wir beschäftigen uns mit solchen Fragen, es wäre fahrlässig, wenn nicht“, sagt Audi-Rechtsexperte Hartmann. „An Lösungen müssen wir schon heute perspektivisch arbeiten.“

Der Maschinenethiker Bendel fordert einen gesellschaftlichen Konsens von Ingenieuren, Politikern, Maschinenethikern – der gesamten Gesellschaft. Selbst dieser Konsens dürfe aber nicht dazu führen, dass Einzelne in ihren existenziellen Rechten verletzt würden. Auch der Jurist Hartmann findet: „Wir müssen eine Regelung hinbekommen, einen gesellschaftlichen Vertrag darüber, was moralisch vertretbar ist.“ Dass das ein ziemlich langer Prozess werden dürfte, ist allen Beteiligten klar. „Aber die Zeit“, sagt Hartmann, „die haben wir auch noch.“

Fotos: Catherine Macbride/stocksy; Audi AG

Autonome Technik, die bereits heute für Aufsehen sorgt

Selbstfahrende Lkws in Deutschland und den Niederlanden

Im April 2016 fuhren drei Fernverkehr-Lkws fahrerlos von Stuttgart nach Rotterdam. Die Fahrzeuge waren elektronisch miteinander verbunden zu einer autonomen Kolonne. Der Gütertransport soll mithilfe von selbstfahrenden Lkws sicherer und effizienter gemacht werden. 2025 könnte die Technik alltagstauglich sein.

Fahrerlose Busse in China

Europaweit wurden bereits kleine selbstfahrende Busse getestet. China ist aber schon einen Schritt weiter. Im Frühjahr 2016 legte dort ein großer Bus 32 Kilometer fehlerfrei ohne Fahrer zurück. 2019 soll die Serienreife der autonomen Busse erreicht werden.

Automatisierte U-Bahnen von London bis Paris

Laut dem internationalen Verband für öffentlichen Verkehr UITP gab es 2013 in 32 Metropolen insgesamt 48 automatisierte U-Bahn-Linien. In Städten wie London, Paris, Kopenhagen, Budapest und Nürnberg sind einzelne U-Bahn-Strecken längst fahrerlos unterwegs.