Stehen selbstfahrende Autos „vor der Tür“? Man könnte das meinen, wenn man die Meldungen der Hersteller verfolgt. Keiner, der nicht am „autonomen Fahren“ arbeiten würde, und manche Ankündigungen klingen, als würde die Sciencefiction von Roboter-Autos schon in ein paar Jahren Wirklichkeit: Audi hat vor drei Wochen bekannt gegeben, gemeinsam mit dem Chiphersteller Nvidia „bis 2020 ein komplett per künstlicher Intelligenz autonom fahrendes Fahrzeug auf die Straße“ zu bringen. Bei der Entwicklung des BMW iNext, der 2021 herauskommen soll, steht „vollautonomes Fahren“ im „Mittelpunkt“. Nissan will nächsten Monat den ersten Praxistest „autonom“ fahrender Elektro-Autos in Europa starten – nicht auf einer Autobahn, sondern im Alltagsverkehr in London. Die Aufzählung ließe sich noch weiter fortsetzen.
Doch wer von „autonomem“ Fahren spricht, meint damit nicht unbedingt gänzlich selbstfahrende Autos, in denen es kein Lenkrad und keine Pedalerie mehr gibt und die Mitfahrenden Zeitung lesen, schlafen oder ein Bier trinken. Der Weg dahin ist lang. Er führt über fünf Etappen, wie sie mit leichten, aber nicht allzu nennenswerten Unterschieden von der US-amerikanischen Straßenverkehrsbehörde NHTSA, dem Verband der deutschen Autohersteller VDA und der SAE, dem internationalen Verband der Automobilingenieure, definiert wurden. Von selbstfahrenden Autos kann diesen Skalen zufolge erst ganz oben, auf „Level 5“, die Rede sein. Der momentane Stand der Fahrzeugentwicklung liegt zwischen „Level 2“ und „Level 3“. Entwicklungen wie der iNext von BMW könnten „Level 4“ entsprechen. Was schon beachtlich wäre: Ist diese Stufe erreicht, fährt das Auto selbstständig und nur bei ungewöhnlichen Bedingungen, wie bei extremem Wetter, müsste der Fahrer das Steuer übernehmen können. Ohne Lenkrad, Bremse und Gaspedal wird demnach auch so ein Auto nicht auskommen (siehe unten).
Wann „Level 5“ erreicht werden könnte, ist ungewiss. „Manche Experten behaupten, das dauere nur noch fünf Jahre, andere meinen, Ende der 2020-er Jahre könnte es soweit sein“, heißt es aus dem Nachhaltigkeits- und Infrastrukturministerium. Das MDDI, und mit ihm die gesamte Luxemburger Regierung, interessiert sich für das autonome Fahren sehr. Nicht nur, weil man, wie es im Rifkin-Bericht über die „Dritte industrielle Revolution“ empfohlen wird, dafür sorgen will, dass selbstfahrende Autos vor allem Teil des öffentlichen Transports und von „Sharing-Lösungen“ werden und sich so die Straßenverkehrslage im Land entspannen lässt (siehe S. 27). Sondern auch, weil Luxemburg als „Testbed“ fürs autonome Fahren empfohlen und damit Firmen angelockt werden sollen. Woraus schon folgt, dass es an den neuen Autos noch so manches zu testen geben könnte.
Es gebe sogar noch eine Menge zu testen, meint Francesco Viti, Professor für Mobilitätsforschung an der Universität Luxemburg. „Die Technologien für ,Level 5’ sind schon da. Die Sensoren, die Steuerungen, all das ist ausgereift.“ Geklärt sei auch, inwiefern diese Hardware „redundant“ eingebaut werden muss, sodass bei Ausfall einer Komponente eine Reserve einspringt. Zu testen und noch viel zu lernen gebe es in punkto Software: der künstlichen Intelligenz, die eines Tages den Fahrer vollständig ersetzen soll. Das, schätzt Francesco Viti, werde frühestens in zwanzig Jahren der Fall sein.
Außerdem stelle sich noch eine Grundsatzfrage, deren Beantwortung stark darüber entscheiden wird, wie leicht Autos auf „Level 5“ sich in gemeinschaftliche Konzepte einbinden lassen, wie die Luxemburger Regierung das gerne hätte. Zurzeit würden zwei Ansätze miteinander konkurrieren. Zum einen vernetzte Autos, die auch als Selbstfahrer im Informationsaustausch mit einer Zentrale stünden, zum anderen völlig autonome Autos, die die gesamte Informationsverarbeitung über ihre Lage im Verkehr intern übernehmen.
„Im Moment setzen nur japanische Hersteller wie Toyota und Nissan auf Vernetzung. Alle anderen arbeiten an Ego-Cars.“ Das werde auch daran deutlich, sagt Francesco Viti, dass derzeit kein Hersteller bereit sei, einem „Drittakteur“ – sei es ein anderes Auto im Rahmen einer Auto-zu-Auto-Kommunikation, sei es eine Zentrale – Zugriff auf Mainframe-Komponenten seiner Fahrzeuge zu gestatten. Im Mainframe steckt beispielsweise die Betätigung von Beschleunigung, Bremsen und Lenkung. Die Haltung der Hersteller hat auch mit der Angst vor den unabsehbaren Folgen, die ein Hacker-Agriff auf vernetzte fahrerlose Autos haben könnte, zu tun (siehe S. 30). Ohne Vernetzung aber wird der gemeinschaftliche Einsatz der Roboter-Autos schwieriger werden.
Gut möglich, dass dieses Problem auch die Umsetzung der Idee „Testbed Luxemburg“ erschwert: Luxemburg soll sich ja vor allem für das vernetzte Fahren anbieten. Noch aber ist keine Partnerschaft mit einer Firma bekannt. Dem Vernehmen nach gab es Gespräche, sowohl mit US-Firmen als auch mit europäischen, doch die einzige Verlautbarung des Nachhaltigkeitsministeriums im vergangenen Herbst betraf ein Unternehmen aus Lyon, das „autonom“ fahrende Kleinbusse entwickelt. Man stehe mit ihm aber noch „ganz am Anfang der Gespräche“, hatte das Ministerium damals mitgeteilt.
Die wahrscheinlich kritischste Frage, die sich um das autonome Fahren stellt, ist die der Haftpflicht. Im Februar vergangenen Jahres fuhr ein „autonomes“ Google-Testfahrzeug in Kalifornien aufgrund eines Softwarefehlers auf einen Bus auf. Im September rammte in Deutschland ein Tesla-Fahrer bei eingeschaltetem „Autopilot“ ebenfalls einen Bus. Im Mai hatte sich in Florida der erste tödliche Unfall mit Tesla-Autopilot ereignet: Einen aus einer Auffahrt in eine Autobahn einbiegenden LKW mit weißem Auflieger hatten Sensoren und Software des Tesla S nicht vom hellen Himmel unterscheiden können und den Elektro-Sportwagen in den Truck gesteuert. Der Fahrer soll angeblich einen Film von einer DVD verfolgt und nicht bedacht haben, dass man im Tesla gehalten ist, auch bei aktiviertem Autopilot die Hände stets am Lenkrad zu lassen.
Solche Vorfälle sind nicht nur tragisch. Sie zeigen auch, wie problematisch es ist, wenn Bezeichnungen wie „autonom“ und „Autopilot“ suggerieren, man könne sich vom Verkehr abwenden, obwohl selbst die technisch am weitesten fortgeschrittenen Fahrzeuge gegenwärtig nur ein stärker „assistiertes“ Fahren erlauben. Weil „Autonomie“ und „Autopilot“ offenbar vor allem Marketing-Begriffe sind, wird nun international versucht, regulatorisch einzugreifen: Vergangenes Jahr wurde eine Ergänzung zur Wiener Straßenverkehrskonvention verabschiedet. Die Konvention ist die Grundlage aller Straßenverkehrsordnungen weltweit. Die Ergänzung spricht bezeichnenderweise von „Assistenzsystemen“ und hält fest, sie müssten vom Fahrer jederzeit „übersteuert“ oder abgeschaltet werden können. Auf die Änderung hin werden in verschiedenen Ländern nun die Gesetzgebungen angepasst. In Deutschland sieht ein Gesetzentwurf vor, auch beim „hochautomatisierten“ Fahren, was etwa „Level 3“ entspräche, dürfe der Fahrer sich dem Verkehrsgeschehen nicht entziehen. Verbraucherschützer laufen dagegen Sturm: Da sei es „stressfreier, gleich selber zu fahren“, monierte vor drei Wochen der Bundesverband der Verbraucherzentralen und verlangte, automatisierte Lösungen sollten erst auf den Markt kommen, wenn sie „hundertprozentig sicher“ sind.
In Luxemburg werden solche Diskussionen auch geführt, aber nicht öffentlich, und ob Gesetze geändert werden müssten, ist noch nicht entschieden: Würde Luxemburg „Testbed“, wäre für die Tests wahrscheinlich eine separate Genehmigung nötig und die Testfahrer wüssten ohnehin, wie weit die Autonomie ihrer Fahrzeuge reicht. Was die KFZ-Haftpflicht angeht, stärkt die Änderung der Wiener Konvention das Prinzip, nach dem der Fahrer haftet. „Das gilt auch in autonomen Fahrzeugen“, erklärt Marc Hengen, der Geschäftsführer des Versicherverbands Aca. Das sei sogar dann der Fall, wenn der Fahrer mit einer per Smartphone-App betätigten Einparkhilfe sein Auto einparkt und dabei neben dem Fahrzeug steht: „Er dirigiert das Fahrzeug dann trotzdem, und sollte es ein anderes rammen, haftet der Fahrer.“ Dieser Ansatz sei letztlich auch im Sinne der Versicherten, meint Marc Hengen: Ein Fehler des Herstellers, damit dieser haftet, müsse erst einmal nachgewiesen werden. Das kann aufwändig und teuer werden.
Die spannende Frage ist allerdings, was sein wird, wenn die Autonomie „Level 5“ erreicht und es keinen Fahrer mehr gibt. Dann, sagt Paul Hammelmann, der Präsident der Sécurité routière, werde der Straßenverkehr „viel sicherer“. Denn neun von zehn Unfällen gehen auf menschliche Fehler zurück. Marc Hengen von der Aca sieht das genauso: „Eine künstliche Intelligenz trinkt keinen Alkohol und hält sich an die Geschwindigkeitsregeln.“
Das ist kaum zu bestreiten. Aber noch keine Behörde und kein Gesetzgeber auf der Welt hat bisher entschieden, wer in einem fahrerlosen Auto bei Unfällen haftbar wäre: Soll das generell der Autobesitzer sein, weil das schon bisher so ist? Oder müsste der Autohersteller haften, oder der Programmierer, der das elektronische Hirn des Auto-Roboters gefüttert hat? Oder sollte gar eine „elektronische Persönlichkeit“ eingeführt werden? Auch die US-Straßenverkehrsbehörde NHTSA sah im Sommer vergangenen Jahres, als sie Leitlinien für die Regelung des autonomen Fahrens in den US-Bundestaaten herausgab, davon ab, künstliche Intelligenz in Autos jetzt schon als „Fahrer“ anzuerkennen. Zum großen Bedauern von Google und Uber, die fahrerlosen Taxis zum Durchbruch verhelfen wollen.
Während die Beantwortung der kniffligen Fragen zur Haftpflicht beim fahrerlosen Fahren wahrscheinlich noch einige Jahre aufgeschoben werden kann, muss bereits jetzt jene beantwortet werden, wie die künstliche Intelligenz eines Level-5-Autos programmiert werden soll, damit die autonomen Entscheidungen, die sie trifft, auch in Extremsituationen die „richtigen“ sind. Paul Hammelmann von der Sécurité routière geht davon aus, dass künstliche Intelligenz und elektronische Sensorik drohende Gefahren rascher werden erfassen können als ein Mensch und schneller reagieren. Was wohl stimmt, aber welche autonome Entscheidung würde ein elektronischer Fahrer in einer Situation wie jener treffen, wo ein fahrerloses Autos an einem Zebrastreifen angehalten hat, um eine Gruppe Kinder über die Straße zu lassen, und die Sensoren ein sich von hinten näherndes Fahrzeug wahrnehmen, dessen Geschwindigkeit so hoch ist, dass es höchstwahrscheinlich nicht rechtzeitig vor dem Roboter-Auto zum Stehen kommt? Würde dessen künstliche Intelligenz dann entscheiden, schnell in den nächstliegenden Fußweg einzubiegen, und damit Fußgänger zu gefährden, oder bliebe das fahrerlose Auto stehen, um die Kollision anzunehmen und die Kindergruppe zu retten? Ein Mensch würde in einer solchen Situation reflexartig eine Entscheidung treffen, die eine delikate Balance zwischen Altruismus und Eigeninteresse enthält und nicht unbedingt bewusst erfolgen würde.
Autohersteller, Softwarefirmen und Wissenschaftler beschäftigen sich mit solchen Fragen „elektronischer Moral“ zunehmend. Das ist kein Wunder, wenn schon in ein paar Jahren „Level 4“ erreicht sein soll und Prognosen zufolge in den 2020-er Jahren der Markt für die diversen Technologien und Komponenten für fahrerlose Autos um 16 Prozent jährlich wachsen könnte. Weil ein Mensch Entscheidungen aufgrund dessen trifft, was er oder sie gelernt hat, lautet der Ansatz von Auto- und Softwareentwicklern, die künstliche Intelligenz müsse ebenfalls lernen.
Dass das Zeit und viele Tests brauchen wird, ist der Hauptgrund, weshalb die Schätzungen, wann mit „Level-5-Autonomie“ zu rechnen wäre, so weit auseinanderliegen. Und noch tüfteln Hersteller wie Tesla und Software-Unternehmen wie Google oder Apple jeweils für sich an Algorithmen für künstliche Fahrer-Intelligenz. Aber der Ruf nach einem Ende der Geheimniskrämerei wird lauter. Die Leitlinien der US-Straßenverkehrsbehörde verlangen, bei der Entwicklung von „decision-making ethics“ müssten die Entwickler autonomer Fahrzeuge Transparenz walten lassen, damit Algorithmen, die „conflict situa-
tions“ lösen sollen, „broadly acceptable“ sind.
Denn wenngleich in den autoverwöhnten Bevölkerungen der Industriestaaten Innovationen in Richtung „Autonomie“ gern gesehen sind: Völlig fahrerlose Autos könnten auf ein Akzeptanzproblem stoßen. Was übrigens auch der Grund ist, weshalb die zivile Fliegerei noch nicht vollautomatisch funktioniert: Bereits 30 Meter nach dem Start eines modernen Jets übernimmt der Autopilot die Kontrolle und kann die Maschine auch bei schlechtem Wetter landen. Verglichen mit der Entwicklung selbstfahrender Autos könnte man sagen, dass die Zivilluftfahrt in großen Teilen schon seit längerem auf „Level 3“ bis „Level 4“ agiert und die Piloten nur in bestimmten Situationen das Kommando haben. Nur wird das öffentlich selten gesagt, um die Leute nicht zu erschrecken. Geschweige, dass man zum vollautomatischen Fliegen übergeht, was technisch durchaus möglich wäre.
In fünf Etappen zum fahrerlosen Auto
Der internationale Verband der Automobilingenieure (SAE) definiert den Entwicklungsweg bis hin zum fahrerlosen Auto so:
0
Keine autonomen Funktionen, aber möglicherweise ein Automatikgetriebe haben derzeit die allermeisten Autos.
1
Assistiertes Fahren oder Parken: Manche Funktionen sind autonom, etwa die Betätigung von Gas und Bremse durch einen „Tempomaten“ oder die Selbstlenkfunktion von Einparkhilfen. Solche Extras werden in vielen Neuwagen angeboten.
2
Teilautomatisierung: Lenkung, Gas und Bremse werden automatisch betätigt, dabei ist ständige menschliche Aufsicht erforderlich. Diesem Niveau entspricht etwa der Tesla Model S mit seinem „Autopilot“ oder die neue E-Klasse von Mercedes.
3
Hohe Automatisierung: Das Auto beobachtet das Fahrumfeld selbst und fährt autonom, kann aber jederzeit einen Eingriff des Fahrers verlangen. Zum Beispiel im neuen Audi A8 (ab diesem Jahr) oder mit dem für 2020 angekündigten Nissan Pro Pilot 2.0.
4
Vollautomatisierung: Das Auto fährt autonom, unter besonderen Umständen kann menschliches Eingreifen erforderlich sein – zum Beispiel bei extremem Wetter. Anvisiert wird Niveau vier bereits für die nahe Zukunft. Etwa von Tesla für 2018, von Ford und von BMW für 2021.
5
Fahrerloses Fahren: Das Auto fährt unter allen Umständen autonom, Lenkrad und Pedalen sind überflüssig. Optimistische Experten meinen, Stufe fünf werde schon in fünf Jahren erreicht, skeptischere rechnen mit Serienfahrzeugen nicht vor Ende der 2020-er Jahre.