BESSER SEHEN ALS DER MENSCH

Die Taktrate bei der Einführung neuer Fahrerassistenzsysteme nimmt zu. Der Stauassistent im neuen Audi A8 kann bis zu einer Geschwindigkeit von 60 km/h autonom in der Kolonne folgen. Auch andere Hersteller und Zulieferer sind technisch so weit, Autos teilautonome Aufgaben erledigen zu lassen. Eine Übersicht, was technischmachbar ist und was nicht.

Ein Megatrend der Entwicklung modernster Automobiltechnik ist die Möglichkeit, ein Fahrzeug in gewissen Fahrsituationen teil- oder vollautomatisiert bewegen zu können. Während bisherige Fahrerassistenzsysteme wie adaptive Tempomaten, Spurhalte-und -wechselassistenten vor allem unterstützende Funktionen aufwiesen, werden in Kürze Systeme erhältlich sein, die den Fahrer von seiner Aufgabe entlasten und ihn nur noch Überwachungsfunktionen ausführen lassen.

Audi lanciert im A8 nebst dem auch bei anderen Marken bekannten Parkassistenten, der das Fahrzeug in Längs-und Querlücken vollautomatisch einparkieren lässt, neu auch einen Stauassistenten. Das System lässt sich bis zu einer Geschwindigkeit von 60 km/h auf Autobahnen mittels Knopfdruck aktivieren und übernimmt sowohl Beschleunigung, Verzögerung als auch Lenkmanöver (siehe Funktionsbeschreibung Stauassistent auf Seite 99).

Redundanz als Erfolgsrezept

Damit das Fahrzeug diese Aufgabe sicher durchführen kann, haben die Ingenieure dem Topmodell aus Ingolstadt einen neuen Laserscanner spendiert. Dieser Sensor ist in der Lage, das Vorfeld auf bis zu 100 m zu überwachen und Objekte nicht nur zu erkennen (optisch), sondern auch präzise Distanzmessungen durchzuführen (siehe Funktionsbeschreibung Laserscanner auf Seite 98).

Um die Funktionalität eines Stauassistenten technisch zu meistern, benötigt das neue zentrale Fahrerassistenzsystem-Steuergerät zFAS nicht nur die Distanzmessung eines Long-Range-Radars, sondern ebenso die Daten vom Lasersensor. Jede Messgrösse wird damit mindestens zweifach und unabhängig ermittelt, damit das System ein genaues Abbild seiner Umgebung zu berechnen imstande ist. Im Mid-Range-Bereich erfassen je zwei aussen an der Fahrzeugfront montierte Radarsensoren sich bewegende Objekte. Ebenfalls als Redundanzsensor wirkt hier der neue Laserscanner, der einen Öffnungswinkel von 145° aufweist. Die Frontkamera hinter der Windschutzscheibe nimmt das Vorfeld dank hoher Auflösung optisch wahr. Die Sensorinformationen der drei Frontradare, des Laserscanners und der Kamera werden nicht wie bisher in separaten Steuergeräten einzeln ausgewertet, sondern im neuen zFAS zentral zu einem dreidimensionalen Bild mit Distanzangaben zusammengefügt.

Herzstück zentrales Steuergerät

Will ein Hersteller künftig teil-und vollautonome Fahrmanöver sicher durchführen können, werden nicht nur die Sensorinformationen benötigt, sondern diese müssen auch mit der digitalen Strassenkarte ständig ergänzt werden. Zusammen mit der Koppelnavigation weiss das Steuergerät jederzeit, wo sich das Fahrzeug auf der Strasse befindet und wie die Umgebung vor dem Fahrzeug aussieht.

Was bei Audi im zFAS abgeht, lässt sich nur anhand der Fakten erahnen. Im neuen Steuergerät von Hauptzulieferer Delphi werden 80 Sensorinformationen zu einem Gesamtbild verschmolzen. Für die Bildverarbeitung sind Rechenbausteine mit Namen wie Tegra K1 und Cyclon V von Nvidia oder auch EyeQ3 von Mobileye nötig, um die Kamerabilder im Real-Time-Modus auswerten zu können.

Auf der Steuergeräteplatine sind insgesamt zwölf Ebenen integriert. Weitere Zulieferer wie Altera-Cyclone und Infineon-Aurix liefern spezielle Mikrochips auf die Platine, um weitere Verarbeitungsschritte zur Sensordatenfusion oder -auswertung zu ermöglichen. Das Faszinierende am Ganzen: Die Hardwarekomponenten können dank ihrer Rechenpower garantieren, dass die Aufmerksamkeit zu 100 % gewährleistet ist. Bei menschlichen Fahrern kann Müdigkeit oder Unkonzentriertheit zu Fehleinschätzungen führen. Bei der Elektronik darf dies nicht geschehen.

Und dann noch ein bisschen Software

Aufgrund der Fülle von Eingabegrössen (Sensorinformationen) und der Hardwareanforderungen für die Verarbeitung lässt sich auch nur erahnen, mit welchem Einsatz die Fahrzeughersteller und -zulieferer die Entwicklung dieser fahrzeugspezifischen Komponenten vorangetrieben haben. Dass diese Informationen immer just in time von einer Software analysiert werden müssen, übersteigt schon beinahe das technische Vorstellungsvermögen.

Während der menschliche Fahrer mit einem Sensor ausgerüstet ist (zwei Augen =Stereokamera hinter der Windschutzscheibe), sind es im Fahrzeug aufgrund der Redundanz und der Erfassung bei möglichst allen Witterungsbedingungen viel mehr Sensoren. Das menschliche Gehirn verarbeitet eine viel geringereAnzahl Informationen, um eine Verkehrssituation einzuschätzen und gegebenenfalls Fahrmanöver einzuleiten. Während der Mensch im Schnitt rund drei Situationen in der Sekunde verarbeiten kann, ist das Steuergerät der Fahrerassistenzsysteme mit viel mehr Arbeit konfrontiert.

Die Programmierung scheint dabei beinahe unlösbar zu sein. Jegliche Fahrsituationen müssen vorgängig simuliert werden, um die daraus sinnvollen Fahrmanöver und damit die Ansteuerung der jeweiligen Aktoren (Bremse, Motorlast, Gangwahl, Lenkung) berechnen zu können. Die Entwickler sprechen in diesem Zusammenhang von künstlicher Intelligenz. Die Systeme lernen aufgrund simulierter oder realer Fahrsituationen ständig dazu.

Auch für die günstigen Fahrzeuge?

Dass Audi und andere Hersteller die Teilautomatisation in der Oberklasse lancieren, ist nachvollziehbar. Die Systeme sind aufgrund der hohen Entwicklungskosten in Hard-und Software teuer. Erst wenn sich die Kunden an die Systeme gewöhnt haben, die Nachfrage entsprechend steigt und die Zuverlässigkeit gewährleistet ist, werden durch grössere Stückzahlen auch in der Kompakt- und Kleinwagenklasse derartige Systeme erhältlich sein.

Einen ersten Schritt in diese Richtung machte Delphi mit der Entwicklung eines Kombisensors: Sowohl Long-wie auch Mid-Range-Radar sowie eine Frontkamera wurden in der RaCam zusammengefasst. Damit erlaubt der Zulieferer, die Sensordatenfusion direkt im Sensor durchzuführen und eine Vielzahl von Systemen mit den notwendigen Informationen zu versorgen (siehe Funktionsbeschreibung auf Seite 99).

Die juristische Situation

Obwohl das Wiener Verkehrsabkommen von 1967 im Jahr 2014 ergänzt wurde, ist der Fahrer nach wie vor für das sichere Führen des Fahrzeuges verantwortlich. In der UN-Ergänzung, welche am 23. April 2016 in Kraft getreten ist, sind gemäss UN-Abkommen nur Fahrerassistenzsysteme im Fahrzeug erlaubt, welche jederzeit vom Fahrer überstimmt oder abgeschaltet werden können.

Dies erklärt, warum auch der neue Stauassistent von Audi eigentlich nicht ohne Überwachung des Fahrers eingesetzt werden darf. Zudem muss jedes Land die Funktionen gesetzlich auf seinen Nationalstrassen erlauben. Eine Kamera filmt im A8 den Fahrer kontinuierlich. Ist der Fahrer durch Zeitungslesen oder andere Dinge abgelenkt, macht das Fahrzeug den Fahrer darauf aufmerksam, dass er seine Überwachungsfunktion wieder übernehmen soll.

Wenn das System zudem Unsicherheiten bei der Beurteilung der Fahrsituation hat,übergibt es ebenfalls wieder an den Fahrer. Dieser wird optisch, akustisch und auch haptisch auf die Übernahme vorbereitet. Reagiert er nicht auf die Anzeige in der Armaturentafel, überhört er das akustische Signal und übernimmt er seine Fahrfunktion auch nicht bei Impulsen der elektromechanischen Gurtaufroller, bremst das Fahrzeug von alleine bis zum Stillstand ab.

Unfalldatenlogger immer aktiv

Um juristisch heikle Situationen zu vermeiden, zeichnet das zFAS die Manipulationen des Fahrers, die Umfeldsicht sowie die Fahrzeugdaten kontinuierlich auf. Audi verspricht aufgrund des Datenschutzes, dass die Informationen nicht an eine Cloud oder an einen Audi-Server geliefert werden. Erst bei einem Unfall werden die Daten vom Steuergerät ausgelesen. Ob die Privatsphäre jederzeit gewährleistet ist, kann aus Sicht des Konsumenten nicht beurteilt werden. Um die Software kontinuierlich zu optimieren, müssten die Hersteller die Daten aus dem Praxiseinsatz einbeziehen können.

Ethik als immer wichtigeres Thema

Technisch sind die Systeme schon heute in der Lage, in gewissen Verkehrssituationen das Fahrzeug autonom zu fahren. Eine wichtige Diskussion ist auch auf Entwicklerstufe im Gange: Wie soll ein autonomes Auto bei brenzligen Situationen entscheiden, bei dem sich ein Unfall nicht mehr vermeiden lässt und Personenschäden in Kauf genommen werden müssen?

Die ethischen Grundsätze der Software beizubringen, wird wohl noch für viel Kopfzerbrechen in den Entwicklungsabteilungen sorgen. Nebst den juristischen Fragen, wer bei einem Unfall mit einem autonom fahrenden Auto haftet, müssen auch moralische Lösungsansätze gefunden werden.