Die Taktrate bei der Einführung neuer Fahrerassistenzsysteme nimmt
zu. Der Stauassistent im neuen Audi A8 kann bis zu einer
Geschwindigkeit von 60 km/h autonom in der Kolonne folgen. Auch
andere Hersteller und Zulieferer sind technisch so weit, Autos
teilautonome Aufgaben erledigen zu lassen. Eine Übersicht, was
technischmachbar ist und was nicht.
Ein Megatrend der Entwicklung modernster Automobiltechnik ist die
Möglichkeit, ein Fahrzeug in gewissen Fahrsituationen teil- oder
vollautomatisiert bewegen zu können. Während bisherige
Fahrerassistenzsysteme wie adaptive Tempomaten, Spurhalte-und
-wechselassistenten vor allem unterstützende Funktionen aufwiesen,
werden in Kürze Systeme erhältlich sein, die den Fahrer von seiner
Aufgabe entlasten und ihn nur noch Überwachungsfunktionen ausführen
lassen.
Audi lanciert im A8 nebst dem auch bei anderen Marken bekannten
Parkassistenten, der das Fahrzeug in Längs-und Querlücken
vollautomatisch einparkieren lässt, neu auch einen Stauassistenten.
Das System lässt sich bis zu einer Geschwindigkeit von 60 km/h auf
Autobahnen mittels Knopfdruck aktivieren und übernimmt sowohl
Beschleunigung, Verzögerung als auch Lenkmanöver (siehe
Funktionsbeschreibung Stauassistent auf Seite 99).
Redundanz als Erfolgsrezept
Damit das Fahrzeug diese Aufgabe sicher durchführen kann, haben die
Ingenieure dem Topmodell aus Ingolstadt einen neuen Laserscanner
spendiert. Dieser Sensor ist in der Lage, das Vorfeld auf bis zu 100
m zu überwachen und Objekte nicht nur zu erkennen (optisch), sondern
auch präzise Distanzmessungen durchzuführen (siehe
Funktionsbeschreibung Laserscanner auf Seite 98).
Um die Funktionalität eines Stauassistenten technisch zu meistern,
benötigt das neue zentrale Fahrerassistenzsystem-Steuergerät zFAS
nicht nur die Distanzmessung eines Long-Range-Radars, sondern ebenso
die Daten vom Lasersensor. Jede Messgrösse wird damit mindestens
zweifach und unabhängig ermittelt, damit das System ein genaues
Abbild seiner Umgebung zu berechnen imstande ist. Im
Mid-Range-Bereich erfassen je zwei aussen an der Fahrzeugfront
montierte Radarsensoren sich bewegende Objekte. Ebenfalls als
Redundanzsensor wirkt hier der neue Laserscanner, der einen
Öffnungswinkel von 145° aufweist. Die Frontkamera hinter der
Windschutzscheibe nimmt das Vorfeld dank hoher Auflösung optisch
wahr. Die Sensorinformationen der drei Frontradare, des Laserscanners
und der Kamera werden nicht wie bisher in separaten Steuergeräten
einzeln ausgewertet, sondern im neuen zFAS zentral zu einem
dreidimensionalen Bild mit Distanzangaben zusammengefügt.
Herzstück zentrales Steuergerät
Will ein Hersteller künftig teil-und vollautonome Fahrmanöver sicher
durchführen können, werden nicht nur die Sensorinformationen
benötigt, sondern diese müssen auch mit der digitalen Strassenkarte
ständig ergänzt werden. Zusammen mit der Koppelnavigation weiss das
Steuergerät jederzeit, wo sich das Fahrzeug auf der Strasse befindet
und wie die Umgebung vor dem Fahrzeug aussieht.
Was bei Audi im zFAS abgeht, lässt sich nur anhand der Fakten
erahnen. Im neuen Steuergerät von Hauptzulieferer Delphi werden 80
Sensorinformationen zu einem Gesamtbild verschmolzen. Für die
Bildverarbeitung sind Rechenbausteine mit Namen wie Tegra K1 und
Cyclon V von Nvidia oder auch EyeQ3 von Mobileye nötig, um die
Kamerabilder im Real-Time-Modus auswerten zu können.
Auf der Steuergeräteplatine sind insgesamt zwölf Ebenen integriert.
Weitere Zulieferer wie Altera-Cyclone und Infineon-Aurix liefern
spezielle Mikrochips auf die Platine, um weitere
Verarbeitungsschritte zur Sensordatenfusion oder -auswertung zu
ermöglichen. Das Faszinierende am Ganzen: Die Hardwarekomponenten
können dank ihrer Rechenpower garantieren, dass die Aufmerksamkeit zu
100 % gewährleistet ist. Bei menschlichen Fahrern kann Müdigkeit oder
Unkonzentriertheit zu Fehleinschätzungen führen. Bei der Elektronik
darf dies nicht geschehen.
Und dann noch ein bisschen Software
Aufgrund der Fülle von Eingabegrössen (Sensorinformationen) und der
Hardwareanforderungen für die Verarbeitung lässt sich auch nur
erahnen, mit welchem Einsatz die Fahrzeughersteller und -zulieferer
die Entwicklung dieser fahrzeugspezifischen Komponenten
vorangetrieben haben. Dass diese Informationen immer just in time von
einer Software analysiert werden müssen, übersteigt schon beinahe das
technische Vorstellungsvermögen.
Während der menschliche Fahrer mit einem Sensor ausgerüstet ist (zwei
Augen =Stereokamera hinter der Windschutzscheibe), sind es im
Fahrzeug aufgrund der Redundanz und der Erfassung bei möglichst allen
Witterungsbedingungen viel mehr Sensoren. Das menschliche Gehirn
verarbeitet eine viel geringereAnzahl Informationen, um eine
Verkehrssituation einzuschätzen und gegebenenfalls Fahrmanöver
einzuleiten. Während der Mensch im Schnitt rund drei Situationen in
der Sekunde verarbeiten kann, ist das Steuergerät der
Fahrerassistenzsysteme mit viel mehr Arbeit konfrontiert.
Die Programmierung scheint dabei beinahe unlösbar zu sein. Jegliche
Fahrsituationen müssen vorgängig simuliert werden, um die daraus
sinnvollen Fahrmanöver und damit die Ansteuerung der jeweiligen
Aktoren (Bremse, Motorlast, Gangwahl, Lenkung) berechnen zu können.
Die Entwickler sprechen in diesem Zusammenhang von künstlicher
Intelligenz. Die Systeme lernen aufgrund simulierter oder realer
Fahrsituationen ständig dazu.
Auch für die günstigen Fahrzeuge?
Dass Audi und andere Hersteller die Teilautomatisation in der
Oberklasse lancieren, ist nachvollziehbar. Die Systeme sind aufgrund
der hohen Entwicklungskosten in Hard-und Software teuer. Erst wenn
sich die Kunden an die Systeme gewöhnt haben, die Nachfrage
entsprechend steigt und die Zuverlässigkeit gewährleistet ist, werden
durch grössere Stückzahlen auch in der Kompakt- und Kleinwagenklasse
derartige Systeme erhältlich sein.
Einen ersten Schritt in diese Richtung machte Delphi mit der
Entwicklung eines Kombisensors: Sowohl Long-wie auch Mid-Range-Radar
sowie eine Frontkamera wurden in der RaCam zusammengefasst. Damit
erlaubt der Zulieferer, die Sensordatenfusion direkt im Sensor
durchzuführen und eine Vielzahl von Systemen mit den notwendigen
Informationen zu versorgen (siehe Funktionsbeschreibung auf Seite
99).
Die juristische Situation
Obwohl das Wiener Verkehrsabkommen von 1967 im Jahr 2014 ergänzt
wurde, ist der Fahrer nach wie vor für das sichere Führen des
Fahrzeuges verantwortlich. In der UN-Ergänzung, welche am 23. April
2016 in Kraft getreten ist, sind gemäss UN-Abkommen nur
Fahrerassistenzsysteme im Fahrzeug erlaubt, welche jederzeit vom
Fahrer überstimmt oder abgeschaltet werden können.
Dies erklärt, warum auch der neue Stauassistent von Audi eigentlich
nicht ohne Überwachung des Fahrers eingesetzt werden darf. Zudem muss
jedes Land die Funktionen gesetzlich auf seinen Nationalstrassen
erlauben. Eine Kamera filmt im A8 den Fahrer kontinuierlich. Ist der
Fahrer durch Zeitungslesen oder andere Dinge abgelenkt, macht das
Fahrzeug den Fahrer darauf aufmerksam, dass er seine
Überwachungsfunktion wieder übernehmen soll.
Wenn das System zudem Unsicherheiten bei der Beurteilung der
Fahrsituation hat,übergibt es ebenfalls wieder an den Fahrer. Dieser
wird optisch, akustisch und auch haptisch auf die Übernahme
vorbereitet. Reagiert er nicht auf die Anzeige in der Armaturentafel,
überhört er das akustische Signal und übernimmt er seine Fahrfunktion
auch nicht bei Impulsen der elektromechanischen Gurtaufroller, bremst
das Fahrzeug von alleine bis zum Stillstand ab.
Unfalldatenlogger immer aktiv
Um juristisch heikle Situationen zu vermeiden, zeichnet das zFAS die
Manipulationen des Fahrers, die Umfeldsicht sowie die Fahrzeugdaten
kontinuierlich auf. Audi verspricht aufgrund des Datenschutzes, dass
die Informationen nicht an eine Cloud oder an einen Audi-Server
geliefert werden. Erst bei einem Unfall werden die Daten vom
Steuergerät ausgelesen. Ob die Privatsphäre jederzeit gewährleistet
ist, kann aus Sicht des Konsumenten nicht beurteilt werden. Um die
Software kontinuierlich zu optimieren, müssten die Hersteller die
Daten aus dem Praxiseinsatz einbeziehen können.
Ethik als immer wichtigeres Thema
Technisch sind die Systeme schon heute in der Lage, in gewissen
Verkehrssituationen das Fahrzeug autonom zu fahren. Eine wichtige
Diskussion ist auch auf Entwicklerstufe im Gange: Wie soll ein
autonomes Auto bei brenzligen Situationen entscheiden, bei dem sich
ein Unfall nicht mehr vermeiden lässt und Personenschäden in Kauf
genommen werden müssen?
Die ethischen Grundsätze der Software beizubringen, wird wohl noch
für viel Kopfzerbrechen in den Entwicklungsabteilungen sorgen. Nebst
den juristischen Fragen, wer bei einem Unfall mit einem autonom
fahrenden Auto haftet, müssen auch moralische Lösungsansätze gefunden
werden.