“Mit dem 4D-Imaging-Radar kommt Tesla aus der Kamera-Sackgasse”

Beim Thema “autonomes Fahren” war Tesla der Zeit voraus – zumindest nach den Ankündigungen von Elon Musk. Tatsächlich befand sich die Firma mit einer “Nur Kamera”-Philosophie in einer gefährlichen Sackgasse. Wir sprachen mit dem Technologie-Experten Peter Fintl über das “4D Imaging Radar” und wie Musk mit einer Rolle rückwärts wieder die Führung übernimmt.

Herr Fintl, für Elon Musk kommt es derzeit dicke. Mit seinem Stil bei Twitter erhält er viel Kritik und beim Thema Tesla und Autonomes Fahren hat Musk eine Rolle rückwärts hingelegt. Was hat das zu bedeuten?

Zunächst muss man sagen, dass Musk sehr viel für die Branche getan hat. Ohne die katalytische Wirkung der Tesla-Modelle, wären wir heute mit ganz hoher Wahrscheinlichkeit bei der Elektromobilität und beim Thema “Softwaredefiniertes Fahrzeug” nicht dort, wo wir sind.

Zumindest beim “autonomen Fahren” hat Elon Musk den Mund immer sehr voll genommen und kam mit dem Liefern nie nach. 

2015 hat er zum ersten Mal seinen Autopiloten vorgestellt. Die ersten Demonstrationen sorgten für Begeisterung und ließen die etablierte Konkurrenz in der Wahrnehmung vieler Kunden wirklich wenig innovativ aussehen. Mit dem Namen hat er suggeriert: “Das Fahrzeug hält nicht nur die Spur und Abstand zum Vordermann, sondern versteht auch die Verkehrsumgebung und reagiert entsprechend.” Nach dem ersten Ausprobieren dachten viele Nutzer: der vollautonome Betrieb kommt als Nächstes.

Das war ein sehr werbewirksames Statement. In einem sicherheitsrelevanten Bereich aber auch hoch problematisch. Was konnte das System von Tesla wirklich?

Damals – 2015 – hatte Musk noch Mobileye aus Israel als Technologiepartner. Die zu diesem Zeitpunkt verfügbaren Systeme nutzten Kamera- bzw. Radarsensoren, um Fahrerassistenzfunktionen zu implementieren. Tesla war stets vollmundig bei der Systembeschreibung und großzügig bei den Grenzen der Fahrerüberwachung. Damit wurde – unter optimalen Bedingungen – bei den Kunden der Eindruck erweckt, dass das Autopilotsystem bereits sehr mächtig ist.

Unter gewissen Bedingungen hat das Ganze ja auch funktioniert. Wo waren die Grenzen?

Das gerade war und ist die große Gefahr. Schnell lässt man sich als Fahrer von der vermeintlichen Leistungsfähigkeit und Sicherheit solcher Systeme in Sicherheit wiegen. Wenn das Wetter schön ist, die Straße einigermaßen gerade und die Bodenmarkierung frisch aufgemalt – dann fuhr man auch mit dem ersten Tesla-Autopiloten sprichwörtlich wie auf Schienen. Tatsächlich aber war es ein Drahtseilakt ohne starkes Sicherheitsnetz. Fahrer konnten das System aktivieren, konnten ohne Aufmerksamkeitskontrolle des Computers die Augen längere Zeit von der Straße abwenden. Dies führte nicht nur zu fahrlässigen Youtube-Videos, sondern auch zu einer Reihe von tödlichen Unfällen.

War das System von Mobileye mit dem autonomen Fahren überfordert?

Die Kerntechnologie von Mobileye ist die kamerabasierte Automatisierung von Fahrfunktionen. Innerhalb der Systemgrenzen – und das ist der springende Punkt – hatten und haben die Lösungen zuverlässig funktioniert. Spur- und Abstandshalter, Notbremssysteme waren der ursprüngliche Einsatzzweck zum damaligen Zeitpunkt. Tesla ist allerdings nicht nur marketingseitig darüber hinausgegangen – darum haben die Israelis die Zusammenarbeit mit Tesla beendet.

Verständlich, denen war das zu heikel. Der Ausstieg hat Musk aber nicht gebremst? 

Zur Überraschung vieler hat er damals gesagt: “Dann machen wir es eben selbst. Das ist Software, das ist unsere Kernkompetenz.” Das Zusammenspiel von “elektrisch” und “autonom” ist bis heute Markenkern von Tesla. Innerhalb von einem Jahr konnte sein System mit einigen Abstrichen in etwa das leisten, was man mit Mobileye konnte. Über die Jahre hat Elon Musk es sich zu seinem Mantra gemacht, dass ein selbstfahrendes Auto im Wesentlichen nur eine kamerabasierte Umgebungserfassung benötigt. 

Die Analogie dazu ist der Mensch?

Ja gewiss, auch der Mensch orientiert sich im Wesentlichen mit seinen zwei Augen im Verkehr. Dazu kommen Gehirn und Geist, übersetzt sind das optische Sensoren und Software, welche ein Verständnis für die Verkehrsumgebung aufbaut. Also hat Tesla sich entschieden zu sagen: mit Kameras, Rechenpower und schlauen Algorithmen kriegen wir es hin, zumindest so gut wie ein Mensch zu fahren.

Das war etwas optimistisch. Unter schlechten Bedingungen wie Nebel, Schneefall und Regen kommen die Augen des Menschen an die Grenzen. Und Kameras?

Jeder in der Branche wird bestätigen: Hochautomatisiertes Fahren in der realen Welt ist tatsächlich komplizierter als gedacht. Die Kamera-Sensoren konnten es lange nicht mit dem menschlichen Auge aufnehmen. Die ersten Tesla-Kameras hat nur eine bescheidene Auflösung, waren mit hohen Kontrasten überfordert und konnten auch nicht vollfarbig sehen. Dennoch hat sich Musk damals sehr breitbeinig hingestellt und gesagt, mit dieser Hardware werden wir autonom fahren.

Dazu gab es aber auch noch Radarsensoren. 

Ja, Tesla hatte bis vor kurzem noch in allen Modellen ein Frontradar verbaut. Diese Systeme sind im Automobilbereich millionenfach im Einsatz, sie funktionieren sehr zuverlässig und bilden bei vielen Herstellern die Basis für Assistenzfunktionen. Man denke an Abstandshalter oder Notbremsassistent. Allerdings hatten die bisherigen Radarsysteme mit mangelnder Auflösung bzw. Trennschärfe zu kämpfen. Ob neben dem großen LKW noch ein Radfahrer fährt, können einfache Radare nicht sicher erkennen. Zusatzdaten – etwa von Kameras oder Lidarsystemen – sind hier notwendig.

Das Radar ist dann auch bei Tesla rausgeflogen. Wieso das?

Vor einigen Monaten kam die Trendwende – Musk wollte allein auf seine “Tesla-Vision” setzen und begann, das Radar auszumustern. Ebenso wurden die Ultraschallsensoren, nützlich bei niedrigen Geschwindigkeiten oder Parksituationen, gestrichen. Damit wurde ein signifikanter Geldbetrag eingespart – der Kostenvorteil in der Serie ist erheblich. Hinaus posaunt wurde die Botschaft: Das funktioniert in Zukunft alles mit der Kamera.

Kamera, Kamera, Kamera, hieß es bei Tesla. Und Musk begann seinen Beschimpfungsfeldzug gegen die Lasersensoren, die Lidar-Technik. Wieso so aggressiv?

“Anyone reyling on Lidar is doomed”, sagte damals Musk und brandmarkte die Technik aus seiner Sicht als Irrweg. Die technischen Vorteile der Lasersensoren gegenüber Kameras bei schwierigen Lichtverhältnissen haben für Tesla aber nicht deren Nachteile wie hohe Kosten und Schwierigkeiten bei der Objekterkennung aufgewogen. So kann ein Lidar nur sehr schwer zwischen einer Plastiktüte, welche über die Fahrbahn weht, und einem gefährlichen Objekt wie einem Autoreifen, der auf der Straße liegt, unterscheiden. Das bedeutet: Es sind trotzdem noch Kamerasensoren notwendig, um automatisiertes Fahren sicher zu realisieren.

Und das wollte Tesla sich sparen? Die anderen Hersteller haben die Kosten nicht gescheut.

Die “konventionellen” Hersteller aber auch Techplayer a la Waymo haben bei ihren Versuchsfahrzeugen immer gesagt, wir brauchen einen Mix von Sensoren: Kamera, Lidar, Radar, man muss das Umfeld um das Auto zu 360 Grad erfassen. Durch diese Redundanz der Systeme und Informationen ist die Software zuverlässiger in der Lage, die richtigen Entscheidungen zu treffen.

Tesla war da etwas sorgloser. Weniger Informationen und diese vorrangig von vorn.

Das Tesla Vision System setzt in der Tat auf Kameras, welche die Umgebung nahezu lückenlos erfassen können. Leider gibt es in dieser Lösung allerdings ein paar “blinde Flecken”, etwa vorne seitlich im Nahbereich des Fahrzeugs. Auch sehen“ die Fahrzeuge selbst im Optimalfall nach hinten nur maximal 100 Meter, deutlich weniger als ein klassisches Heckradar. Auf deutschen Autobahnen kann das kritisch werden, wenn sich ein deutlich schnelleres Fahrzeug auf der linken Spur von hinten nähert und der Tesla gerade einen Überholvorgang plant. 

Nun aber zur Kehrtwende. Musk hat das Radar rausgeworfen, nun gibt es aber Indizien, dass wieder eines eingebaut wird. Das hört sich nach Zick-Zack-Kurs an. Zur Ehrenrettung muss man aber sagen, das ist ein anderes System. Worin unterscheiden sich diese Radare?

 Das wahrscheinlich geplante System ist tatsächlich eine Neuheit im Automobilbereich. Es handelt sich um ein sogenanntes “4D Imaging Radar”. Die Schlüsselinnovation dabei: Es sind sehr viele kleine Radarantennen in einem System integriert. Dadurch erreicht man eine viel feinere Auflösung und erhält damit Ergebnisse ähnlich eines Lidar-Systems. Diese neuartigen Systeme sind nun serienreif und können etwa einen Menschen – inklusive Extremitäten – auflösen. Ebenso ist die Trennschärfe hoch genug, um Fußgänger oder Radfahrer, welche neben oder zwischen Fahrzeugen befinden, zu identifizieren. Eine zukunftsweisende Technologie. Neben einigen vielversprechenden Start-ups in diesem Bereich sind aber auch die Platzhirsche wie Continental mit Produkten vertreten.  

Und was bedeutet 4D? 

Diese 4D-Radare erkennen nicht nur Entfernung, Richtung und Geschwindigkeit eines Objektes im Raum, sondern liefern auch zuverlässig Höheninformationen. In Verbindung mit der höheren Auflösung können damit Straßenmerkmale wie Randbegrenzungen oder auch Schlaglöcher erkannt werden. Das ist das eigentlich Neue an der Erfindung. Und jetzt sieht es so aus, als würde so ein 4D Imaging Radar bei Tesla in die Serie einfließen.

Was wie eine Rolle rückwärts aussieht, ist in Wirklichkeit ein großer Sprung nach vorn?

Absolut. Diese Rolle rückwärts, ist ein großer Sprung nach vorn. Sollte Tesla so ein 4D Radar bei der in wenigen Monaten anstehenden Modellpflege des Model 3 tatsächlich in Serie bringen, wäre das durchaus ein Paukenschlag. Mit dem 4D-Imaging-Radar kommt Tesla ohne Gesichtsverlust aus der Kamera-Sackgasse und ist in puncto Sensorik wieder ganz vorne mit dabei. Dann bleiben nur die “Baustellen” Heckradar sowie die Schließung der kleinen blinden Flecken der Kameras.

Bisher war Musk sparsam unterwegs, was kostet diese Innovation?

Auch als 4D-Imaging Variante ist die Radar-Technik sehr viel günstiger als ein LIDAR-System. Selbst wenn man Lasersensoren effizient produziert, sprechen wir beim Lidar über Stückkosten von Hunderten von Euro. Da sind die neuen Radarsysteme ungeschlagen billiger. Sie haben keine Optik. Es handelt sich “nur” um normale Halbleiterproduktion und schlaue Software. Außerdem können im Radar integrierte Algorithmen zur Objekterkennung nicht nur die Steuerung des Autos entlasten, sondern auch eine Rückfallebene, etwa für Notbremsfunktionen, bilden. Selbst Hersteller, die auf Lidar schwören, kämpfen mit den Kosten. Man versucht etwa, ohne Lidare an den Ecken auszukommen, und mit einem einzelnen, nach vorne gerichteten Lidar am Dach oberhalb der Windschutzscheibe den maximalen Nutzen zu erzielen. Volvo hat dies kürzlich bei der Vorstellung seines neuen Elektro-SUVs in einer ähnlichen Form präsentiert.

Peter Fintl – Vice President Technology & Innovation bei Capgemini

Peter Fintl – Vice President Technology & Innovation bei Capgemini

© Capgemini / PR

Also doch: der große Sprung nach vorn für Tesla?

Durch das Hinzufügen eines 4D Imaging Radar wird die Erkennungsleistung eines automatisierten Systems deutlich robuster, damit wird auch potenziell die Kundenerfahrung besser. Derzeit leiden Tesla-Fahrer etwa immer wieder unter den sogenannten Phantom-Bremsungen. Das heutige Kamerasystem und die dazugehörigen Algorithmen weisen noch eine zu hohe Fehlerrate auf und veranlassen unnötige Notbremsungen. Das ist äußerst lästig und verstört den Kunden. Und führt zu gefährlichen Situationen.

Für vollautonomes Fahren wäre das ein No-Go?

Sicherheit ist der zentrale Punkt. Zulassungsbehörden legen darauf höchsten Wert und verlangen dafür entsprechende Nachweise. Nicht nur die Funktion muss gegeben sein, auch die Architektur muss entsprechend ausgelegt sein. Ohne die Erfüllung dieser Anforderungen ist so ein System in den Weltmärkten nicht zulassungsfähig. Auch die heutigen vollautomatischen Taxis, die in China oder den USA unterwegs sind, haben aus Sicherheitsgründen eine volle Sensorausstattung an Bord. Das heißt neben Kamera auch Radar und Lidar – für eine vollständige Erfassung der Umgebung.

Aus Gründen der Zuverlässigkeit aber auch um eine Erweiterung des Betriebsbereichs seiner Assistenz- bzw. Fahrfunktionen darzustellen – ein Radar sieht auch durch Nebel – ist Tesla dringend auf weitere Sensorkanäle angewiesen. Dieses Imaging Radar wäre ein Schritt nach vorne, Tesla wäre wieder einmal Schrittmacher.

Das ist auch nötig, um eine führende Position zu behalten.

Absolut. Tesla hat bei Licht betrachtet im Bereich Fahrautomatisierung durchaus Boden verloren. Selbst die aktuelle Beta-Version der “Full-Self-Driving” Funktion benötigt konstante Überwachung durch den Fahrer, in einigen alltäglichen Verkehrssituationen benötigt es weiterhin menschliche Unterstützung. Ob das Tesla-FSD-System mit seiner derzeitigen Architektur zulassungsfähig ist, ist Gegenstand lebhafter Expertendiskussionen.

Beim hochautomatisierten Fahren, etwa für Robo-Taxis, kommt momentan niemand an Waymo, Cruise oder den Chinesen vorbei. Wenn Musk nun aber eine Tesla-Radar-Innovation aus dem Hut zaubert, kann dies wieder eine schöne Story für die Kunden und für die Investoren sein.

source site-6