Wie sicher sind Systeme wie der Autopilot von Tesla? Niemand weiß.

Alle drei Monate veröffentlicht Tesla einen Sicherheitsbericht, der die Anzahl der Kilometer zwischen Unfällen angibt, wenn Fahrer das Fahrerassistenzsystem des Unternehmens, den Autopiloten, verwenden, und die Anzahl der Kilometer zwischen Unfällen, wenn sie dies nicht tun.

Diese Zahlen zeigen immer wieder, dass Unfälle mit Autopilot, einer Sammlung von Technologien, die Tesla-Fahrzeuge selbstständig lenken, bremsen und beschleunigen können, seltener sind.

Doch die Zahlen täuschen. Der Autopilot wird hauptsächlich für das Fahren auf Autobahnen verwendet, was nach Angaben des Verkehrsministeriums im Allgemeinen doppelt so sicher ist wie das Fahren auf Stadtstraßen. Mit dem Autopiloten können weniger Abstürze auftreten, nur weil er normalerweise in sichereren Situationen verwendet wird.

Tesla hat keine Daten bereitgestellt, die einen Vergleich der Sicherheit des Autopiloten auf denselben Straßentypen ermöglichen würden. Weder haben andere Autohersteller, die ähnliche Systeme anbieten.

Autopilot ist seit 2015 auf öffentlichen Straßen unterwegs. General Motors hat Super Cruise 2017 eingeführt und Ford Motor hat BlueCruise letztes Jahr herausgebracht. Aber öffentlich verfügbare Daten, die die Sicherheit dieser Technologien zuverlässig messen, sind rar. Amerikanische Fahrer – ob sie diese Systeme nutzen oder mit ihnen die Straße teilen – sind praktisch Versuchskaninchen in einem Experiment, dessen Ergebnisse noch nicht bekannt gegeben wurden.

Autohersteller und Technologieunternehmen fügen weitere Fahrzeugfunktionen hinzu, von denen sie behaupten, dass sie die Sicherheit verbessern, aber es ist schwierig, diese Behauptungen zu überprüfen. Gleichzeitig sind die Todesfälle auf den Autobahnen und Straßen des Landes in den letzten Jahren gestiegen und haben 2021 ein 16-Jahres-Hoch erreicht. Es scheint, dass jede zusätzliche Sicherheit, die durch technologischen Fortschritt geboten wird, schlechte Entscheidungen der Fahrer am Steuer nicht ausgleicht.

„Es fehlt an Daten, die der Öffentlichkeit das Vertrauen geben würden, dass diese Systeme, so wie sie eingesetzt werden, ihre erwarteten Sicherheitsvorteile erfüllen“, sagte J. Christian Gerdes, Professor für Maschinenbau und Co-Direktor des Center for an der Stanford University Automotive Research, der der erste Chief Innovation Officer des Verkehrsministeriums war.

GM arbeitete mit der University of Michigan an einer Studie zusammen, die die potenziellen Sicherheitsvorteile von Super Cruise untersuchte, kam jedoch zu dem Schluss, dass sie nicht über genügend Daten verfügten, um zu verstehen, ob das System Unfälle reduzierte.

Vor einem Jahr wies die National Highway Traffic Safety Administration, die Regierungsbehörde für Autosicherheit, Unternehmen an, potenziell schwere Unfälle mit fortschrittlichen Fahrerassistenzsystemen nach Art des Autopiloten innerhalb eines Tages nach Bekanntwerden zu melden. Der Auftrag besagte, dass die Agentur die Berichte veröffentlichen würde, aber sie hat dies noch nicht getan.

Die Sicherheitsbehörde lehnte es ab, sich zu den bisher gesammelten Informationen zu äußern, sagte jedoch in einer Erklärung, dass die Daten „in naher Zukunft“ veröffentlicht würden.

Tesla und sein Vorstandsvorsitzender Elon Musk antworteten nicht auf Anfragen nach Kommentaren. GM sagte, es habe der NHTSA zwei Vorfälle mit Super Cruise gemeldet: einen im Jahr 2018 und einen im Jahr 2020. Ford lehnte eine Stellungnahme ab.

Die Daten der Agentur werden wahrscheinlich kein vollständiges Bild der Situation liefern, aber sie könnten Gesetzgeber und Fahrer ermutigen, sich diese Technologien viel genauer anzusehen und letztendlich die Art und Weise zu ändern, wie sie vermarktet und reguliert werden.

„Um ein Problem zu lösen, muss man es zuerst verstehen“, sagte Bryant Walker Smith, außerordentlicher Professor an den Rechts- und Ingenieurschulen der University of South Carolina, der sich auf neue Verkehrstechnologien spezialisiert hat. „Dies ist eine Möglichkeit, mehr Bodenwahrheit als Grundlage für Untersuchungen, Vorschriften und andere Maßnahmen zu erhalten.“

Trotz seiner Fähigkeiten nimmt der Autopilot dem Fahrer nicht die Verantwortung ab. Tesla fordert die Fahrer auf, wachsam zu bleiben und jederzeit bereit zu sein, die Kontrolle über das Auto zu übernehmen. Dasselbe gilt für BlueCruise und Super Cruise.

Viele Experten befürchten jedoch, dass diese Systeme, weil sie es dem Fahrer ermöglichen, die aktive Kontrolle über das Auto aufzugeben, ihn dazu bringen könnten, zu glauben, dass sein Auto selbst fährt. Wenn dann die Technologie ausfällt oder eine Situation nicht alleine bewältigen kann, sind die Fahrer möglicherweise nicht darauf vorbereitet, so schnell wie nötig die Kontrolle zu übernehmen.

Ältere Technologien wie automatische Notbremsungen und Spurverlassenswarner stellen seit langem Sicherheitsnetze für Fahrer dar, indem sie das Auto verlangsamen oder anhalten oder Fahrer warnen, wenn sie von ihrer Fahrspur abweichen. Aber neuere Fahrerassistenzsysteme drehen diese Anordnung um, indem sie den Fahrer zum Sicherheitsnetz für die Technologie machen.

Sicherheitsexperten sind wegen der Art und Weise, wie er vermarktet wird, besonders besorgt über Autopilot. Mr. Musk hat jahrelang gesagt, dass die Autos des Unternehmens an der Schwelle zu echter Autonomie stehen – sie fahren in praktisch jeder Situation von selbst. Der Name des Systems impliziert auch eine Automatisierung, die die Technologie noch nicht erreicht hat.

Dies kann zu einer Selbstzufriedenheit des Fahrers führen. Der Autopilot hat bei vielen tödlichen Unfällen eine Rolle gespielt, in einigen Fällen, weil die Fahrer nicht bereit waren, die Kontrolle über das Auto zu übernehmen.

Mr. Musk fördert den Autopiloten seit langem als Mittel zur Verbesserung der Sicherheit, und die vierteljährlichen Sicherheitsberichte von Tesla scheinen ihn zu unterstützen. Aber eine aktuelle Studie des Virginia Transportation Research Council, einer Abteilung des Verkehrsministeriums von Virginia, zeigt, dass diese Berichte nicht das sind, was sie zu sein scheinen.

„Wir wissen, dass Autos mit Autopilot seltener abstürzen als ohne Autopilot“, sagte Noah Goodall, ein Forscher des Rates, der sich mit Sicherheits- und Betriebsproblemen rund um autonome Fahrzeuge befasst. „Aber werden sie auf die gleiche Weise, auf den gleichen Straßen, zur gleichen Tageszeit und von den gleichen Fahrern gefahren?“

Bei der Analyse von Polizei- und Versicherungsdaten hat das Versicherungsinstitut für Straßenverkehrssicherheit, eine gemeinnützige Forschungsorganisation, die von der Versicherungsbranche finanziert wird, festgestellt, dass ältere Technologien wie automatische Notbremsung und Spurverlassenswarnung die Sicherheit verbessert haben. Aber die Organisation sagt, dass Studien noch nicht gezeigt haben, dass Fahrerassistenzsysteme ähnliche Vorteile bieten.

Ein Teil des Problems besteht darin, dass Polizei- und Versicherungsdaten nicht immer angeben, ob diese Systeme zum Zeitpunkt eines Unfalls verwendet wurden.

Die Bundesbehörde für Autosicherheit hat Unternehmen angewiesen, innerhalb von 30 Sekunden nach dem Aufprall Daten zu Unfällen bereitzustellen, bei denen Fahrerassistenztechnologien eingesetzt wurden. Dies könnte ein breiteres Bild davon liefern, wie diese Systeme funktionieren.

Aber selbst mit diesen Daten, so Sicherheitsexperten, wird es schwierig sein festzustellen, ob die Verwendung dieser Systeme sicherer ist, als sie in denselben Situationen auszuschalten.

Die Alliance for Automotive Innovation, eine Handelsgruppe für Automobilunternehmen, hat davor gewarnt, dass die Daten der Bundessicherheitsbehörde falsch ausgelegt oder falsch dargestellt werden könnten. Einige unabhängige Experten äußern ähnliche Bedenken.

„Meine große Sorge ist, dass wir detaillierte Daten zu Unfällen mit diesen Technologien haben werden, ohne vergleichbare Daten zu Unfällen mit herkömmlichen Autos“, sagte Matthew Wansley, Professor an der Cardozo School of Law in New York, der sich auf aufkommende Automobiltechnologien spezialisiert hat und zuvor war General Counsel bei einem autonomen Fahrzeug-Start-up namens nuTonomy. „Es könnte möglicherweise so aussehen, als wären diese Systeme viel weniger sicher, als sie wirklich sind.“

Aus diesem und anderen Gründen zögern die Autohersteller möglicherweise, einige Daten mit der Agentur zu teilen. Unter seiner Anordnung können Unternehmen verlangen, dass bestimmte Daten zurückgehalten werden, indem sie behaupten, dass sie Geschäftsgeheimnisse preisgeben würden.

Die Agentur sammelt auch Unfalldaten über automatisierte Fahrsysteme – fortschrittlichere Technologien, die darauf abzielen, Fahrer vollständig aus Autos zu entfernen. Diese Systeme werden oft als „selbstfahrende Autos“ bezeichnet.

Diese Technologie wird größtenteils noch in einer relativ kleinen Anzahl von Autos mit Fahrern hinter dem Lenkrad als Backup getestet. Waymo, ein Unternehmen von Googles Muttergesellschaft Alphabet, betreibt einen Dienst ohne Fahrer in den Vororten von Phoenix, und ähnliche Dienste sind in Städten wie San Francisco und Miami geplant.

In einigen Bundesstaaten sind Unternehmen bereits verpflichtet, Unfälle mit automatisierten Fahrsystemen zu melden. Auch hier sollen die bundesweiten Daten des Bundesamtes für Sicherheit zusätzliche Erkenntnisse liefern.

Die unmittelbarere Sorge gilt jedoch der Sicherheit von Autopiloten und anderen Fahrerassistenzsystemen, die in Hunderttausenden von Fahrzeugen installiert sind.

„Es gibt eine offene Frage: Erhöht der Autopilot die Unfallhäufigkeit oder verringert sie sie?“ sagte Herr Wansley. „Wir bekommen vielleicht keine vollständige Antwort, aber wir werden einige nützliche Informationen bekommen.“

source site

Leave a Reply