Eliminierung von Verzerrungen in der künstlichen Intelligenz in selbstfahrenden Fahrzeugen


Verzerrungen in der KI können auf verschiedene Weise auftreten. Es entsteht oft aus einem Mangel an Verständnis für die Art von Daten, die zur Lösung des vorliegenden Problems erforderlich sind – oder aus der unzureichenden Bereitstellung von Daten oder Szenarien für das System.

„Wenn Sie keine Daten haben, die die reale Welt genau wiedergeben, zum Beispiel in Bezug auf Wetterbedingungen, in Bezug auf verschiedene Arten von Autobahnstrukturen, in Bezug auf verschiedene Arten von städtischen Kreuzungen, bedeutet dies, dass das Fahrzeug nicht gut vorbereitet, in solchen Situationen zu reagieren”, sagte Cvijetic. “Wenn Ihr System nicht mit dieser Art von Daten trainiert wurde, dann bringen Sie Mehrdeutigkeiten in die Situation, für die das Fahrzeug nicht trainiert wurde, und das muss angegangen werden.”

Bias entsteht auch aus einem Mangel an Diversität im Entwicklungsteam.

Es könnte so einfach sein wie ein jüngeres Engineering-Team, das die Bedürfnisse eines 100-jährigen Endbenutzers möglicherweise nicht berücksichtigt, oder ein Team in San Francisco, das nicht bedenkt, dass die Technologie auch in China anwendbar sein muss – oder als sicherheitskritisch als Raum voller männlicher Ingenieure, die nicht die Notwendigkeit unterschiedlich geformter Dummies berücksichtigen.

„Es geht darum, wer sich diese Daten ansieht, wer die Daten annotiert“, sagte Vijayan von AEye. “Es ist so wichtig, dass das Design auf verschiedene Arten von Menschen angepasst ist.”

Um Verzerrungen zu reduzieren, sind verschiedene Ingenieurteams, häufige Schulungen zu den Möglichkeiten von Verzerrungen in der KI und in gewisser Weise regulatorische Maßnahmen erforderlich.

“Je diversifizierter Ihr Team ist, desto besser”, sagte Vijayan. „Als Menschen müssen wir uns bewusst sein: Jeder Mensch ist auf seine Weise voreingenommen. Das zu wissen, anzuerkennen und sich dessen bewusst zu sein, ermöglicht auch dies [biases] entfernt werden.”

Der deutsche Megazulieferer Bosch zum Beispiel führt regelmäßig „Lunch and Learns“ mit wichtigen Stakeholdern im gesamten Unternehmen durch, um seine Mitarbeiter zu schulen. Kürzlich befasste sich der Anbieter mit künstlicher Intelligenz und Inklusion.

„Sobald wir uns selbst und unsere eigenen Perspektiven verstanden haben, können wir wirklich versuchen, bewusst genug zu sein, um dies zu mildern“, sagte Carmalita Yeizman, Chief Diversity, Equity and Inclusion Officer bei Bosch in Nordamerika.

Das Center for Automotive Diversity, Inclusion & Advancement ermutigt „den Versuch, Vielfalt in das Team einzubauen, damit Sie nicht dieses Gruppendenken haben“, sagte Thompson, „aber auch Vielfalt in diesem Designteam aufzubauen, damit Sie so viel Repräsentation erhalten wie möglich, um blinde Flecken zu vermeiden.”

Es ist eine Kombination aus „wenn Sie in diesem Team keine Vielfalt haben, werden Sie sich nicht einmal bewusst, was diese blinden Flecken sind“, sagte sie und „sich all der unterschiedlichen Bedingungen bewusst zu sein“. [or use cases] das kann kommen.”

In der Europäischen Union gibt es fortlaufende Bemühungen, einen Rechtsrahmen zu schaffen, um das Risiko von Verzerrungen bei künstlicher Intelligenz zu bewerten. Die Bemühungen würden Best Practices vorschlagen, um sicherzustellen, dass die in Systemen, einschließlich derjenigen in Fahrzeugen, implementierte KI umfassend ist.

„Dies ist so wichtig für unser Kerngeschäft, für die richtige Vorgehensweise und für den Erfolg des Produkts, für die Anpassung an die Vorschriften, damit unsere Endkunden diese Produkte bequem und befähigt nutzen können“, sagte Cvijetic . “Ich denke, es untermauert viele der Gründe, warum wir dies überhaupt tun.”

Leave a Reply