Minderheitengruppen schlagen Alarm wegen KI und fordern die Regierung auf, „Gleichheit und Bürgerrechte“ zu schützen

Der zunehmende Einsatz künstlicher Intelligenz wird wahrscheinlich zu voreingenommenen und diskriminierenden Ergebnissen für Minderheiten und Menschen mit Behinderungen führen, warnten mehrere Gruppen diese Woche die Bundesregierung.

Das National Artificial Intelligence Advisory Committee, eine behördenübergreifende Gruppe unter der Leitung des Handelsministeriums, hielt am Dienstag online eine öffentliche Anhörung ab, um politische Entscheidungsträger darüber zu informieren, wie die Regierung den Einsatz von KI am besten verwalten kann. Die meisten Zeugen sagten den Diskussionsteilnehmern, dass Voreingenommenheit und Diskriminierung die größten Ängste für die Menschen seien, die sie vertreten.

Patrice Willoughby, Vizepräsidentin für Politik und Gesetzgebung bei der NAACP, sagte den Diskussionsteilnehmern, dass Technologie bereits als Mittel zur Entrechtung und Irreführung von Wählern eingesetzt worden sei, und sagte, ihre Gruppe sei aus demselben Grund besorgt über KI.

„In diesem Zusammenhang haben wir große Bedenken hinsichtlich des Aufstiegs und der Nutzung von KI auf ihren verschiedenen Plattformen“, sagte sie. „Der Aufstieg der KI und ihre Benutzerfreundlichkeit bereiten uns wirklich große Sorgen.“

„ENTSCHEIDENDE MASSNAHMEN“ ZUR KI KOMMEN IN DEN NÄCHSTEN WOCHEN, SAGT DAS WEISSE HAUS

Die Biden-Regierung wurde diese Woche aufgefordert, dafür zu sorgen, dass die Politik der künstlichen Intelligenz – ein Bereich, den Vizepräsident Harris leitet – so reguliert wird, dass „Gleichheit“ bei den Ergebnissen gewährleistet wird. (Getty Images)

Frank Torres, der sich auf der Leadership Conference on Civil and Human Rights mit Bürgerrechtsfragen befasst, sagte dem Gremium, dass die Regierung die Verantwortung übernehmen und Mechanismen schaffen müsse, um sicherzustellen, dass KI-Systeme auf eine Weise entwickelt und genutzt werden, die „Gleichheit und Bürgerrechte“ fördert.

„Um das volle Potenzial dieser Technologie auszuschöpfen, müssen wir uns damit befassen und sicherstellen, dass sie wirklich frei von Vorurteilen ist und nicht zu diskriminierenden Ergebnissen führt“, sagte er. „Es muss sich auf Gerechtigkeit und Bürgerrechte konzentrieren.“

Mehrere Beobachter haben davor gewarnt, dass KI möglicherweise zu diskriminierenden Ergebnissen führt, da sie voreingenommene Datensätze verwendet. Die Verwendung „schlechter Daten“ könnte dazu führen, dass KI-Systeme Kredite ablehnen oder andere Entscheidungen treffen, die diese Voreingenommenheit aufrechterhalten.

Die im Ballon aufsteigende KI-gesteuerte Gesichtserkennungsbranche löst Besorgnis über Voreingenommenheit und Datenschutz aus: „Sie werden identifiziert“

Bild des Kapitols mit KI

Die Biden-Regierung und der Kongress prüfen, wie KI reguliert werden kann, und das Weiße Haus scheint bereit zu sein, als Erstes Maßnahmen zu ergreifen. (Getty Images)

In der Diskussion des Beratungsausschusses sagte Lisa Rice, Präsidentin und CEO der National Fair Housing Alliance, dass die Technologie der Vergangenheit gezeigt habe, dass die Regierung bei der Regulierung von KI auf Voreingenommenheit achten müsse.

„Jedes algorithmische System, das wir analysiert haben – Kreditbewertungssysteme, risikobasierte Preisgestaltung, automatisiertes Underwriting, Versicherungsbewertung, digitales Marketing, Mieterauswahl, Gesichtserkennung, automatisierte Bewertung und andere Modelle – erzeugt Voreingenommenheit und fügt den Verbrauchern unermesslichen Schaden zu.“ Sie sagte. „Maschinen haben einfach die menschliche Voreingenommenheit nachgeahmt und ersetzt.“

JudeAnne Health, nationale Programmdirektorin der Hispanic Technology & Telecommunications Partnership, sagte, ihre Gruppe sei besorgt über KI, die auf voreingenommenen Daten basiert und „bestehende Ungleichheiten verschärfen könnte“. Sie schlug eine strenge Aufsicht durch die Bundesregierung vor, die direkt auf die Bekämpfung von Voreingenommenheit abzielen sollte.

„Umfasst diese Aufsicht eine vielfältige Gruppe von Interessenvertretern, Hintergründen, Sprachen und Ausbildungen?“ Sie fragte. „Nicht nur Wissenschaftler, sondern auch Soziologen, Community-Mitglieder.“

Wie lässt sich die KI-Bedrohung eindämmen? LASSEN SIE DIE ANWÄLTE LOSEN

Emily Chi, leitende Direktorin bei Asian Americans Advancing Justice, sagte, ihre Gruppe sei auch besorgt über Diskriminierung, die „bereits in den Daten verankert“ sei. Auf die Frage nach einem Beispiel für Voreingenommenheit in der KI sagte Chi, dass einige Content-Moderationssysteme nicht in der Lage seien, Inhalte zu entfernen, die für asiatische Amerikaner diskriminierend oder „schädlich“ seien, und dass Systeme vorhanden sein müssten, um sicherzustellen, dass diese Art von Versäumnissen korrigiert werde.

„Wir gehen direkt zu den Menschen, die in unserer Gesellschaft am stärksten gefährdet und unterdrückt sind, und verstehen, wie sich diese Technologien auf ihre alltäglichen Erfahrungen auswirken“, sagte Chi.

GhatGPT openAI-Logo

Generative KI wie ChatGPT haben Befürchtungen hinsichtlich voreingenommener Ergebnisse geweckt, da KI häufiger eingesetzt wird. (REUTERS/Dado Ruvic/Illustration)

Ein anderer Zeuge sagte, die Regierung müsse darauf achten, wie KI behinderte Menschen diskriminieren könne.

„Wir werden das volle Potenzial von Technologie für Menschen mit Behinderungen nur dann in allen Lebensbereichen nutzen können, wenn diese Technologie, einschließlich KI, von Anfang an so konzipiert ist, dass sie zugänglich und frei von Behindertenfeindlichkeit ist“, sagte Maria Town, Präsidentin und CEO von die American Association of People with Disabilities.

„Während viele davon ausgehen, dass automatisierte Einstellungsentscheidungstools frei von Voreingenommenheit sind, weil der menschliche Faktor wegfällt, haben wir bei AAPD wiederholt gesehen, dass KI-basierte Tools die Präferenzen der Menschen widerspiegeln, die sie herstellen, und der größeren Gesellschaft, in der diese Tools existieren.“ ,” Sie sagte.

KLICKEN SIE HIER, UM DIE FOX NEWS-APP ZU ERHALTEN

Der Beratungsausschuss hat eine Handvoll Anhörungen abgehalten und wird in der nächsten Woche noch einige weitere abhalten, um Beiträge zu sammeln, die in den Prozess der Biden-Regierung zur Bestimmung, wann und wie KI reguliert werden soll, einfließen werden. Erst diese Woche sagte das Weiße Haus, dass es in den nächsten Wochen mehrere Versuche geben werde, Bundesregeln für KI festzulegen, und der Kongress prüfe auch, wie KI reguliert werden könne.

source site

Leave a Reply