Die Menschen sollten keinen so hohen Preis dafür zahlen, dass sie KI-Schäden anprangern

Die G7 haben sich gerade auf einen (freiwilligen) Verhaltenskodex geeinigt, an den sich KI-Unternehmen halten sollten, da Regierungen versuchen, die durch KI-Systeme verursachten Schäden und Risiken zu minimieren. Und später in dieser Woche wird das Vereinigte Königreich voller KI-Macher und Macher am KI-Sicherheitsgipfel der Regierung teilnehmen, einem Versuch, globale Regeln zur KI-Sicherheit auszuarbeiten.

Insgesamt deuten diese Ereignisse darauf hin, dass das vom Silicon Valley propagierte Narrativ über das „existenzielle Risiko“, das von KI ausgeht, im öffentlichen Diskurs zunehmend dominant zu sein scheint.

Das ist besorgniserregend, denn die Konzentration auf die Behebung hypothetischer Schäden, die in der Zukunft entstehen könnten, lenkt die Aufmerksamkeit von den sehr realen Schäden ab, die KI heute verursacht. „Bestehende KI-Systeme, die nachweislich Schaden anrichten, sind gefährlicher als hypothetische ‚empfindungsfähige‘ KI-Systeme, weil sie real sind“, schreibt Joy Buolamwini, eine renommierte KI-Forscherin und Aktivistin, in ihren neuen Memoiren „Demasking AI: My Mission to Protect What Is Human“. eine Welt der Maschinen. Lesen Sie mehr über ihre Gedanken in einem Auszug aus ihrem Buch, das morgen erscheint.

Ich hatte das Vergnügen, mit Buolamwini über ihre Lebensgeschichte und darüber zu sprechen, was sie heute in der KI beschäftigt. Buolamwini ist eine einflussreiche Stimme auf diesem Gebiet. Ihre Forschung zu Voreingenommenheit bei Gesichtserkennungssystemen veranlasste Unternehmen wie IBM, Google und Microsoft, ihre Systeme zu ändern und davon Abstand zu nehmen, ihre Technologie an Strafverfolgungsbehörden zu verkaufen.

Jetzt hat Buolamwini ein neues Ziel im Visier. Sie fordert ein radikales Umdenken beim Aufbau von KI-Systemen, beginnend mit ethischeren, einvernehmlicheren Datenerfassungspraktiken. „Was mich beunruhigt, ist, dass wir so vielen Unternehmen eine Freikarte geben oder der Innovation applaudieren und gleichzeitig den Kopf verdrehen [away from the harms]„, erzählte mir Buolamwini. Lesen Sie mein Interview mit ihr.

Während Buolamwinis Geschichte in vielerlei Hinsicht eine inspirierende Geschichte ist, ist sie auch eine Warnung. Buolamwini macht seit fast einem Jahrzehnt auf die Schäden von KI aufmerksam und hat einige beeindruckende Dinge getan, um das Thema ins öffentliche Bewusstsein zu rücken. Was mich wirklich beeindruckte, war der Tribut, den das Reden von ihr verlangte. In dem Buch beschreibt sie, dass sie sich wegen schwerer Erschöpfung in die Notaufnahme einweisen musste, nachdem sie versucht hatte, zu viele Dinge auf einmal zu tun – Interessenvertretung zu betreiben, ihre gemeinnützige Organisation Algorithmic Justice League zu gründen, an Anhörungen im Kongress teilzunehmen und ihre Doktorarbeit am MIT zu schreiben .

Sie ist nicht allein. Buolamwinis Erfahrung spiegelt sich in einem Artikel wider, den ich vor fast genau einem Jahr darüber geschrieben habe, wie verantwortungsvolle KI zu Burnout-Problemen führt.

Unter anderem dank Forschern wie Buolamwini sehen sich Technologieunternehmen einer stärkeren öffentlichen Kontrolle ihrer KI-Systeme ausgesetzt. Unternehmen erkannten, dass sie verantwortungsvolle KI-Teams brauchten, um sicherzustellen, dass ihre Produkte so entwickelt werden, dass potenzielle Schäden abgemildert werden. Diese Teams bewerten, wie sich die Art und Weise, wie diese Systeme entworfen, entwickelt und eingesetzt werden, auf unser Leben, unsere Gesellschaften und unsere politischen Systeme auswirkt.

source site

Leave a Reply