Konzentrieren Sie sich auf die Probleme, die künstliche Intelligenz heute verursacht

Diskussionen über künstliche Intelligenz sind oft weit entfernt von der Realität, wie sie in der heutigen Welt eingesetzt wird. Anfang des Jahres erklärten Führungskräfte von Anthropic, Google DeepMind, OpenAI und anderen KI-Unternehmen in einem gemeinsamen Brief, dass „die Eindämmung des Risikos des Aussterbens durch KI neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein sollte.“ ” Im Vorfeld des kürzlich von ihm einberufenen KI-Gipfels warnte der britische Premierminister Rishi Sunak, dass „die Menschheit die Kontrolle über KI völlig verlieren könnte“. Existenzielle Risiken – oder X-Risiken, wie sie in KI-Kreisen manchmal genannt werden – erinnern an Blockbuster-Science-Fiction-Filme und spielen mit den tiefsten Ängsten vieler Menschen.

Aber KI stellt bereits jetzt wirtschaftliche und physische Bedrohungen dar – solche, die den am stärksten gefährdeten Menschen der Gesellschaft unverhältnismäßig großen Schaden zufügen. Einigen Personen wurde fälschlicherweise die Krankenversicherung verweigert oder sie wurden aufgrund von Algorithmen, die angeblich Kriminalität vorhersagen, in Gewahrsam gehalten. Bei bestimmten Anwendungen künstlicher Intelligenz steht ausdrücklich Menschenleben auf dem Spiel, beispielsweise bei KI-gestützten Zielauswahlsystemen, wie sie das israelische Militär in Gaza eingesetzt hat. In anderen Fällen haben Regierungen und Unternehmen künstliche Intelligenz eingesetzt, um die Öffentlichkeit zu entmachten und ihre eigenen Beweggründe auf subtile Weise zu verbergen: in Arbeitslosensystemen, die darauf ausgelegt sind, Sparpolitik einzubetten; in Systemen zur Arbeitnehmerüberwachung, die die Autonomie untergraben sollen; in Emotionserkennungssystemen, die, obwohl sie auf fehlerhaften wissenschaftlichen Erkenntnissen basieren, Entscheidungen darüber leiten, wen man rekrutiert und einstellt.

Unsere Organisation, das AI Now Institute, gehörte zu einer kleinen Anzahl von Überwachungsgruppen, die beim Sunak-Gipfel anwesend waren. Wir saßen an Tischen, an denen Weltführer und Technologiemanager über Bedrohungen für hypothetische (körperlose, rassenlose, geschlechtslose) „Menschen“ am unsicheren Horizont debattierten. Die Veranstaltung verdeutlichte, dass die meisten Debatten über die Richtung der KI im Verborgenen stattfinden.

Der Begriff künstliche Intelligenz hat in den letzten sieben Jahrzehnten unterschiedliche Bedeutungen gehabt, aber die aktuelle Version der KI ist ein Produkt der enormen wirtschaftlichen Macht, die große Technologieunternehmen in den letzten Jahren aufgebaut haben. Die für den Aufbau von KI in großem Maßstab erforderlichen Ressourcen – riesige Datensätze, Zugriff auf Rechenleistung zu deren Verarbeitung, hochqualifizierte Arbeitskräfte – sind stark auf eine kleine Handvoll Unternehmen konzentriert. Und die Anreizstrukturen der Branche werden von den Geschäftsbedürfnissen der Branchenakteure geprägt, nicht von der breiten Öffentlichkeit.

„Im Kampf mit Microsoft setzt Google auf ein medizinisches KI-Programm, um die Gesundheitsbranche zu knacken“, a Wallstreet Journal Schlagzeile diesen Sommer erklärt. Die beiden Technologiegiganten konkurrieren miteinander und mit kleineren Konkurrenten bei der Entwicklung von Chatbots, die Ärzten – insbesondere solchen, die in unterfinanzierten klinischen Umgebungen arbeiten – dabei helfen sollen, schnell Daten abzurufen und Antworten auf medizinische Fragen zu finden. Google hat ein großes Sprachmodell namens Med-PaLM 2 in mehreren Krankenhäusern getestet, darunter auch im Mayo Clinic-System. Das Modell wurde auf die Fragen und Antworten für ärztliche Approbationsprüfungen trainiert.

Die Technologiegiganten zeichnen sich dadurch aus, dass sie Produkte auf den Markt bringen, die für die meisten Menschen einigermaßen gut funktionieren, für andere jedoch völlig versagen, und zwar fast immer für Menschen, die in der Gesellschaft strukturell benachteiligt sind. Die Toleranz der Industrie gegenüber solchen Ausfällen ist ein weit verbreitetes Problem, die Gefahr, die sie darstellen, ist jedoch bei Anwendungen im Gesundheitswesen am größten, bei denen ein hoher Sicherheitsstandard gelten muss. Googles eigene Recherche wirft erhebliche Zweifel auf. Laut einem Artikel vom Juli in Natur Laut Unternehmensforschern stellten Kliniker fest, dass 18,7 Prozent der Antworten, die von einem Vorgänger-KI-System, Med-PaLM, erstellt wurden, „unangemessene oder falsche Inhalte“ enthielten – in einigen Fällen Fehler von großer klinischer Bedeutung – und 5,9 Prozent der Antworten wahrscheinlich dazu beitrugen ein gewisses Maß an Schaden, in einigen Fällen auch „Tod oder schwerer Schaden“. Eine Preprint-Studie, die noch nicht von Experten begutachtet wurde, legt nahe, dass Med-PaLM 2 bei einer Reihe von Messungen besser abschneidet, aber viele Aspekte des Modells, einschließlich des Ausmaßes, in dem Ärzte es in Gesprächen mit echten Patienten verwenden, bleiben rätselhaft.

„Ich habe nicht das Gefühl, dass diese Art von Technologie bereits an einem Punkt angekommen ist, an dem ich sie mir im Gesundheitswesen meiner Familie wünschen würde“, sagte Greg Corrado, ein leitender Forschungsdirektor bei Google, der an dem System gearbeitet hat Das Wall Street Journal. Die Gefahr besteht darin, dass solche Instrumente in der medizinischen Praxis verankert werden, ohne dass es eine formelle, unabhängige Bewertung ihrer Leistung oder ihrer Folgen gibt.

Die politische Interessenvertretung der Branchenakteure zielt ausdrücklich darauf ab, einer genauen Prüfung der Technologie zu entgehen, die sie bereits für die öffentliche Nutzung freigeben. Große KI-Unternehmen weisen Bedenken hinsichtlich ihrer eigenen Marktmacht, ihrer enormen Anreize für eine zügellose Datenüberwachung und der möglichen Auswirkungen ihrer Technologien auf die Arbeitskräfte, insbesondere auf Arbeitnehmer in der Kreativbranche, zurück. Stattdessen kümmert sich die Branche um hypothetische Gefahren, die von „Grenz-KI“ ausgehen, und zeigt große Begeisterung für freiwillige Maßnahmen wie „Red-Teaming“, bei dem Unternehmen Gruppen von Hackern einsetzen, um feindliche Angriffe auf ihre eigenen KI-Systeme zu ihren eigenen Bedingungen zu simulieren.

Glücklicherweise konzentriert sich die Biden-Regierung stärker als Sunak auf unmittelbarere Risiken. Letzte Woche veröffentlichte das Weiße Haus eine bahnbrechende Durchführungsverordnung mit einer Reihe weitreichender Bestimmungen, die sich mit den Auswirkungen von KI auf Wettbewerb, Arbeit, Bürgerrechte, Umwelt, Privatsphäre und Sicherheit befassen. In einer Rede auf dem britischen Gipfel betonte Vizepräsidentin Kamala Harris die dringenden Bedrohungen wie Desinformation und Diskriminierung, die derzeit offensichtlich seien. Auch anderswo nehmen Regulierungsbehörden das Problem ernst. Die Europäische Union bringt gerade ein Gesetz fertig, das unter anderem weitreichende Kontrollen für KI-Technologien vorsieht, die ihrer Meinung nach ein hohes Risiko darstellen, und Unternehmen dazu zwingen würde, Zusammenfassungen darüber offenzulegen, welche urheberrechtlich geschützten Daten sie zum Trainieren von KI-Tools verwenden. Solche Maßnahmen verärgern die Technologiebranche – Anfang des Jahres warf der CEO von OpenAI, Sam Altman, der EU „Überregulierung“ vor und drohte kurzzeitig mit einem Austritt aus der Union –, liegen aber durchaus im Rahmen einer demokratischen Gesetzgebung.

Die Vereinigten Staaten brauchen ein Regulierungssystem, das die zahlreichen Anwendungen von KI-Systemen prüft, die bereits in Autos, Schulen, Arbeitsplätzen und anderswo weit verbreitet sind. KI-Unternehmen, die gegen das Gesetz verstoßen, haben wenig zu befürchten. (Als die Federal Trade Commission Facebook im Jahr 2019 wegen Verstößen gegen den Datenschutz eine Geldstrafe von 5 Milliarden US-Dollar auferlegte, war das eine der höchsten Strafen, die die Regierung jemals gegen irgendjemanden verhängt hatte – und ein geringfügiges Hindernis für ein hochprofitables Unternehmen.) Die bedeutendste KI-Entwicklung ist Dies geschieht auf der Grundlage der Infrastrukturen, die einigen großen Technologieunternehmen gehören und von diesen betrieben werden. Ein großes Risiko in diesem Umfeld besteht darin, dass Führungskräfte der größten Unternehmen sich erfolgreich als die einzigen echten Experten für künstliche Intelligenz präsentieren und erwarten, dass Regulierungsbehörden und Gesetzgeber abseits stehen.

Die Amerikaner sollten nicht zulassen, dass dieselben Firmen, die das kaputte Überwachungsgeschäftsmodell für das Internet aufgebaut haben, auch eigennützige Bedingungen für die zukünftige Entwicklung der KI festlegen. Die Bürger und ihre demokratisch gewählten Vertreter müssen die Debatte darüber zurückerobern ob (nicht nur wie oder wann) KI-Systeme eingesetzt werden sollten. Bemerkenswert ist, dass viele der größten Fortschritte bei der Technologieregulierung in den Vereinigten Staaten, wie z. B. Verbote einzelner Städte für den Einsatz von Gesichtserkennung durch die Polizei und staatliche Beschränkungen der Arbeitnehmerüberwachung, mit Organisatoren in Farbgemeinschaften und Arbeitsrechtsbewegungen begannen, die normalerweise unterrepräsentiert sind in politischen Gesprächen und im Silicon Valley. Die Gesellschaft sollte sich wohlfühlen, rote Linien zu ziehen, um bestimmte Arten von Aktivitäten zu verbieten: den Einsatz von KI zur Vorhersage kriminellen Verhaltens und das Treffen von Entscheidungen am Arbeitsplatz auf der Grundlage pseudowissenschaftlicher Emotionserkennungssysteme.

Die Öffentlichkeit hat jedes Recht, eine unabhängige Bewertung neuer Technologien zu fordern und öffentlich über diese Ergebnisse zu beraten, Zugang zu den Datensätzen zu erhalten, die zum Trainieren von KI-Systemen verwendet werden, und KI-Kategorien zu definieren und zu verbieten, die überhaupt nicht entwickelt werden sollten – nicht nur, weil sie eines Tages aus eigener Initiative mit der Anreicherung von Uran oder der Entwicklung tödlicher Krankheitserreger beginnen könnten, sondern weil sie in naher Zukunft die Rechte der Bürger verletzen oder die menschliche Gesundheit gefährden. Die gut finanzierte Kampagne zur Neuausrichtung der KI-Politikagenda auf Bedrohungen an der Grenze gibt Unternehmen, die an der Gegenwart interessiert sind, freien Lauf. Der erste Schritt zur Durchsetzung der öffentlichen Kontrolle über KI besteht darin, ernsthaft zu überdenken, wer die Diskussion über die KI-Regulierungspolitik führt und wessen Interessen solche Gespräche dienen.

source site

Leave a Reply