Microsoft fordert KI-Regeln zur Risikominimierung

Microsoft hat am Donnerstag eine Reihe von Vorschriften für künstliche Intelligenz gebilligt, während das Unternehmen den Bedenken von Regierungen auf der ganzen Welt über die Risiken der sich schnell entwickelnden Technologie Rechnung trägt.

Microsoft, das versprochen hat, künstliche Intelligenz in viele seiner Produkte zu integrieren, schlug Vorschriften vor, darunter die Anforderung, dass Systeme, die in kritischen Infrastrukturen verwendet werden, vollständig abgeschaltet oder verlangsamt werden können, ähnlich einem Notbremssystem in einem Zug. Das Unternehmen forderte außerdem Gesetze zur Klarstellung, wann zusätzliche rechtliche Verpflichtungen für ein KI-System gelten, und forderte Kennzeichnungen, die deutlich machen, wann ein Bild oder Video von einem Computer erstellt wurde.

„Unternehmen müssen sich verstärken“, sagte Brad Smith, Präsident von Microsoft, in einem Interview über die Bemühungen um Regulierung. „Die Regierung muss schneller handeln.“ Er legte die Vorschläge am Donnerstagmorgen bei einer Veranstaltung in der Innenstadt von Washington einem Publikum vor, zu dem auch Gesetzgeber gehörten.

Der Ruf nach Regulierungen markiert einen Boom in der KI, wobei die Veröffentlichung des ChatGPT-Chatbots im November eine Welle des Interesses hervorrief. Unternehmen wie Microsoft und Googles Muttergesellschaft Alphabet haben seitdem einen Wettlauf darum unternommen, die Technologie in ihre Produkte zu integrieren. Das hat die Sorge geschürt, dass die Unternehmen Sicherheit opfern, um vor ihren Konkurrenten das nächste große Ding zu erreichen.

Der Gesetzgeber hat öffentlich seine Besorgnis geäußert, dass solche KI-Produkte, die selbst Texte und Bilder generieren können, eine Flut von Desinformation auslösen, von Kriminellen missbraucht werden und Menschen arbeitslos machen werden. Die Aufsichtsbehörden in Washington haben sich verpflichtet, wachsam gegenüber Betrügern zu sein, die KI nutzen, und vor Fällen, in denen die Systeme Diskriminierung aufrechterhalten oder Entscheidungen treffen, die gegen das Gesetz verstoßen.

Als Reaktion auf diese Prüfung fordern KI-Entwickler zunehmend, einen Teil der Last der Überwachung der Technologie auf die Regierung abzuwälzen. Sam Altman, der Geschäftsführer von OpenAI, das ChatGPT herstellt und Microsoft als Investor zählt, sagte diesen Monat vor einem Unterausschuss des Senats, dass die Regierung die Technologie regulieren müsse.

Das Manöver spiegelt Forderungen nach neuen Datenschutz- oder Social-Media-Gesetzen durch Internetunternehmen wie Google und Meta, die Muttergesellschaft von Facebook, wider. In den Vereinigten Staaten reagierten die Gesetzgeber nach solchen Forderungen nur langsam, und in den letzten Jahren gab es nur wenige neue Bundesvorschriften zum Datenschutz oder zu sozialen Medien.

In dem Interview sagte Herr Smith, dass Microsoft nicht versuche, sich der Verantwortung für die Verwaltung der neuen Technologie zu entledigen, weil das Unternehmen konkrete Ideen darlege und verspreche, einige davon umzusetzen, unabhängig davon, ob die Regierung Maßnahmen ergreife.

„Es gibt kein bisschen Verantwortungsverzicht“, sagte er.

Er befürwortete die von Herrn Altman während seiner Aussage vor dem Kongress unterstützte Idee, dass eine Regierungsbehörde von Unternehmen verlangen sollte, Lizenzen für den Einsatz „hochleistungsfähiger“ KI-Modelle zu erhalten.

„Das bedeutet, dass Sie die Regierung benachrichtigen, wenn Sie mit den Tests beginnen“, sagte Herr Smith. „Man muss die Ergebnisse mit der Regierung teilen. Auch wenn es für den Einsatz lizenziert ist, haben Sie die Pflicht, es weiterhin zu überwachen und der Regierung Bericht zu erstatten, wenn unerwartete Probleme auftreten.“

Microsoft, das im ersten Quartal mehr als 22 Milliarden US-Dollar mit seinem Cloud-Computing-Geschäft verdiente, sagte außerdem, dass diese Hochrisikosysteme nur in „lizenzierten KI-Rechenzentren“ betrieben werden dürften. Herr Smith räumte ein, dass das Unternehmen nicht „schlecht positioniert“ sei, solche Dienstleistungen anzubieten, sagte jedoch, dass viele amerikanische Wettbewerber diese ebenfalls anbieten könnten.

Microsoft fügte hinzu, dass Regierungen bestimmte KI-Systeme, die in kritischen Infrastrukturen verwendet werden, als „hohes Risiko“ einstufen und von ihnen eine „Sicherheitsbremse“ verlangen sollten. Es verglich diese Funktion mit „den Bremssystemen, die Ingenieure schon lange in andere Technologien wie Aufzüge, Schulbusse und Hochgeschwindigkeitszüge eingebaut haben“.

In einigen sensiblen Fällen, so Microsoft, müssten Unternehmen, die KI-Systeme bereitstellen, bestimmte Informationen über ihre Kunden kennen. Um Verbraucher vor Täuschung zu schützen, sollten durch KI erstellte Inhalte mit einer besonderen Kennzeichnung versehen werden, so das Unternehmen.

Herr Smith sagte, Unternehmen sollten die rechtliche „Verantwortung“ für Schäden im Zusammenhang mit KI tragen. In manchen Fällen könnte die haftbare Partei der Entwickler einer Anwendung wie Microsofts Bing-Suchmaschine sein, die die zugrunde liegende KI-Technologie einer anderen Person verwendet. Cloud-Unternehmen könnten für die Einhaltung von Sicherheitsvorschriften und anderen Regeln verantwortlich sein, fügte er hinzu.

„Wir haben nicht unbedingt die besten Informationen oder die beste Antwort, oder wir sind möglicherweise nicht der glaubwürdigste Redner“, sagte Herr Smith. „Aber wissen Sie, im Moment suchen die Leute besonders in Washington DC nach Ideen.“

source site

Leave a Reply