Europa schlägt eine strikte Regulierung der künstlichen Intelligenz vor.


Die Europäische Union hat am Mittwoch strenge Vorschriften für den Einsatz künstlicher Intelligenz vorgestellt, eine einzigartige Politik, die beschreibt, wie Unternehmen und Regierungen eine Technologie einsetzen können, die als einer der bedeutendsten, aber ethisch belasteten wissenschaftlichen Durchbrüche angesehen wird letzte Erinnerung.

Der Regelentwurf, der auf einer Pressekonferenz in Brüssel vorgestellt wurde, würde dem Einsatz künstlicher Intelligenz bei einer Reihe von Aktivitäten Grenzen setzen, von selbstfahrenden Autos über Einstellungsentscheidungen bis hin zur Auswahl der Einschulung und der Bewertung von Prüfungen. Es würde auch den Einsatz künstlicher Intelligenz durch Strafverfolgungs- und Gerichtssysteme abdecken – Bereiche, die als „hohes Risiko“ eingestuft werden, weil sie die Sicherheit oder die Grundrechte der Menschen gefährden könnten.

Einige Verwendungen wären insgesamt verboten, einschließlich der Live-Gesichtserkennung im öffentlichen Raum, obwohl es einige Ausnahmen für die nationale Sicherheit und andere Zwecke geben würde.

Die Regeln haben weitreichende Auswirkungen auf große Technologieunternehmen wie Amazon, Google, Facebook und Microsoft, die Ressourcen in die Entwicklung künstlicher Intelligenz gesteckt haben, aber auch auf zahlreiche andere Unternehmen, die diese Technologie in den Bereichen Gesundheitswesen, Versicherungen und Finanzen einsetzen. Die Regierungen haben Versionen der Technologie in der Strafjustiz und bei der Zuweisung öffentlicher Dienste eingesetzt.

Unternehmen, die gegen die neuen Vorschriften verstoßen, deren Debatte und Umsetzung voraussichtlich mehrere Jahre dauern wird, könnten mit Bußgeldern von bis zu 6 Prozent des weltweiten Umsatzes rechnen.

Künstliche Intelligenz – bei der Maschinen darauf trainiert werden, durch das Studieren großer Datenmengen selbstständig zu arbeiten – wird von Technologen, Geschäftsführern und Regierungsbeamten als eine der transformativsten Technologien der Welt angesehen.

Mit zunehmender Komplexität der Systeme kann es jedoch schwieriger sein, festzustellen, warum die Technologie eine Entscheidung trifft. Dieses Problem könnte sich verschlimmern, wenn Computer leistungsfähiger werden. Forscher haben ethische Fragen zu seiner Verwendung aufgeworfen, die darauf hindeuten, dass es bestehende Vorurteile in der Gesellschaft aufrechterhalten, in die Privatsphäre eindringen oder dazu führen könnte, dass mehr Arbeitsplätze automatisiert werden.

“In Bezug auf künstliche Intelligenz ist Vertrauen ein Muss und kein schönes”, sagte Margrethe Vestager, Executive Vice President der Europäischen Kommission, die die digitale Politik für den 27-Nationen-Block überwacht, in einer Erklärung. “Mit diesen wegweisenden Regeln ist die EU Vorreiter bei der Entwicklung neuer globaler Normen, um sicherzustellen, dass der KI vertraut werden kann.”

Mit der Einführung des Regelungsentwurfs versucht die Europäische Union, sich weiter als der weltweit aggressivste Wachhund der Technologiebranche zu etablieren. Der Block hat bereits die weltweit weitreichendsten Datenschutzbestimmungen erlassen und debattiert darüber hinaus über zusätzliche Gesetze zum Kartellrecht und zur Moderation von Inhalten.

In Washington werden auch die Risiken künstlicher Intelligenz berücksichtigt. Diese Woche warnte die Federal Trade Commission vor dem Verkauf von Systemen für künstliche Intelligenz, die rassistisch voreingenommene Algorithmen verwenden oder die „Menschen Beschäftigung, Wohnen, Kredit, Versicherung oder andere Leistungen verweigern“ könnten.



Source link

Leave a Reply