EU-Agentur kartiert wichtige Cybersicherheitsthemen zur künstlichen Intelligenz – EURACTIV.com

Die Cybersicherheitsagentur der EU, ENISA, hat eine Reihe von Berichten über die Cybersicherheitsherausforderungen für KI veröffentlicht am Mittwoch (7. Juni).

Die Reporter wurden zeitgleich mit der von der ENISA organisierten KI-Cybersicherheitskonferenz veröffentlicht, die sich mit den Auswirkungen der Cybersicherheit in Bezug auf KI-Chatbots, Forschung und Innovation sowie den rechtlichen und industriellen Herausforderungen befasste.

„Wenn wir KI-Systeme sowohl sichern als auch den Datenschutz gewährleisten wollen, müssen wir die Funktionsweise dieser Systeme genau unter die Lupe nehmen“, sagte Juhan Lepassaar, Exekutivdirektor der EU-Agentur für Cybersicherheit.

Die EU-Länder nehmen die Cyber-Abwehrstrategie verhalten auf

Die EU-Verteidigungsminister haben am Dienstag (23. Mai) Schlussfolgerungen zur Cyberabwehr angenommen, in denen sie auf die Notwendigkeit hingewiesen haben, Doppelarbeit in der institutionellen Architektur zu vermeiden, und ihre Prioritäten für die Kompetenzentwicklung und freiwillige Koordinierung im Verteidigungssektor dargelegt haben.

Datenschutzprobleme

ENISA veröffentlichte außerdem Berichte, die sich auf die erheblichen Auswirkungen von KI auf Sicherheit und Datenschutz konzentrieren und dabei als Szenarien die prognostizierte Nachfrage nach Stromnetzen und den Bereich der medizinischen Bildgebungsdiagnose heranziehen.

„Obwohl Sicherheit und Datenschutz nicht unbedingt dasselbe sind, hängen sie eng zusammen und sind gleichermaßen wichtig“, heißt es in einem der Berichte.

ENISA empfahl, dass „der gesamte Cybersicherheits- und Datenschutzkontext (Anforderungen, Bedrohungen, Schwachstellen und Kontrollen) an den Kontext und die Realität der einzelnen Organisation angepasst werden muss“.

Forschungslücken

Zum Thema der EU-Landschaft zu KI und Cybersicherheit im Bereich Forschung und Innovation hat ENISA den aktuellen Stand der Dinge im Bereich KI und Cybersicherheit erfasst, um potenzielle Mängel zu identifizieren.

Die Analyse weist auf sechs Lücken in der Forschungsinnovation hin, darunter der Mangel an ausreichenden Informationen und Kenntnissen über das Potenzial von KI-Lösungen für die Cybersicherheit, eine angemessene Dokumentation von Einsatzprojekten und Demonstrationsaktivitäten.

Außerdem wurde angesprochen, dass nur wenige Prototypen im Rahmen von Forschung und Entwicklung (F&E) verfeinert werden, die auf den Markt kommen, dass zwischen Forschung und Wirtschaft eine Wahrnehmungslücke besteht und dass solche Projekte nur begrenzt in der Lage sind, bestehende und aufkommende Probleme zu lösen.

„Während die Auswirkungen von KI auf die gesamte Risikolandschaft Herausforderungen und Chancen mit sich bringen, stellt die Sicherung von KI und KI-spezifischen Schwachstellen sowohl organisatorische als auch F&E-Herausforderungen dar“, sagte Henrik Junklewitz von der Forschungsabteilung der Europäischen Kommission.

Laut ihrem Bericht über künstliche Intelligenz und Cybersicherheitsforschung plant ENISA die Entwicklung einer Roadmap und die Einrichtung eines Observatoriums für Forschung und Entwicklung im Bereich Cybersicherheit mit Schwerpunkt auf KI.

Gesicherte Systeme

Ein Teil der Konferenz befasste sich auch mit Best Practices zur Absicherung von KI-Systemen, am Beispiel der Rolle des Bundesamtes für Sicherheit in der Informationstechnik, BSI. Die Autorität prägt die Informationssicherheit für digitale Technologien, einschließlich KI.

„Wir müssen praxistaugliche Kriterien entwickeln, also muss KI im Anwendungsfallsystem berücksichtigt werden. Das müssen wir berücksichtigen, wenn wir über die Absicherung von KI-Systemen nachdenken“, sagte Arndt von Twickel vom Bundesamt im BSI.

Angesichts der Komplexität des Lebenszyklus eines KI-Systems entstehen neue Schwachstellen. Um ein KI-System erfolgreich abzusichern, müssen alle Phasen berücksichtigt werden, die Planung, Daten, Schulung, Bewertung und Betrieb umfassen.

„Wir untersuchen grundlegende Eigenschaften von KI in verschiedenen Bereichen. „Unser Beitrag wird darin bestehen, 1) domänen- und anwendungsfallspezifische Dokumente und technische Richtlinien zu entwickeln, 2) das verallgemeinerte KI-Modell zu aktualisieren und Ergebnisse aus den ersten beiden Punkten zu nutzen, um zur Standardisierung, Regulierung und Beratung beizutragen“, von Twickel erläuterte.

Der Fachkräftemangel stellt die Einhaltung der EU-Cybersicherheitsvorschriften auf die Probe

Auf EU-Ebene wird derzeit ein neuer Regulierungsrahmen zur Erhöhung der Cybersicherheitsresilienz eingeführt, der jedoch das Risiko birgt, den wachsenden Mangel an Cyber-Talenten bei Regulierungsbehörden und Unternehmen aufzudecken.

Eine Reihe neuer regulatorischer Anforderungen werden in Kraft treten …

Gute Praktiken

ENISA widmete ebenfalls einen Bericht auf einen Mehrschichtiges Framework für gute Cybersicherheitspraktiken für KI.

Der Bericht untersucht drei Ebenen der KI: grundlegende Cybersicherheit, die für KI relevant ist, KI-spezifische Cybersicherheit und sektorspezifische Cybersicherheit für KI für das Publikum von KI-Stakeholdern und nationalen zuständigen Behörden (NCAs).

„Es gibt unterschiedliche Schwellenwerte, Start-ups finden gute Lösungen. Die Herausforderung besteht darin, wie legen wir die Schwelle fest und wie regulieren wir die großen Player und die Nicht-EU-Player?“ betonte Rafael Popper, ein Forscher an der Universität Turku.

Der Bericht unterscheidet zwar zwischen verschiedenen Interessengruppen, stellt jedoch fest, dass die EU-Institutionen und ihre Mitgliedstaaten zusammenarbeiten müssen, um einen weltweit akzeptierten ethischen Rahmen für die Entwicklung universell akzeptabler Maßnahmen zu schaffen.

„Die Regulierung kommt auf die eine oder andere Weise. Das Schlüsselwort hier ist vertrauenswürdige KI. Die EU hat jetzt die Chance, sie vertrauenswürdig zu machen. „Es sollte als Chance und nicht als Herausforderung gesehen werden“, fügte Junklewitz hinzu.

[Edited by Luca Bertuzzi/Nathalie Weatherald]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply