EU-Kommission veröffentlicht interne Leitlinien zu ChatGPT, generativer KI – EURACTIV.com

Die Europäische Kommission hat am Dienstag (30. Mai) interne Leitlinien für Mitarbeiter zur Nutzung und Interaktion mit generativen Online-KI-Modellen herausgegeben, die sich insbesondere mit deren Einschränkungen und Risiken befassen.

Das von EURACTIV eingesehene Dokument „Leitlinien für Mitarbeiter zur Nutzung online verfügbarer generativer künstlicher Intelligenz-Tools“ und die dazugehörige Anmerkung wurden im internen Informationssystem der Kommission verfügbar gemacht.

Der Lenkungsausschuss für Informationsmanagement der Kommission hat die Leitlinien am 27. April angenommen.

„Die Richtlinien gelten für öffentlich online verfügbare Tools von Drittanbietern wie ChatGPT. Sie zielen darauf ab, den Mitarbeitern der Europäischen Kommission dabei zu helfen, die Risiken und Einschränkungen zu verstehen, die online verfügbare Tools mit sich bringen können, und sie bei der angemessenen Nutzung dieser Tools zu unterstützen“, heißt es in der Begleitnotiz.

Das Dokument soll insbesondere den Mitarbeitern Orientierung beim Umgang mit den Risiken und Einschränkungen generativer KI wie ChatGPT, Bard und Stable Diffusion geben, die Inhalte auf der Grundlage von Benutzereingaben generieren.

Die Kommission wies darauf hin, dass diese Tools das Potenzial haben, die Effizienz zu steigern und die Qualität der Arbeitsproduktivität im Büro zu verbessern, da sie beim Verfassen von Briefings und der Entwicklung von Computercodes hilfreich sein könnten, diese Verwendung jedoch auch unter bestimmten Bedingungen eingeschränkt werden muss.

In den Leitlinien heißt es, dass die „diskutierten Risiken und Einschränkungen nicht unbedingt für intern entwickelte generative KI-Tools der Kommission relevant sind.“ Von der Kommission entwickelte und/oder kontrollierte interne Tools werden von Fall zu Fall im Rahmen der bestehenden Corporate Governance für IT-Systeme bewertet.“

Darüber hinaus wird betont, dass es als „lebendes Dokument“ betrachtet werden sollte, das auf der Grundlage technologischer Entwicklungen und eingehender regulatorischer Eingriffe, insbesondere des KI-Gesetzes der EU, auf dem neuesten Stand gehalten werden muss.

Als erstes Risiko wird die Offenlegung sensibler Informationen oder personenbezogener Daten gegenüber der Öffentlichkeit genannt, da in den Richtlinien darauf hingewiesen wird, dass alle Eingaben, die in ein generatives Online-KI-Modell eingegeben werden, dann an den KI-Anbieter übermittelt werden, was bedeutet, dass sie anschließend in künftig generierte Ausgaben einfließen können.

Daher ist es EU-Mitarbeitern untersagt, „jegliche Informationen, die nicht bereits öffentlich zugänglich sind, oder personenbezogene Daten mit einem online verfügbaren generativen KI-Modell zu teilen“.

Der zweite Punkt bezieht sich auf die potenziellen Mängel des KI-Modells, die aufgrund eines unvollständigen Datensatzes oder des Designs des Algorithmus zu falschen oder voreingenommenen Antworten führen können, über die KI-Entwickler nicht immer transparent sind.

Daher gilt die Regel, dass EU-Beamte „jede Antwort, die von einem online verfügbaren generativen KI-Modell erzeugt wird, immer kritisch auf mögliche Vorurteile und sachlich ungenaue Informationen prüfen sollten“.

Darüber hinaus fügt das Dokument hinzu, dass dieser Mangel an Transparenz auch das Risiko einer Verletzung geistiger Eigentumsrechte, insbesondere des Urheberrechts, mit sich bringt, da geschützte Inhalte zum Trainieren des KI-Modells verwendet werden könnten. Da in den produzierten Ausgaben keine Nennung des verwendeten Materials erfolgt, ist es für Nutzer nahezu unmöglich, die erforderliche Genehmigung der Rechteinhaber einzuholen.

Daher werden die Mitarbeiter stets aufgefordert, kritisch zu beurteilen, ob die von der KI generierten Ergebnisse geistige Eigentumsrechte und insbesondere das Urheberrecht verletzen, und „die Ergebnisse eines generativen KI-Modells niemals direkt in öffentlichen Dokumenten zu reproduzieren, beispielsweise bei der Gründung einer Kommission.“ Texte, insbesondere rechtsverbindliche Texte.“

Abschließend wird in dem Dokument betont, dass generative KI-Modelle möglicherweise eine lange Reaktionszeit haben oder nicht immer verfügbar sind. Daher ist es den Mitarbeitern der Kommission untersagt, sich bei kritischen und zeitkritischen Aufgaben auf diese Tools zu verlassen.

[Edited by Alice Taylor]

Lesen Sie mehr mit EURACTIV


source site

Leave a Reply