Die Technologiebranche ist sich nicht einig darüber, was Open-Source-KI bedeutet. Das ist ein Problem.

Letztendlich muss die Community entscheiden, was sie erreichen möchte, sagt Zacchiroli: „Verfolgen Sie nur, wohin sich der Markt bewegt, damit er den Begriff ‚Open-Source-KI‘ nicht einfach übernimmt, oder versuchen Sie es?“ „Denn den Markt dazu bringen, offener zu werden und den Benutzern mehr Freiheiten zu bieten?“

Was ist der Sinn von Open Source?

Es ist fraglich, inwieweit eine Definition von Open-Source-KI die Wettbewerbsbedingungen ausgleichen wird, sagt Sarah Myers West, Co-Geschäftsführerin des AI Now Institute. Sie ist Mitautorin eines im August 2023 veröffentlichten Artikels, in dem sie den Mangel an Offenheit in vielen Open-Source-KI-Projekten aufdeckt. Es wurde aber auch deutlich, dass die riesigen Datenmengen und die Rechenleistung, die zum Trainieren modernster KI erforderlich sind, tiefere strukturelle Barrieren für kleinere Akteure schaffen, egal wie offen die Modelle sind.

Myers West glaubt auch, dass es an Klarheit darüber mangelt, was die Menschen mit der Bereitstellung von KI als Open Source erreichen wollen. „Ist es Sicherheit, ist es die Fähigkeit, akademische Forschung zu betreiben, ist es der Versuch, mehr Wettbewerb zu fördern?“ Sie fragt. „Wir müssen viel genauer sagen, was das Ziel ist und wie die Öffnung eines Systems die Verfolgung dieses Ziels verändert.“

Das OSI scheint daran interessiert zu sein, solche Gespräche zu vermeiden. Im Definitionsentwurf werden Autonomie und Transparenz als Hauptvorteile erwähnt, aber Maffulli lehnte ab, als er erklärt werden musste, warum das OSI diese Konzepte schätzt. Das Dokument enthält außerdem einen Abschnitt mit der Überschrift „Probleme außerhalb des Geltungsbereichs“, der klarstellt, dass die Definition nicht auf Fragen rund um „ethische, vertrauenswürdige oder verantwortungsvolle“ KI eingeht.

Laut Maffulli hat sich die Open-Source-Community in der Vergangenheit darauf konzentriert, die reibungslose gemeinsame Nutzung von Software zu ermöglichen und es vermieden, sich in Debatten darüber zu verzetteln, wofür diese Software verwendet werden sollte. „Das ist nicht unsere Aufgabe“, sagt er.

Aber diese Fragen seien nicht von der Hand zu weisen, sagt Warso, egal wie sehr sich die Menschen im Laufe der Jahrzehnte bemüht haben. Die Vorstellung, dass Technologie neutral sei und Themen wie Ethik „außerhalb des Rahmens“ seien, sei ein Mythos, fügt sie hinzu. Sie vermutet, dass es sich um einen Mythos handelt, der aufrechterhalten werden muss, um zu verhindern, dass die lockere Koalition der Open-Source-Community auseinanderbricht. „Ich denke, die Leute erkennen, dass es nicht real ist [the myth]aber wir brauchen das, um voranzukommen“, sagt Warso.

Über das OSI hinaus haben andere einen anderen Ansatz gewählt. Im Jahr 2022 führte eine Gruppe von Forschern Responsible AI Licenses (RAIL) ein, die Open-Source-Lizenzen ähneln, aber Klauseln enthalten, die bestimmte Anwendungsfälle einschränken können. Das Ziel, sagt Danish Contractor, ein KI-Forscher, der die Lizenz mitentwickelt hat, besteht darin, Entwicklern zu ermöglichen, zu verhindern, dass ihre Arbeit für Dinge verwendet wird, die sie für unangemessen oder unethisch halten.

„Als Forscher würde ich es hassen, wenn meine Sachen auf schädliche Weise verwendet würden“, sagt er. Und er ist nicht allein: Eine kürzlich von ihm und Kollegen durchgeführte Analyse der beliebten Model-Hosting-Plattform des KI-Startups Hugging Face ergab, dass 28 % der Models RAIL verwenden.

source site

Leave a Reply