Wert aus Ihren Daten zu ziehen sollte nicht so schwer sein

Die potenziellen Auswirkungen der anhaltenden weltweiten Datenexplosion regen weiterhin die Fantasie an. Ein Bericht aus dem Jahr 2018 schätzt, dass jede Sekunde jeden Tag durchschnittlich 1,7 MB Daten produziert – und die jährliche Datenerstellung hat sich seitdem mehr als verdoppelt und wird sich bis 2025 voraussichtlich wieder mehr als verdoppeln. Ein Bericht des McKinsey Global Institute schätzt, dass Der geschickte Einsatz von Big Data könnte zusätzliche Wirtschaftsaktivitäten in Höhe von 3 Billionen US-Dollar generieren und so unterschiedliche Anwendungen wie selbstfahrende Autos, personalisierte Gesundheitsversorgung und rückverfolgbare Lebensmittellieferketten ermöglichen.

Das Hinzufügen all dieser Daten zum System führt jedoch auch zu Verwirrung darüber, wie sie gefunden, verwendet, verwaltet und legal, sicher und effizient geteilt werden können. Woher stammt ein bestimmter Datensatz? Wem gehört was? Wer darf bestimmte Dinge sehen? Wo wohnt es? Kann es geteilt werden? Kann es verkauft werden? Können die Leute sehen, wie es verwendet wurde?

Da die Anwendungen von Daten wachsen und allgegenwärtiger werden, stellen Hersteller, Verbraucher sowie Eigentümer und Verwalter von Daten fest, dass sie kein Playbook haben, dem sie folgen können. Verbraucher möchten eine Verbindung zu Daten herstellen, denen sie vertrauen, damit sie die bestmöglichen Entscheidungen treffen können. Hersteller benötigen Tools, um ihre Daten sicher mit denen zu teilen, die sie benötigen. Aber Technologieplattformen greifen zu kurz, und es gibt keine wirklichen gemeinsamen Quellen der Wahrheit, um beide Seiten zu verbinden.

Wie finden wir Daten? Wann sollten wir es verschieben?

In einer perfekten Welt würden Daten frei fließen wie ein für alle zugängliches Dienstprogramm. Es könnte verpackt und wie Rohstoffe verkauft werden. Es konnte leicht und ohne Komplikationen von jedem eingesehen werden, der dazu berechtigt war. Seine Ursprünge und Bewegungen könnten verfolgt werden, wodurch alle Bedenken hinsichtlich schändlicher Verwendungen irgendwo auf der Strecke beseitigt werden.

Die heutige Welt funktioniert natürlich nicht so. Die massive Datenexplosion hat eine lange Liste von Problemen und Möglichkeiten geschaffen, die es schwierig machen, Informationen zu teilen.

Da Daten fast überall innerhalb und außerhalb eines Unternehmens erstellt werden, besteht die erste Herausforderung darin, zu identifizieren, was gesammelt wird und wie es organisiert werden kann, damit es gefunden werden kann.

Mangelnde Transparenz und Souveränität über gespeicherte und verarbeitete Daten und Infrastrukturen führt zu Vertrauensproblemen. Heutzutage ist es teuer und ineffizient, Daten von mehreren Technologie-Stacks an zentrale Speicherorte zu verschieben. Das Fehlen offener Metadatenstandards und allgemein zugänglicher Anwendungsprogrammierschnittstellen kann den Zugriff auf und die Nutzung von Daten erschweren. Das Vorhandensein sektorspezifischer Datenontologien kann es für Personen außerhalb des Sektors erschweren, von neuen Datenquellen zu profitieren. Mehrere Interessengruppen und Schwierigkeiten beim Zugriff auf vorhandene Datendienste können die gemeinsame Nutzung ohne ein Governance-Modell erschweren.

Europa übernimmt die Führung

Trotz der Probleme werden Projekte zur gemeinsamen Nutzung von Daten im großen Stil durchgeführt. Einer, der von der Europäischen Union und einer gemeinnützigen Gruppe unterstützt wird, schafft einen interoperablen Datenaustausch namens Gaia-X, bei dem Unternehmen Daten unter dem Schutz strenger europäischer Datenschutzgesetze austauschen können. Der Austausch ist als Gefäß für den branchenübergreifenden Datenaustausch und als Repository für Informationen über Datendienste rund um künstliche Intelligenz (KI), Analytik und das Internet der Dinge gedacht.

Hewlett Packard Enterprise hat vor kurzem ein Lösungs-Framework angekündigt, um Unternehmen, Dienstanbieter und öffentliche Organisationen bei der Beteiligung an Gaia-X zu unterstützen. Die Dataspaces-Plattform, die sich derzeit in der Entwicklung befindet und auf offenen Standards und Cloud-nativ basiert, demokratisiert den Zugriff auf Daten, Datenanalysen und KI, indem sie Domänenexperten und allgemeinen Benutzern zugänglicher gemacht wird. Es bietet einen Ort, an dem Experten aus Domänenbereichen vertrauenswürdige Datensätze leichter identifizieren und Analysen von Betriebsdaten sicher durchführen können – ohne dass die Daten immer kostspielig an zentrale Orte verschoben werden müssen.

Durch die Verwendung dieses Frameworks zur Integration komplexer Datenquellen in IT-Landschaften können Unternehmen Datentransparenz in großem Maßstab bereitstellen, sodass jeder – ob Data Scientist oder nicht – weiß, über welche Daten er verfügt, wie er darauf zugreifen und wie sie verwendet werden können in Echtzeit.

Auch Initiativen zur gemeinsamen Nutzung von Daten stehen ganz oben auf der Agenda der Unternehmen. Eine wichtige Priorität für Unternehmen ist die Überprüfung von Daten, die zum Trainieren interner KI- und maschineller Lernmodelle verwendet werden. KI und maschinelles Lernen werden in Unternehmen und der Industrie bereits weit verbreitet eingesetzt, um kontinuierliche Verbesserungen in allen Bereichen von der Produktentwicklung über die Personalbeschaffung bis hin zur Fertigung voranzutreiben. Und wir fangen gerade erst an. IDC prognostiziert, dass der globale KI-Markt von 328 Milliarden US-Dollar im Jahr 2021 auf 554 Milliarden US-Dollar im Jahr 2025 wachsen wird.

Um das wahre Potenzial der KI auszuschöpfen, müssen Regierungen und Unternehmen das kollektive Erbe aller Daten, die diese Modelle antreiben, besser verstehen. Wie treffen KI-Modelle ihre Entscheidungen? Haben sie Vorurteile? Sind sie vertrauenswürdig? Konnten nicht vertrauenswürdige Personen auf die Daten zugreifen oder diese ändern, auf die ein Unternehmen sein Modell trainiert hat? Die transparentere und effizientere Verbindung von Datenproduzenten und Datenkonsumenten kann helfen, einige dieser Fragen zu beantworten.

Datenreife aufbauen

Unternehmen werden nicht über Nacht alle ihre Daten freischalten können. Aber sie können sich darauf vorbereiten, Technologien und Managementkonzepte zu nutzen, die zu einer Data-Sharing-Mentalität beitragen. Sie können sicherstellen, dass sie die Reife entwickeln, um Daten strategisch und effektiv zu konsumieren oder zu teilen, anstatt dies auf Ad-hoc-Basis zu tun.

Datenproduzenten können sich auf eine breitere Verteilung von Daten vorbereiten, indem sie eine Reihe von Schritten unternehmen. Sie müssen verstehen, wo sich ihre Daten befinden und wie sie diese sammeln. Dann müssen sie sicherstellen, dass die Personen, die die Daten konsumieren, die Möglichkeit haben, zur richtigen Zeit auf die richtigen Datensätze zuzugreifen. Das ist der Ausgangspunkt.

Dann kommt der schwierigere Teil. Wenn ein Datenproduzent über Verbraucher verfügt – die sich innerhalb oder außerhalb des Unternehmens befinden können – müssen diese eine Verbindung zu den Daten herstellen. Das ist sowohl eine organisatorische als auch eine technologische Herausforderung. Viele Organisationen wünschen sich eine Governance über die gemeinsame Nutzung von Daten mit anderen Organisationen. Die Demokratisierung von Daten – zumindest in der Lage zu sein, sie organisationsübergreifend zu finden – ist ein Problem der organisatorischen Reife. Wie gehen sie damit um?

Unternehmen, die zur Automobilindustrie beitragen, teilen Daten aktiv mit Anbietern, Partnern und Subunternehmern. Es braucht viele Teile – und viel Koordination – um ein Auto zusammenzubauen. Partner teilen bereitwillig Informationen über alles, von Motoren über Reifen bis hin zu internetfähigen Reparaturkanälen. Automotive Dataspaces können mehr als 10.000 Anbieter bedienen. In anderen Branchen kann es jedoch eher abgeschottet sein. Einige große Unternehmen möchten möglicherweise keine sensiblen Informationen teilen, auch nicht innerhalb ihres eigenen Netzwerks von Geschäftseinheiten.

Datenmentalität schaffen

Unternehmen auf beiden Seiten des Consumer-Producer-Kontinuums können ihre Mentalität zur gemeinsamen Nutzung von Daten verbessern, indem sie sich diese strategischen Fragen stellen:

  • Wenn Unternehmen KI- und Machine-Learning-Lösungen entwickeln, woher beziehen die Teams dann ihre Daten? Wie stellen sie eine Verbindung zu diesen Daten her? Und wie verfolgen sie diese Historie, um die Vertrauenswürdigkeit und Herkunft der Daten sicherzustellen?
  • Wenn Daten einen Wert für andere haben, welchen Monetarisierungspfad verfolgt das Team heute, um diesen Wert zu steigern, und wie wird er gesteuert?
  • Wenn ein Unternehmen bereits Daten austauscht oder monetarisiert, kann es dann eine breitere Palette von Diensten auf mehreren Plattformen autorisieren – vor Ort und in der Cloud?
  • Wie läuft die Koordination dieser Anbieter mit denselben Datensätzen und Updates heute für Unternehmen ab, die Daten mit Anbietern austauschen müssen?
  • Wollen die Hersteller ihre Daten replizieren oder die Leute dazu zwingen, Modelle zu ihnen zu bringen? Datasets können so groß sein, dass sie nicht repliziert werden können. Sollte ein Unternehmen Softwareentwickler auf seiner Plattform hosten, wo sich seine Daten befinden, und die Modelle ein- und auslagern?
  • Wie können Mitarbeiter in einer Abteilung, die Daten konsumiert, die Praktiken der vorgelagerten Datenproduzenten innerhalb ihrer Organisation beeinflussen?

Aktiv werden

Die Datenrevolution schafft Geschäftsmöglichkeiten – zusammen mit viel Verwirrung darüber, wie diese Daten auf strategische Weise gesucht, gesammelt, verwaltet und Erkenntnisse daraus gewonnen werden können. Datenproduzenten und Datenkonsumenten werden immer stärker voneinander getrennt. HPE baut eine Plattform auf, die sowohl lokale als auch öffentliche Clouds unterstützt, wobei Open Source als Grundlage und Lösungen wie die HPE Ezmeral Software Platform verwendet werden, um die gemeinsame Basis zu schaffen, die beide Seiten benötigen, um die Datenrevolution für sie zum Laufen zu bringen.

Lesen Sie den Originalartikel auf Enterprise.nxt.

Dieser Inhalt wurde von Hewlett Packard Enterprise erstellt. Es wurde nicht von der Redaktion der MIT Technology Review geschrieben.

source site

Leave a Reply