Bewältigung von KI-Risiken: Ihr Ruf steht auf dem Spiel

Beim Risiko kommt es vor allem auf den Kontext an

Beim Risiko kommt es vor allem auf den Kontext an. Tatsächlich besteht eines der größten Risiken darin, es nicht anzuerkennen oder zu verstehen dein Kontext: Deshalb müssen Sie bei der Risikobewertung dort beginnen.

Dies ist insbesondere im Hinblick auf die Reputation wichtig. Denken Sie zum Beispiel an Ihre Kunden und deren Erwartungen. Wie denken sie vielleicht über die Interaktion mit einem KI-Chatbot? Wie schädlich könnte es sein, ihnen falsche oder irreführende Informationen zu geben? Vielleicht können Sie mit geringfügigen Unannehmlichkeiten für den Kunden umgehen, aber was ist, wenn diese erhebliche gesundheitliche oder finanzielle Auswirkungen haben?

Auch wenn die Implementierung von KI sinnvoll erscheint, gibt es eindeutig einige nachgelagerte Reputationsrisiken, die berücksichtigt werden müssen. Wir haben jahrelang über die Bedeutung der Benutzererfahrung und der Kundenorientierung gesprochen: Während KI uns hier helfen könnte, könnte sie diese Dinge auch untergraben.

Eine ähnliche Frage stellt man sich zu Ihren Teams. KI kann zwar die Effizienz steigern und die Arbeit der Menschen erleichtern, bei falscher Anwendung könnte sie jedoch bestehende Arbeitsweisen ernsthaft stören. In der Branche wird in letzter Zeit viel über die Entwicklererfahrung gesprochen – darüber habe ich für diese Veröffentlichung geschrieben – und die Entscheidungen, die Unternehmen in Bezug auf KI treffen, müssen die Erfahrungen von Teams verbessern und nicht untergraben.

In der neuesten Ausgabe des Thoughtworks Technology Radar – einer halbjährlichen Momentaufnahme der Softwarebranche basierend auf unseren Erfahrungen bei der Zusammenarbeit mit Kunden auf der ganzen Welt – sprechen wir genau über diesen Punkt. Wir nennen KI-Teamassistenten einen der spannendsten neuen Bereiche in der Softwareentwicklung, weisen aber auch darauf hin, dass der Fokus auf der Unterstützung von Teams und nicht auf Einzelpersonen liegen muss. „Sie sollten nach Möglichkeiten suchen, KI-Teamassistenten zu schaffen, die beim Aufbau des ‚10x-Teams‘ helfen, im Gegensatz zu einer Gruppe isolierter KI-unterstützter 10x-Ingenieure“, sagen wir im neuesten Bericht.

Wenn Sie den Arbeitskontext Ihrer Teams nicht berücksichtigen, kann dies zu erheblichen Reputationsschäden führen. Einige optimistische Organisationen betrachten dies möglicherweise als einen wesentlichen Bestandteil von Innovation – das ist jedoch nicht der Fall. Es zeigt potenziellen Mitarbeitern – insbesondere hochtechnisch versierten Mitarbeitern –, dass Sie ihre Arbeit nicht wirklich verstehen oder sich nicht für sie interessieren.

Bewältigung von Risiken durch intelligentere Technologieimplementierung

Es gibt viele Tools, die zur Risikobewältigung eingesetzt werden können. Thoughtworks half bei der Zusammenstellung des Responsible Technology Playbook, einer Sammlung von Tools und Techniken, die Unternehmen nutzen können, um verantwortungsvollere Entscheidungen über Technologie (nicht nur KI) zu treffen.

Es ist jedoch wichtig zu beachten, dass das Management von Risiken – insbesondere im Zusammenhang mit der Reputation – echte Aufmerksamkeit für die Besonderheiten der Technologieimplementierung erfordert. Dies wurde besonders deutlich bei der Arbeit, die wir mit einer Reihe indischer Organisationen der Zivilgesellschaft durchgeführt haben und bei der wir einen Sozialhilfe-Chatbot entwickelt haben, mit dem Bürger in ihrer Muttersprache interagieren können. Die hier bestehenden Risiken ähneln den zuvor besprochenen: Der Kontext, in dem der Chatbot verwendet wurde (als Unterstützung für den Zugriff auf wichtige Dienste), bedeutete, dass ungenaue oder „halluzinierte“ Informationen dazu führen könnten, dass Menschen nicht die Ressourcen erhalten, auf die sie angewiesen sind.

source site

Leave a Reply