Roomba-Tester fühlen sich getäuscht, nachdem intime Bilder auf Facebook gelandet sind

„Viele dieser Formulierungen scheinen darauf ausgelegt zu sein, das Unternehmen von den geltenden Datenschutzgesetzen auszunehmen, aber nichts davon spiegelt die Realität wider, wie das Produkt funktioniert.“

Was ist mehr, alle Die Testteilnehmer mussten zustimmen, dass ihre Daten für Schulungen zum maschinellen Lernen und zur Objekterkennung verwendet werden dürfen. Insbesondere der Abschnitt der globalen Testvereinbarung zur „Nutzung von Forschungsinformationen“ erforderte eine Anerkennung, dass „Text, Video, Bilder oder Audio … von iRobot verwendet werden können, um Statistiken und Nutzungsdaten zu analysieren, Technologieprobleme zu diagnostizieren, die Produktleistung zu verbessern, Produkt- und Features Innovation, Marktforschung, Handelspräsentationen und interne Schulungen, einschließlich maschinelles Lernen und Objekterkennung.“

Was hier nicht ausgeführt wird, ist, dass iRobot das Machine-Learning-Training durch menschliche Datenetikettierer durchführt, die den Algorithmen Klick für Klick beibringen, die einzelnen Elemente zu erkennen, die in den Rohdaten erfasst sind. Mit anderen Worten, die mit uns geteilten Vereinbarungen erwähnen niemals ausdrücklich, dass persönliche Bilder von anderen Menschen gesehen und analysiert werden.

Baussmann, Sprecher von iRobot, sagte, dass die von uns hervorgehobene Sprache „eine Vielzahl von Testszenarien abdeckt“ und nicht spezifisch für Bilder ist, die zur Datenanmerkung gesendet werden. „Zum Beispiel werden Tester manchmal gebeten, Fotos oder Videos vom Verhalten eines Roboters zu machen, z. B. wenn er an einem bestimmten Objekt hängen bleibt oder sich nicht vollständig andocken will, und diese Fotos oder Videos an iRobot zu senden“, schrieb er und fügte hinzu dass „für Tests, bei denen Bilder zu Anmerkungszwecken erfasst werden, bestimmte Bedingungen gelten, die in der Vereinbarung zu diesem Test festgelegt sind.“

Er schrieb auch, dass „wir nicht sicher sein können, dass die Personen, mit denen Sie gesprochen haben, Teil der Entwicklungsarbeit waren, die sich auf Ihren Artikel bezog“, obwohl er insbesondere die Richtigkeit der globalen Testvereinbarung nicht bestritten hat, die es letztendlich ermöglicht alle Daten von Testbenutzern gesammelt und für maschinelles Lernen verwendet werden.

Was Nutzer wirklich verstehen

Als wir Datenschutzanwälte und Wissenschaftler baten, die Zustimmungsvereinbarungen zu überprüfen, und ihnen die Bedenken der Testbenutzer mitteilten, sahen sie die Dokumente und die daraus resultierenden Datenschutzverletzungen als Sinnbild für einen gebrochenen Zustimmungsrahmen, der uns alle betrifft – ob wir Betatester sind oder regelmäßige Verbraucher.

Experten sagen, dass Unternehmen sich bewusst sind, dass Menschen Datenschutzrichtlinien selten genau lesen, wenn wir sie überhaupt lesen. Aber was die globale Testvereinbarung von iRobot bezeugt, sagt Ben Winters, ein Anwalt beim Electronic Privacy Information Center, der sich auf KI und Menschenrechte konzentriert, ist, dass „selbst wenn Sie es lesen, Sie immer noch keine Klarheit bekommen“.

Vielmehr „scheint ein Großteil dieser Sprache darauf ausgelegt zu sein, das Unternehmen von den geltenden Datenschutzgesetzen auszunehmen, aber nichts davon spiegelt die Realität wider, wie das Produkt funktioniert“, sagt Cahn und weist auf die Mobilität der Roboterstaubsauger und die Unmöglichkeit der Kontrolle hin wo sich potenziell sensible Personen oder Gegenstände – insbesondere Kinder – ständig in der eigenen Wohnung aufhalten.

Letztendlich ist dieser „Ort[s] ein Großteil der Verantwortung … liegt beim Endnutzer“, bemerkt Jessica Vitak, Informationswissenschaftlerin am College of Information Studies der University of Maryland, die Best Practices in Forschung und Zustimmungsrichtlinien untersucht. Sie gibt ihnen jedoch keine genaue Erklärung darüber, „wie Dinge schief gehen könnten“, sagt sie – „was sehr wertvolle Informationen für die Entscheidung über eine Teilnahme wäre.“

source site

Leave a Reply