Die Spracherkennungsfirma Speechmatics schlägt Technologieriesen bei der Reduzierung von Vorurteilen

Eine junge Frau, die Spracherkennungssoftware auf einem Smartphone verwendet.

Luis Alvarez | DigitalVision | Getty Images

LONDON – Ein britisches Spracherkennungsunternehmen sagt, dass seine Software beim Verstehen schwarzer Stimmen besser abschneidet als die von großen Technologieunternehmen wie Google und Amazon.

Speechmatics mit Sitz in Cambridge, England, sagte am Dienstag, dass sein System eine Gesamtgenauigkeitsrate von 83% für afroamerikanische Stimmen habe.

Das ist höher als bei Microsoft (73%), Amazon (69%), Google (69%), IBM (62%) und Apple (55%), laut einer Studie der Stanford University im Jahr 2020, die die Ergebnisse großer Technologieunternehmen auf wie genau ihre Spracherkennungsprogramme Afroamerikaner verstanden.

Laut Stanford-Forschern machten Systeme von Amazon, IBM, Google, Microsoft und Apple bei der Interpretation von Wörtern von Afroamerikanern fast doppelt so viele Fehler wie von Weißen.

Speechmatics sagt, dass sein System in 17% der Fälle Wörter von schwarzen Stimmen falsch identifiziert hat, gegenüber 31% bei Google und Amazon.

„Es ist von entscheidender Bedeutung, die Fairness von Sprach-zu-Text-Systemen zu untersuchen und zu verbessern, da Einzelpersonen durch nachgelagerte Sektoren, die vom Gesundheitswesen bis zur Strafjustiz reichen, unterschiedlichen Schaden anrichten können“, sagte Allison Koenecke, Hauptautorin der Stanford-Studie.

Voreingenommenheit in KI

Die Spracherkennungstechnologie hat sich dank der Verbreitung virtueller Assistenten auf intelligenten Geräten wie Telefonen und Lautsprechern schnell in den Alltag integriert.

Apple war mit seinem digitalen Assistenten Siri Vorreiter bei der Verwendung sprachaktivierter Software auf mobilen Geräten, während Amazon mit seinen Echo-Lautsprechern und dem Alexa-Assistenten als einer der ersten die Spracherkennung nach Hause brachte.

Forscher sind zunehmend besorgt über Verzerrungen in den Algorithmen, die diese Spracherkennungsdienste antreiben. Insbesondere sagen Experten, dass viele Spracherkennungsprogramme mit begrenzten Datensätzen trainiert werden, was sie weniger effektiv macht.

Während Spracherkennungsanwendungen wenig Probleme beim Transkribieren haben, ist ein weißer, männlicher Nachrichtenmoderator an der Ostküste “sie haben nicht das gleiche Maß an Genauigkeit” mit unterrepräsentierten Stimmen, so Will Williams, Vizepräsident für maschinelles Lernen von Speechmatics.

„Wie bei all diesen Dingen geht es um die Qualität der Daten in den Trainingssätzen“, sagte Stephanie Hare, eine KI-Ethikforscherin, gegenüber CNBC. “In der Spracherkennungstechnologie gibt es seit langem rassistische Voreingenommenheit, geschlechtsspezifische Voreingenommenheit und regionale Akzentverzerrung.”

“Diese Technologie funktioniert noch nicht bei jedem gleich”, fügte Hare hinzu. “Es könnte schließlich mit Raffinesse.”

Daten ohne Label

Speechmatics hat seine künstliche Intelligenz mit nicht gekennzeichneten Daten aus sozialen Medien und Podcasts trainiert, um verschiedene Aspekte der Sprache wie Akzent, Sprache und Intonation zu lernen.

“Wir können es fast so aufsaugen wie ein Kind”, sagte Williams gegenüber CNBC.

Das Unternehmen sagte, dass seine Technologie auf 1,1 Millionen Stunden Audio trainiert wird.

Speechmatics bezeichnete die Entwicklung als “Durchbruch” und hoffte, dass andere Technologieunternehmen transparenter werden, was die Bemühungen zur Verringerung der Voreingenommenheit in der KI angeht.

„Es wäre gut, wenn die Leute Open-Sourcing-Testsets anbieten würden, mit denen Sie beurteilen können, wie gut Sie an dieser Front abschneiden“, sagte Williams. “Ein Teil des Problems war, dass Fortschritte bei bestimmten demografischen Merkmalen verborgen wurden.”

Technologiegiganten haben in letzter Zeit ihre Investitionen in die Spracherkennung erhöht, wobei Microsoft im April zugestimmt hat, das Softwareunternehmen Nuance Communications für 16 Milliarden US-Dollar zu übernehmen.

.
source site

Leave a Reply