Eine leistungsstarke, kostengünstige Infrastruktur für maschinelles Lernen beschleunigt die Innovation in der Cloud

Künstliche Intelligenz und maschinelles Lernen (KI und ML) sind Schlüsseltechnologien, die Unternehmen helfen, neue Wege zu finden, um ihren Umsatz zu steigern, Kosten zu senken, Geschäftsprozesse zu rationalisieren und ihre Kunden besser zu verstehen. AWS hilft Kunden, ihre KI/ML-Einführung zu beschleunigen, indem es leistungsstarke Computing-, Hochgeschwindigkeits-Netzwerk- und skalierbare Hochleistungsspeicheroptionen nach Bedarf für jedes Machine-Learning-Projekt bereitstellt. Dies senkt die Eintrittsbarriere für Unternehmen, die die Cloud einsetzen möchten, um ihre ML-Anwendungen zu skalieren.

Entwickler und Datenwissenschaftler verschieben die Grenzen der Technologie und setzen zunehmend auf Deep Learning, eine Art des maschinellen Lernens, das auf neuronalen Netzwerkalgorithmen basiert. Diese Deep-Learning-Modelle sind größer und ausgefeilter, was zu steigenden Kosten für den Betrieb der zugrunde liegenden Infrastruktur zum Trainieren und Bereitstellen dieser Modelle führt.

Damit Kunden ihre KI/ML-Transformation beschleunigen können, baut AWS leistungsstarke und kostengünstige Machine-Learning-Chips. AWS Inferentia ist der erste Machine-Learning-Chip, der von AWS von Grund auf für die kostengünstigste Machine-Learning-Inferenz in der Cloud entwickelt wurde. Tatsächlich bieten Amazon EC2 Inf1-Instances von Inferentia eine 2,3-mal höhere Leistung und bis zu 70 % niedrigere Kosten für Machine-Learning-Inferenz als GPU-basierte EC2-Instances der aktuellen Generation. AWS Trainium ist der zweite Machine-Learning-Chip von AWS, der speziell für das Training von Deep-Learning-Modellen entwickelt wurde und Ende 2021 verfügbar sein wird.

Kunden aus allen Branchen haben ihre ML-Anwendungen in der Produktion auf Inferentia bereitgestellt und konnten erhebliche Leistungsverbesserungen und Kosteneinsparungen feststellen. Die Kundensupport-Plattform von AirBnB beispielsweise ermöglicht seiner Community von Millionen von Gastgebern und Gästen auf der ganzen Welt intelligente, skalierbare und außergewöhnliche Serviceerlebnisse. Es verwendete Inferentia-basierte EC2 Inf1-Instanzen, um Modelle zur natürlichen Sprachverarbeitung (NLP) bereitzustellen, die seine Chatbots unterstützten. Dies führte zu einer 2-fachen Verbesserung der Leistung im Vergleich zu GPU-basierten Instanzen.

Mit diesen Innovationen im Bereich Silizium ermöglicht AWS seinen Kunden, ihre Deep-Learning-Modelle in der Produktion einfach mit hoher Leistung und Durchsatz zu deutlich geringeren Kosten zu trainieren und auszuführen.

Maschinelles Lernen stellt Herausforderungen an die Geschwindigkeit der Umstellung auf eine Cloud-basierte Infrastruktur

Machine Learning ist ein iterativer Prozess, bei dem Teams Anwendungen schnell erstellen, trainieren und bereitstellen sowie häufig trainieren, neu trainieren und experimentieren müssen, um die Vorhersagegenauigkeit der Modelle zu erhöhen. Bei der Bereitstellung von trainierten Modellen in ihren Geschäftsanwendungen müssen Unternehmen auch ihre Anwendungen skalieren, um neue Benutzer auf der ganzen Welt zu bedienen. Sie müssen in der Lage sein, mehrere gleichzeitig eingehende Anfragen mit nahezu Echtzeit-Latenz zu bedienen, um eine überragende Benutzererfahrung zu gewährleisten.

Neue Anwendungsfälle wie Objekterkennung, Natural Language Processing (NLP), Bildklassifizierung, Konversations-KI und Zeitreihendaten basieren auf Deep-Learning-Technologie. Deep-Learning-Modelle nehmen exponentiell an Größe und Komplexität zu, von Millionen von Parametern auf Milliarden innerhalb weniger Jahre.

Die Schulung und Bereitstellung dieser komplexen und ausgeklügelten Modelle führt zu erheblichen Infrastrukturkosten. Die Kosten können schnell unerschwinglich hoch werden, da Unternehmen ihre Anwendungen skalieren, um ihren Benutzern und Kunden Erlebnisse nahezu in Echtzeit zu bieten.

Hier können Cloud-basierte Machine-Learning-Infrastrukturdienste helfen. Die Cloud bietet On-Demand-Zugriff auf Computing, Hochleistungsnetzwerke und große Datenspeicher, die nahtlos mit ML-Operationen und übergeordneten KI-Diensten kombiniert werden, damit Unternehmen sofort loslegen und ihre KI/ML-Initiativen skalieren können.

Wie AWS Kunden hilft, ihre KI/ML-Transformation zu beschleunigen

AWS Inferentia und AWS Trainium zielen darauf ab, maschinelles Lernen zu demokratisieren und Entwicklern unabhängig von Erfahrung und Unternehmensgröße zugänglich zu machen. Das Design von Inferentia ist für hohe Leistung, Durchsatz und geringe Latenz optimiert, was es ideal für die Bereitstellung von ML-Inferenz in großem Maßstab macht.

Jeder AWS Inferentia-Chip enthält vier NeuronCores, die eine leistungsstarke systolische Array-Matrix-Multiply-Engine implementieren, die typische Deep-Learning-Operationen wie Faltung und Transformer massiv beschleunigt. NeuronCores sind außerdem mit einem großen On-Chip-Cache ausgestattet, der dazu beiträgt, externe Speicherzugriffe zu reduzieren, die Latenz zu reduzieren und den Durchsatz zu erhöhen.

AWS Neuron, das Software Development Kit für Inferentia, unterstützt nativ führende ML-Frameworks wie TensorFlow und PyTorch. Entwickler können weiterhin dieselben Frameworks und Tools für die Lebenszyklusentwicklung verwenden, die sie kennen und lieben. Viele ihrer trainierten Modelle können sie auf Inferentia kompilieren und bereitstellen, indem sie nur eine einzige Codezeile ändern, ohne dass zusätzliche Änderungen am Anwendungscode erforderlich sind.

Das Ergebnis ist eine hochleistungsfähige Inferenzbereitstellung, die sich leicht skalieren lässt und gleichzeitig die Kosten unter Kontrolle hält.

Sprinklr, ein Software-as-a-Service-Unternehmen, verfügt über eine KI-gesteuerte einheitliche Plattform für das Kundenerlebnismanagement, die es Unternehmen ermöglicht, Kundenfeedback in Echtzeit über mehrere Kanäle hinweg zu sammeln und in umsetzbare Erkenntnisse zu übersetzen. Dies führt zu proaktiver Problemlösung, verbesserter Produktentwicklung, verbessertem Content-Marketing und besserem Kundenservice. Sprinklr nutzte Inferentia, um sein NLP und einige seiner Computer-Vision-Modelle bereitzustellen, und verzeichnete erhebliche Leistungsverbesserungen.

Mehrere Amazon-Dienste stellen ihre Machine-Learning-Modelle auch auf Inferentia bereit.

Amazon Prime Video verwendet Computer Vision ML-Modelle, um die Videoqualität von Live-Ereignissen zu analysieren, um ein optimales Zuschauererlebnis für Prime Video-Mitglieder zu gewährleisten. Es setzte seine ML-Modelle zur Bildklassifizierung auf EC2 Inf1-Instances ein und erzielte eine 4-fache Leistungssteigerung und bis zu 40 % Kosteneinsparungen im Vergleich zu GPU-basierten Instances.

Ein weiteres Beispiel ist die KI- und ML-basierte Intelligenz von Amazon Alexa, die von Amazon Web Services unterstützt wird und heute auf mehr als 100 Millionen Geräten verfügbar ist. Alexas Versprechen an die Kunden lautet, dass es immer intelligenter, gesprächiger, proaktiver und noch angenehmer wird. Um dieses Versprechen zu erfüllen, müssen die Reaktionszeiten und die Infrastrukturkosten für maschinelles Lernen kontinuierlich verbessert werden. Durch die Bereitstellung der Text-to-Speech-ML-Modelle von Alexa auf Inf1-Instanzen konnte die Inferenzlatenz um 25 % und die Kosten pro Inferenz um 30 % gesenkt werden, um die Serviceerfahrung für Millionen von Kunden zu verbessern, die jeden Monat Alexa verwenden.

Entfesselung neuer Machine-Learning-Funktionen in der Cloud

Während Unternehmen darum kämpfen, ihr Geschäft zukunftssicher zu machen, indem sie die besten digitalen Produkte und Dienstleistungen anbieten, kann kein Unternehmen bei der Bereitstellung ausgeklügelter Modelle des maschinellen Lernens zurückbleiben, um ihre Kundenerfahrungen zu erneuern. In den letzten Jahren hat die Anwendbarkeit des maschinellen Lernens für eine Vielzahl von Anwendungsfällen enorm zugenommen, von Personalisierung und Churn-Vorhersage bis hin zu Betrugserkennung und Lieferkettenprognosen.

Glücklicherweise entfesselt die Machine-Learning-Infrastruktur in der Cloud neue Funktionen, die zuvor nicht möglich waren, und macht sie für Laien weitaus leichter zugänglich. Aus diesem Grund verwenden AWS-Kunden bereits Inferentia-betriebene Amazon EC2 Inf1-Instances, um die Informationen hinter ihren Empfehlungs-Engines und Chatbots bereitzustellen und um aus Kundenfeedback umsetzbare Erkenntnisse zu gewinnen.

Mit AWS Cloud-basierten Machine Learning-Infrastrukturoptionen, die für verschiedene Qualifikationsstufen geeignet sind, ist klar, dass jedes Unternehmen Innovationen beschleunigen und den gesamten Machine Learning-Lebenszyklus im großen Maßstab abdecken kann. Da maschinelles Lernen immer weiter verbreitet ist, sind Unternehmen jetzt in der Lage, das Kundenerlebnis – und die Art und Weise, wie sie Geschäfte machen – mit einer kostengünstigen, leistungsstarken Cloud-basierten Infrastruktur für maschinelles Lernen grundlegend zu verändern.

Erfahren Sie hier mehr darüber, wie die Machine-Learning-Plattform von AWS Ihrem Unternehmen bei der Innovation helfen kann.

Dieser Inhalt wurde von AWS erstellt. Es wurde nicht von der Redaktion der MIT Technology Review geschrieben.

source site

Leave a Reply