Diese einfachen Änderungen können die KI-Forschung viel energieeffizienter machen

Seit vor drei Jahren das erste Papier veröffentlicht wurde, in dem die Auswirkungen dieser Technologie auf die Umwelt untersucht wurden, ist unter Forschern eine Bewegung gewachsen, die den Energieverbrauch und die durch ihre Arbeit erzeugten Emissionen selbst angibt. Genaue Zahlen zu haben ist ein wichtiger Schritt, um Änderungen vorzunehmen, aber diese Zahlen tatsächlich zu sammeln, kann eine Herausforderung sein.

„Man kann nichts verbessern, was man nicht messen kann“, sagt Jesse Dodge, Forscher am Allen Institute for AI in Seattle. „Der erste Schritt für uns, wenn wir Fortschritte bei der Reduzierung von Emissionen erzielen wollen, ist, dass wir eine gute Messung erhalten.“

Zu diesem Zweck hat das Allen Institute kürzlich mit Microsoft, dem KI-Unternehmen Hugging Face und drei Universitäten zusammengearbeitet, um ein Tool zu entwickeln, das den Stromverbrauch aller maschinellen Lernprogramme misst, die auf Azure, dem Cloud-Dienst von Microsoft, ausgeführt werden. Damit können Azure-Benutzer, die neue Modelle erstellen, den gesamten Stromverbrauch von Grafikprozessoren (GPUs) – Computerchips, die auf die parallele Ausführung von Berechnungen spezialisiert sind – in jeder Phase ihres Projekts anzeigen, von der Auswahl eines Modells über das Training bis hin zur Verwendung . Es ist der erste große Cloud-Anbieter, der Benutzern Zugriff auf Informationen über die Energieauswirkungen seiner maschinellen Lernprogramme bietet.

Während es bereits Tools gibt, die den Energieverbrauch und die Emissionen von Algorithmen für maschinelles Lernen messen, die auf lokalen Servern ausgeführt werden, funktionieren diese Tools nicht, wenn Forscher Cloud-Dienste von Unternehmen wie Microsoft, Amazon und Google verwenden. Diese Dienste geben Benutzern keinen direkten Einblick in die GPU-, CPU- und Speicherressourcen, die ihre Aktivitäten verbrauchen – und die vorhandenen Tools wie Carbontracker, Experiment Tracker, EnergyVis und CodeCarbon benötigen diese Werte, um genaue Schätzungen zu liefern.

Das neue Azure-Tool, das im Oktober debütierte, meldet derzeit den Energieverbrauch, nicht die Emissionen. Also fanden Dodge und andere Forscher heraus, wie man den Energieverbrauch den Emissionen zuordnen kann, und präsentierten Ende Juni auf der FAccT, einer großen Informatikkonferenz, ein begleitendes Papier zu dieser Arbeit. Die Forscher nutzten einen Dienst namens Watttime, um die Emissionen basierend auf den Postleitzahlen von Cloud-Servern zu schätzen, auf denen 11 Modelle für maschinelles Lernen ausgeführt werden.

Sie fanden heraus, dass die Emissionen erheblich reduziert werden können, wenn Forscher Server an bestimmten geografischen Standorten und zu bestimmten Tageszeiten verwenden. Die Emissionen aus dem Training kleiner Machine-Learning-Modelle können um bis zu 80 % reduziert werden, wenn das Training zu Zeiten beginnt, in denen mehr erneuerbarer Strom im Netz verfügbar ist, während die Emissionen großer Modelle um über 20 % reduziert werden können, wenn die Trainingsarbeit bei erneuerbaren Energien unterbrochen wird Strom ist knapp und wird neu gestartet, wenn er reichlich vorhanden ist.

source site

Leave a Reply