KI erfindet neu, was Computer sind

Herbst 2021: die Saison der Kürbisse, Pekannusstorten und pfirsichfarbenen neuen Handys. Jedes Jahr veröffentlichen Apple, Samsung, Google und andere aufs Stichwort ihre neuesten Veröffentlichungen. Diese Fixtures im Consumer-Tech-Kalender inspirieren nicht mehr die Überraschung und das Staunen dieser berauschenden frühen Tage. Aber hinter all dem Marketing-Glanz steckt etwas Bemerkenswertes.

Das neueste Angebot von Google, das Pixel 6, ist das erste Telefon mit einem separaten Chip für KI, der neben seinem Standardprozessor sitzt. Und der Chip, auf dem das iPhone läuft, enthält in den letzten Jahren etwas, was Apple eine “neurale Engine” nennt, die ebenfalls der KI gewidmet ist. Beide Chips eignen sich besser für die Arten von Berechnungen, die beim Training und beim Ausführen von Modellen für maschinelles Lernen auf unseren Geräten erforderlich sind, z. B. die KI, die Ihre Kamera antreibt. Fast unbemerkt ist KI Teil unseres Alltags geworden. Und es ändert, wie wir über Computer denken.

Was bedeutet das? Nun, Computer haben sich in 40 oder 50 Jahren nicht viel verändert. Sie sind kleiner und schneller, aber sie sind immer noch Boxen mit Prozessoren, die Anweisungen von Menschen ausführen. KI ändert das an mindestens drei Fronten: wie Computer hergestellt werden, wie sie programmiert werden und wie sie verwendet werden. Letztendlich wird es ihren Zweck ändern.

„Der Kern des Computing verändert sich von der Zahlenverarbeitung zur Entscheidungsfindung“, sagt Pradeep Dubey, Direktor des Parallel Computing Lab bei Intel. Oder wie es Daniela Rus, Direktorin des MIT CSAIL, ausdrückt, KI befreit Computer aus ihren Boxen.

Mehr Eile weniger Geschwindigkeit

Die erste Änderung betrifft die Herstellung von Computern – und den Chips, die sie steuern. Herkömmliche Computergewinne kamen, als Maschinen schneller eine Berechnung nach der anderen ausführen konnten. Jahrzehntelang profitierte die Welt von den Geschwindigkeitssteigerungen der Chips, die mit metronomischer Regelmäßigkeit einhergingen, da die Chiphersteller das Mooresche Gesetz befolgten.

Die Deep-Learning-Modelle, die aktuelle KI-Anwendungen zum Laufen bringen, erfordern jedoch einen anderen Ansatz: Sie müssen eine Vielzahl von ungenaueren Berechnungen gleichzeitig durchführen. Das bedeutet, dass ein neuer Chiptyp erforderlich ist: Einer, der Daten so schnell wie möglich verschieben kann und dafür sorgt, dass sie verfügbar sind, wann und wo sie benötigt werden. Als Deep Learning vor etwa einem Jahrzehnt aufkam, gab es bereits spezielle Computerchips, die darin ziemlich gut waren: Grafikprozessoren oder GPUs, die einen ganzen Bildschirm voller Pixel dutzendmal pro Sekunde anzeigen konnten.

Alles kann ein Computer werden. Tatsächlich gibt es die meisten Haushaltsgegenstände, von Zahnbürsten über Lichtschalter bis hin zu Türklingeln, bereits in einer intelligenten Version.

Jetzt sind Chiphersteller wie Intel und Arm und Nvidia, die viele der ersten GPUs lieferten, dabei, Hardware speziell für KI zu entwickeln. Auch Google und Facebook drängen zum ersten Mal in diese Branche, um einen KI-Vorsprung durch Hardware zu finden.

Der Chip im Pixel 6 ist beispielsweise eine neue mobile Version von Googles Tensor Processing Unit (TPU). Im Gegensatz zu herkömmlichen Chips, die auf ultraschnelle, präzise Berechnungen ausgerichtet sind, sind TPUs für die hochvolumigen, aber niedrigpräzisen Berechnungen ausgelegt, die von neuronalen Netzen erforderlich sind. Google verwendet diese Chips seit 2015 im eigenen Haus: Sie verarbeiten die Fotos der Menschen und natürlichsprachliche Suchanfragen. Googles Schwesterunternehmen DeepMind nutzt sie, um seine KIs zu trainieren.

In den letzten Jahren hat Google TPUs anderen Unternehmen zur Verfügung gestellt, und diese Chips – sowie ähnliche, die von anderen entwickelt werden – werden zum Standard in den Rechenzentren der Welt.

KI hilft sogar dabei, eine eigene Computing-Infrastruktur zu entwickeln. Im Jahr 2020 verwendete Google einen Reinforcement-Learning-Algorithmus – eine Art KI, die lernt, eine Aufgabe durch Versuch und Irrtum zu lösen –, um das Layout einer neuen TPU zu entwerfen. Die KI entwickelte schließlich seltsame neue Designs, an die kein Mensch denken würde – aber sie funktionierten. Eine solche KI könnte eines Tages bessere und effizientere Chips entwickeln.

Zeigen, nicht erzählen

Die zweite Änderung betrifft die Art und Weise, wie Computern mitgeteilt wird, was sie tun sollen. Seit 40 Jahren programmieren wir Computer; für die nächsten 40 werden wir sie ausbilden, sagt Chris Bishop, Leiter von Microsoft Research in Großbritannien.

Um einen Computer dazu zu bringen, Sprache zu erkennen oder Objekte in einem Bild zu identifizieren, mussten Programmierer traditionell zuerst Regeln für den Computer entwickeln.

Beim maschinellen Lernen schreiben Programmierer keine Regeln mehr. Stattdessen erstellen sie ein neuronales Netzwerk, das diese Regeln für sich selbst lernt. Es ist eine grundlegend andere Denkweise.

source site

Leave a Reply