Was uns die Geschichte der KI über ihre Zukunft verrät

Aber was Computer traditionell schlecht konnten, war Strategie – die Fähigkeit, viele, viele Züge in der Zukunft über die Form eines Spiels nachzudenken. Da hatten die Menschen noch die Nase vorn.

Das dachte Kasparov jedenfalls, bis ihn Deep Blues Zug in Partie 2 aus der Fassung brachte. Es schien so raffiniert zu sein, dass Kasparov sich Sorgen machte: Vielleicht war die Maschine viel besser, als er gedacht hatte! Überzeugt, dass er keine Möglichkeit hatte zu gewinnen, gab er das zweite Spiel auf.

Aber das hätte er nicht tun sollen. Wie sich herausstellte, war Deep Blue eigentlich nicht so gut. Kasparov hatte keinen Zug entdeckt, der die Partie unentschieden hätte enden lassen. Er war dabei, sich aufzuregen: besorgt, dass die Maschine viel mächtiger sein könnte, als sie wirklich war, hatte er begonnen, menschenähnliches Denken zu sehen, wo es keines gab.

Aus seinem Rhythmus gebracht, spielte Kasparov immer schlechter. Er hat sich immer und immer wieder ausgepowert. Zu Beginn der sechsten, alles-oder-nichts-Partie machte er einen so miesen Zug, dass Schachbeobachter vor Schock aufschrien. „Ich hatte überhaupt keine Lust zu spielen“, sagte er später auf einer Pressekonferenz.

IBM profitierte von seinem Moonshot. Im Presserummel, der auf den Erfolg von Deep Blue folgte, stieg die Marktkapitalisierung des Unternehmens in einer einzigen Woche um 11,4 Milliarden US-Dollar. Noch bedeutsamer war jedoch, dass sich IBMs Triumph wie ein Tauwetter im langen KI-Winter anfühlte. Wenn Schach erobert werden konnte, was kam als nächstes? Die Gedanken der Öffentlichkeit schwankten.

„Das“, sagt Campbell, „hat die Aufmerksamkeit der Leute auf sich gezogen.“


Die Wahrheit ist, dass es nicht verwunderlich war, dass ein Computer Kasparov besiegte. Die meisten Leute, die der KI – und dem Schach – Aufmerksamkeit geschenkt hatten, erwarteten, dass es irgendwann passieren würde.

Schach mag wie der Gipfel des menschlichen Denkens erscheinen, ist es aber nicht. Tatsächlich ist es eine mentale Aufgabe, die für Brute-Force-Berechnungen geeignet ist: Die Regeln sind klar, es gibt keine versteckten Informationen, und ein Computer muss nicht einmal verfolgen, was in früheren Zügen passiert ist. Es bewertet gerade die Position der Teile.

„Es gibt nur sehr wenige Probleme, bei denen man wie beim Schach alle Informationen hat, die man braucht, um die richtige Entscheidung zu treffen.“

Jeder wusste, dass Computer, sobald sie schnell genug sind, einen Menschen überwältigen würden. Es war nur die Frage wann. Mitte der 90er „lag das Geschriebene gewissermaßen schon an der Wand“, sagt Demis Hassabis, Leiter des zu Alphabet gehörenden KI-Unternehmens DeepMind.

Der Sieg von Deep Blue war der Moment, der zeigte, wie begrenzt handcodierte Systeme sein können. IBM hatte Jahre und Millionen von Dollar in die Entwicklung eines Computers investiert, um Schach zu spielen. Aber es konnte nicht anders.

„Es hat nicht zu den Durchbrüchen geführt, die dies ermöglichten [Deep Blue] KI wird einen enormen Einfluss auf die Welt haben“, sagt Campbell. Sie haben keine wirklichen Prinzipien der Intelligenz entdeckt, weil die reale Welt nicht dem Schach ähnelt. „Es gibt nur sehr wenige Probleme, bei denen man wie beim Schach alle Informationen hat, die man braucht, um die richtige Entscheidung zu treffen“, fügt Campbell hinzu. „Meistens gibt es Unbekannte. Es gibt Zufälligkeit.“

Aber selbst als Deep Blue mit Kasparov den Boden aufwischte, bastelte eine Handvoll rauflustiger Emporkömmlinge an einer radikal vielversprechenderen Form der KI: dem neuronalen Netz.

Bei neuronalen Netzen war die Idee nicht, wie bei Expertensystemen, geduldig Regeln für jede Entscheidung zu schreiben, die eine KI treffen wird. Stattdessen stärken Training und Verstärkung interne Verbindungen in grober Nachahmung (wie die Theorie besagt), wie das menschliche Gehirn lernt.

1997: Nachdem Garry Kasparov 1996 Deep Blue besiegt hatte, bat IBM den Schachweltmeister um einen Rückkampf, der in New York City mit einer verbesserten Maschine ausgetragen wurde.

AP FOTO / ADAM NADEL

Die Idee gab es schon seit den 50er Jahren. Aber das Trainieren eines nützlich großen neuronalen Netzes erforderte blitzschnelle Computer, Tonnen von Speicher und viele Daten. Nichts davon war damals leicht verfügbar. Noch bis in die 90er Jahre galten neuronale Netze als Zeitverschwendung.

„Damals dachten die meisten Leute in der KI, neuronale Netze seien einfach Müll“, sagt Geoff Hinton, ein emeritierter Informatikprofessor an der University of Toronto und ein Pionier auf diesem Gebiet. „Ich wurde ein ‚wahrer Gläubiger’ genannt“ – kein Kompliment.

Aber in den 2000er Jahren entwickelte sich die Computerindustrie weiter, um neuronale Netze rentabel zu machen. Die Gier der Videospieler nach immer besserer Grafik hat eine riesige Industrie für ultraschnelle Grafikverarbeitungseinheiten geschaffen, die sich als perfekt geeignet für die Mathematik mit neuronalen Netzen erwiesen. Währenddessen explodierte das Internet und produzierte eine Flut von Bildern und Texten, mit denen die Systeme trainiert werden konnten.

In den frühen 2010er Jahren ermöglichten diese technischen Sprünge Hinton und seiner Crew von wahren Gläubigen, neuronale Netze zu neuen Höhen zu führen. Sie könnten jetzt Netzwerke mit vielen Schichten von Neuronen erstellen (was das „deep“ in „deep learning“ bedeutet). 2012 gewann sein Team den jährlichen Imagenet-Wettbewerb, bei dem KIs darum kämpfen, Elemente in Bildern zu erkennen. Es verblüffte die Welt der Informatik: Selbstlernende Maschinen waren endlich realisierbar.

Zehn Jahre nach Beginn der Deep-Learning-Revolution haben neuronale Netze und ihre Mustererkennungsfähigkeiten jeden Winkel des täglichen Lebens kolonisiert. Sie helfen Gmail, Ihre Sätze automatisch zu vervollständigen, helfen Banken, Betrug zu erkennen, lassen Foto-Apps automatisch Gesichter erkennen und – im Fall von OpenAIs GPT-3 und DeepMinds Gopher – schreiben lange, menschlich klingende Aufsätze und fassen Texte zusammen. Sie verändern sogar die Art und Weise, wie Wissenschaft betrieben wird; 2020 debütierte DeepMind mit AlphaFold2, einer KI, die vorhersagen kann, wie sich Proteine ​​falten werden – eine übermenschliche Fähigkeit, die Forschern helfen kann, neue Medikamente und Behandlungen zu entwickeln.

In der Zwischenzeit verschwand Deep Blue und hinterließ keine nützlichen Erfindungen. Wie sich herausstellte, war Schachspielen keine Computerfertigkeit, die man im Alltag brauchte. „Was Deep Blue am Ende gezeigt hat, waren die Mängel bei dem Versuch, alles von Hand herzustellen“, sagt DeepMind-Gründer Hassabis.

IBM versuchte, die Situation mit Watson zu beheben, einem anderen spezialisierten System, das entwickelt wurde, um ein praktischeres Problem anzugehen: eine Maschine dazu zu bringen, Fragen zu beantworten. Es nutzte die statistische Analyse riesiger Textmengen, um ein Sprachverständnis zu erreichen, das für seine Zeit auf dem neuesten Stand war. Es war mehr als ein einfaches Wenn-dann-System. Aber Watson sah sich mit einem unglücklichen Timing konfrontiert: Es wurde nur wenige Jahre später von der Revolution des Deep Learning in den Schatten gestellt, die eine Generation von sprachbelastenden Modellen hervorbrachte, die weitaus nuancierter waren als Watsons statistische Techniken.

Deep Learning hat die KI der alten Schule rücksichtslos behandelt, gerade weil „Mustererkennung unglaublich leistungsfähig ist“, sagt Daphne Koller, eine ehemalige Stanford-Professorin, die Insitro gründete und leitet, das neuronale Netze und andere Formen des maschinellen Lernens verwendet, um neuartige Arzneimittelbehandlungen zu untersuchen. Die Flexibilität neuronaler Netze – die vielfältigen Einsatzmöglichkeiten der Mustererkennung – ist der Grund dafür, dass es noch keinen KI-Winter mehr gegeben hat. „Maschinelles Lernen hat tatsächlich einen Mehrwert geliefert“, sagt sie, was die „früheren Wellen des Überschwangs“ in der KI nie getan haben.

Das umgekehrte Schicksal von Deep Blue und neuronalen Netzen zeigt, wie schlecht wir so lange darin waren, zu beurteilen, was schwierig – und was wertvoll – in der KI ist.

Jahrzehntelang ging man davon aus, dass es wichtig wäre, Schach zu beherrschen, weil es für Menschen schwer ist, Schach auf hohem Niveau zu spielen. Aber es stellte sich heraus, dass Schach ziemlich einfach für Computer zu meistern ist, weil es so logisch ist.

Was für Computer weitaus schwieriger zu lernen war, war die beiläufige, unbewusste geistige Arbeit, die Menschen leisten – wie das Führen einer lebhaften Unterhaltung, das Steuern eines Autos durch den Verkehr oder das Lesen des emotionalen Zustands eines Freundes. Wir erledigen diese Dinge so mühelos, dass wir selten erkennen, wie knifflig sie sind und wie viel unscharfes Graustufenurteil sie erfordern. Der große Nutzen von Deep Learning liegt in der Möglichkeit, kleine Teile dieser subtilen, unangekündigten menschlichen Intelligenz zu erfassen.


Dennoch gibt es keinen endgültigen Sieg in der künstlichen Intelligenz. Deep Learning mag derzeit hoch im Kurs stehen – aber es erntet auch scharfe Kritik.

„Es gab sehr lange diesen techno-chauvinistischen Enthusiasmus, dass KI jedes Problem lösen wird!“ sagt Meredith Broussard, eine Programmiererin, die zur Journalistikprofessorin an der New York University wurde und Autorin von Künstliche Unintelligenz. Aber wie sie und andere Kritiker betont haben, werden Deep-Learning-Systeme oft mit voreingenommenen Daten trainiert – und absorbieren diese Vorurteile. Die Informatiker Joy Buolamwini und Timnit Gebru entdeckten, dass drei kommerziell erhältliche visuelle KI-Systeme schlecht darin waren, die Gesichter von dunkelhäutigen Frauen zu analysieren. Amazon hat eine KI darauf trainiert, Lebensläufe zu überprüfen, nur um festzustellen, dass sie Frauen herabgestuft hat.

Obwohl Informatiker und viele KI-Ingenieure sich dieser Bias-Probleme inzwischen bewusst sind, wissen sie nicht immer, wie sie damit umgehen sollen. Darüber hinaus sind neuronale Netze auch „massive Black Boxes“, sagt Daniela Rus, eine Veteranin der KI, die derzeit das Computer Science and Artificial Intelligence Laboratory des MIT leitet. Sobald ein neuronales Netz trainiert ist, sind seine Mechanismen nicht einmal von seinem Schöpfer leicht zu verstehen. Es ist nicht klar, wie es zu seinen Schlussfolgerungen kommt – oder wie es scheitern wird.

„Es gab sehr lange diesen techno-chauvinistischen Enthusiasmus, dass Okay, KI wird jedes Problem lösen!“

Rus geht davon aus, dass es möglicherweise kein Problem ist, sich für eine Aufgabe, die nicht „sicherheitskritisch“ ist, auf eine Blackbox zu verlassen. Aber was ist mit einem höherwertigen Job wie dem autonomen Fahren? „Eigentlich ist es bemerkenswert, dass wir ihnen so viel Vertrauen entgegenbringen konnten“, sagt sie.

Hier hatte Deep Blue einen Vorteil. Der altmodische Stil der handgefertigten Regeln war vielleicht spröde, aber er war verständlich. Die Maschine war komplex – aber kein Mysterium.


Ironischerweise könnte dieser alte Programmierstil so etwas wie ein Comeback feiern, wenn Ingenieure und Informatiker mit den Grenzen des Musterabgleichs ringen.

Sprachgeneratoren wie GPT-3 von OpenAI oder Gopher von DeepMind können ein paar Sätze, die Sie geschrieben haben, nehmen und weitermachen, indem sie Seiten um Seiten mit plausibel klingender Prosa schreiben. Aber trotz einiger beeindruckender Nachahmungen „versteht Gopher immer noch nicht wirklich, was es sagt“, sagt Hassabis. „Nicht im eigentlichen Sinne.“

Ebenso kann die visuelle KI schreckliche Fehler machen, wenn sie auf Grenzfälle stößt. Selbstfahrende Autos sind in Feuerwehrautos gefahren, die auf Autobahnen geparkt sind, weil sie in all den Millionen von Stunden mit Videos, mit denen sie trainiert wurden, noch nie mit einer solchen Situation konfrontiert waren. Neuronale Netze haben auf ihre Weise eine Version des „Sprödigkeits“-Problems.

.
source site

Leave a Reply