Der Physiknobelpreis geht an Wegbereiter der heutigen KI-Landschaft. Mit der Entwicklung von künstlichen neuronalen Netzen schufen sie die Grundlage für Chatbots wie Chat-GPT.
Der Amerikaner John J. Hopfield und der Kanadier Geoffrey E. Hinton erhalten den Physiknobelpreis. Dies gab die Königlich Schwedische Akademie der Wissenschaften am Dienstag an einer Medienkonferenz in Stockholm bekannt. Die beiden Forscher werden für «bahnbrechende Entdeckungen und Erfindungen ausgezeichnet, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglicht haben». Hopfield, 91-jährig, und Hinton, 76-jährig, hätten Werkzeuge aus der Physik genutzt, um den Grundstein für das heutige leistungsstarke maschinelle Lernen zu legen, hiess es.
Hopfield entwickelte erstes neuronales Netz
Künstliche neuronale Netze gehen auf den Wunsch zurück, die Arbeitsweise unseres Gehirns besser zu verstehen. Menschen sind gut darin, Muster zu erkennen. Bereits in den 1940er Jahren gab es die Vermutung, dass diese Fähigkeit auf dem Zusammenspiel vieler Nervenzellen (Neuronen) beruht. Die einzigartige Lernfähigkeit des Gehirns beruht demnach darauf, dass die Verbindungen zwischen den einzelnen Hirnzellen je nach Bedarf stärker oder schwächer werden können.
Diese Lernfähigkeit mit dem Computer künstlich nachzubilden, war die Grundidee der künstlichen Intelligenz. Künstliche neuronale Netze bestehen aus einer Anzahl von Knotenpunkten, die untereinander verbunden sind und die Werte null und eins annehmen können. Die Knotenpunkte sollen inaktive oder aktive Neuronen im Gehirn simulieren, die je nach ihrer Aktivierung stärker oder schwächer miteinander verbunden sind.
Im Jahr 1982 entwickelte John Hopfield ein nach ihm benanntes Netz, das in der Lage ist, Muster zu speichern und wiederzuerkennen. Zum Training gibt man dem Netz ein Muster vor, etwa ein Bild. Dieses Bild wird in den Verbindungen zwischen den künstlichen Neuronen gespeichert. Setzt man dem Netz danach ein verrauschtes Bild vor, werden die Verbindungen zwischen den künstlichen Neuronen so lange variiert, bis das Ergebnis dem Original möglichst nahe kommt. So wird das gespeicherte Bild wiedererkannt.
Auch Geoffrey Hinton, der zweite Nobelpreisträger, entwickelte in den 1980er Jahren künstliche neuronale Netze. Sie waren deutlich komplexer als die von Hopfield. So verwendete Hinton für die Eingabe und das Auslesen der Daten unterschiedliche Netzebenen. Ausserdem gab es zwischen der Eingabe- und der Ausgabeschicht verborgene Netzebenen.
Hinton verwendete Methoden der statistischen Physik, um mit diesen sogenannten Boltzmann-Maschinen komplexere Aufgaben zu lösen. Sie lassen sich zum Beispiel darauf trainieren, Objekte der gleichen Kategorie zu erkennen. Eine Boltzmann-Maschine, die mit Katzenbildern trainiert wurde, erkennt zum Beispiel, ob auf einem bisher unbekannten Tierbild eine Katze oder ein Hund zu sehen ist. Wie Hinton feststellte, lässt sich dieser Lernvorgang erheblich vereinfachen, wenn man die Verbindungen zwischen den Knoten einer Netzebene einschränkt.
Erst moderne Computer führen zum Deep Learning
Die Arbeiten der beiden Preisträger liegen bald vierzig Jahre zurück. Dass sie erst jetzt Früchte tragen, hat vor allem mit der Computerentwicklung zu tun. In den 1980er Jahren liessen sich lediglich künstliche neuronale Netze mit einigen Dutzend Knotenpunkten und einigen hundert Verbindungen realisieren. Das ist kein Vergleich mit den «tiefen» neuronalen Netzen von heute, die aus zahlreichen Netzebenen bestehen. Erst die Rechenleistung der heutigen Computer und der Zugang zu fast unbegrenzten Trainingsdaten haben das Deep Learning möglich gemacht, dem wir die KI-Revolution zu verdanken haben.
Vom Deep Learning profitieren nicht nur Firmen wie Microsoft, Google oder Open AI. Auch die Wissenschaft hat längst erkannt, wie nützlich künstliche neuronale Netze sind. Sie werden zum Beispiel in der Teilchenphysik verwendet. Die Detektoren von Teilchenbeschleunigern zeichnen Unmengen von Daten auf, von denen die meisten uninteressant sind. Künstliche neuronale Netze helfen dabei, die Spreu vom Weizen zu trennen und die interessanten Signaturen zu erkennen. So wurde zum Beispiel das Higgs-Teilchen am Cern entdeckt.
Auch Astronomen nutzen dieses Werkzeug. Als 2019 das erste Bild eines Schwarzen Lochs vorgestellt wurde, waren die Konturen nur deshalb so scharf, weil die Bilddaten zuvor mit künstlichen neuronalen Netzen bearbeitet worden waren. Und in der Chemie haben tiefe neuronale Netze sogar zu einer kleinen Revolution geführt. Das von der Firma Deepmind entwickelte Programm Alphafold erlaubt es, die räumliche Struktur von Proteinen vorherzusagen. Das dürfte die Entwicklung neuer Wirkstoffe für Medikamente erheblich beschleunigen.