Sonntag, September 8

Wissenschafter haben über Monate die Welt aus der Sicht eines Kleinkindes aufgezeichnet. Damit haben sie ein künstliches neuronales Netz gefüttert, das prompt daraus Wörter und ihre Bedeutung erlernt.

Woher wissen Babys, was ein Ball, ein Tisch, ein Teller ist? Und warum ist ein platter Kuhfladen kein Teller? Solche fast philosophischen Fragen treiben Eltern und Psychologen gleichermassen um. Etwa zwei neue Wörter lernt ein Baby pro Woche, bis es im Alter von 3 Jahren kein Halten mehr kennt. Mit 6 Jahren plaudert das Kind mit einem Wortschatz von mehr als 10 000 Wörtern drauflos.

Eltern machen meist intuitiv das Richtige und sprechen mit dem Baby in der sogenannten Ammensprache: melodisches Sprechen in höherer Tonlage und mit mehr Pausen. Kinder, denen dies fehlt, lernen langsamer. Wissenschafter aber zerbrechen sich den Kopf darüber, wie das Kind genau lernt. Lernt es mit der Zeit einfache Assoziationen, also dass ein Wort zu einem bestimmten Bild gehört? Oder muss es auf ein angeborenes Wissen über Sprache zurückgreifen?

Um Antworten auf diese Frage zu finden, haben amerikanische Wissenschafter nun das reale Erleben eines Kleinkindes analysiert. Ihre Erkenntnis haben sie gestern im Fachjournal «Science» veröffentlicht. Und sie lautet: Sprache kann auch ohne Vorwissen erworben werden.

60 Stunden Filmmaterial und 250 000 Wörter waren notwendig

Die Forscher haben ein kleines Mädchen über Monate begleitet. Im Alter von 6 Monaten hat es zum ersten Mal eine kleine, leichte Kamera am Kopf getragen. Sie zeichnete auf, was das Kind sah und hörte. Bis zu seinem zweiten Geburtstag trug es die Kamera etwa alle zwei Wochen für eine kurze Zeit. 60 Stunden Filmmaterial mit über einer Viertelmillion Wörtern kam so zusammen.

Mit dem, was das Kind gesehen und gehört hatte, wurde anschliessend eine künstliche Intelligenz gefüttert. Diese hatte kein Vorwissen über Sprache und lernte einfache Assoziationen. Der Neurowissenschafter Brenden Lake, der an der New York University forscht, wollte wissen, wie weit die KI mit der realistischen Erfahrung des Kleinkinds kam.

«Offenbar kommt unser Gehirn mit simplem Assoziationslernen viel weiter, als wir dachten», sagt Lake. Der CLIP-Algorithmus, der dem menschlichen Gehirn nachgebildet war, hat nicht nur gelernt, was die Wörter bedeuten. Er konnte damit auch Objekte benennen, die er zuvor nicht gesehen hatte. Generalisierung nennen es die Wissenschafter, wenn ein Algorithmus beispielsweise ein Bild von einem Stuhl richtig erkennt, auch wenn er diesen speziellen Stuhl noch nie gesehen hat.

Babys assoziieren Wörter mit Bildern

Das Experiment bildet eine realistische Lernsituation nach. Deswegen ist in diesem Fall eine Studie an nur einem Kind sinnvoll. Denn es ist ja auch nur das Gehirn eines einzelnen Kindes, das die Sprache in der Realität erlernt.

Die Studie zeigt, dass die 60 Stunden Filmdaten ausreichen, um Wissen über die allgemeine Umwelt und Sprache zu erwerben. Tatsächlich hatte das Kind noch um ein Vielfaches mehr Information zur Verfügung. Nur gut 1 Prozent seiner Lebenserfahrung konnten die Wissenschafter filmisch festhalten. Das erklärt wohl, warum Kinder ihre Muttersprache mit fast unglaublicher Geschwindigkeit erwerben.

Noch gibt es offene Fragen: Der Algorithmus konnte während des Lernens immer wieder auf alte Wort-Bild-Assoziationen zurückgreifen. Hingegen lernt das Kind seriell. Das bedeutet: Gelerntes vermag es zwar wieder aus der Erinnerung zu kramen, aber es hat die reale Wahrnehmung früherer Erlebnisse nicht dauernd griffbereit.

Aus diesem Grund sagt Chengxu Zuang, der am Massachusetts Institute of Technology zum Spracherwerb forscht: «Die Studie zeigt, dass der bestehende CLIP-Algorithmus Wortbedeutungen erlernen kann und dass dies mit einer eingeschränkten Datenmenge gelingt. Noch sind wir aber weit davon entfernt, dass eine künstliche Intelligenz menschlichen Spracherwerb nachbilden kann.»

Vorwissen über Sprache ist nicht ausgeschlossen

Natürlich ist nicht ausgeschlossen, dass das Kind eine Art von angeborenem Vorwissen über Sprache hat. Aber die neue Forschung zeigt, dass das kindliche Gehirn mit dem Erlernen einfacher Assoziationen sehr weit kommt. Und dazu war nur ein Bruchteil der Informationen notwendig, die ein Baby täglich hört und sieht.

Ob das Forschungsprojekt auch eine konkrete Anwendung haben könnte, darüber schweigen sich die Autoren aus. Doch der Sponsor der Studie war das amerikanische Verteidigungsdepartement, das einst die Entwicklung des Internets vorangetrieben hatte. Immer wieder finanziert es auch neurowissenschaftliche Forschung.

Die Studie ist auch ein Schritt in der Entwicklung der künstlichen Intelligenz. Denn bisher wurden diese sogenannten Large Language Models an grossen Datensätzen mit Billionen von Wörtern trainiert. «Wir müssten hunderttausend Jahre leben, um so viele Sprachdaten in unser Gehirn zu laden», sagt Brenden Lake, der die Studie an der New York University durchführte, in einer Medienmitteilung. Doch offenbar ist die Art und Weise, wie Kinder die Welt betrachten und Erwachsene mit ihnen sprechen, sehr effektiv.

Can AI Learn Language the Way Babies Do?

Exit mobile version