Für dieses Experiment stützten sich die Forscher auf 61 Stunden Videomaterial einer Helmkamera, die ein Kind in der Nähe von Adelaide, Australien, trug. Dieses Kind, Sam, trug die Kamera anderthalb Jahre lang immer wieder bei sich, vom Alter von sechs Monaten bis kurz nach seinem zweiten Geburtstag. Die Kamera erfasste die Dinge, die Sam etwa 1 % seiner wachen Stunden lang ansah und auf die er seine Aufmerksamkeit achtete. Er zeichnete Sams zwei Katzen, seine Eltern, sein Kinderbett und Spielzeug, sein Haus, seine Mahlzeiten und vieles mehr auf. „Dieser Datensatz war völlig einzigartig“, sagt Lake. „Es ist das beste Fenster, das wir je hatten, um zu sehen, wozu ein einzelnes Kind Zugang hat.“

Um das Modell zu trainieren, verwendeten Lake und seine Kollegen 600.000 Videobilder, die mit Sätzen verknüpft waren, die von Sams Eltern oder anderen Personen im Raum bei der Aufnahme des Bildes gesprochen wurden, was insgesamt 37.500 „Äußerungen“ ergab. Manchmal stimmten die Wörter und Objekte überein. Manchmal nein. Auf einem Bild schaut Sam beispielsweise auf einen Formensortierer und ein Elternteil sagt: „Du magst Schnüre. » In einem anderen Fall deckt eine erwachsene Hand Blöcke ab und ein Elternteil sagt: „Du willst die Blöcke auch.“ »

Das Team gab dem Modell zwei Hinweise. Wenn Objekte und Wörter aufeinandertreffen, ist das ein Zeichen dafür, dass sie möglicherweise miteinander verbunden sind. Wenn ein Objekt und ein Wort jedoch nicht zusammen vorkommen, ist das ein Zeichen dafür, dass sie wahrscheinlich nicht übereinstimmen. „Wir haben also diese Art von Zusammenkommen und Trennen innerhalb des Modells“, sagt Wai Keen Vong, ein computergestützter Kognitionswissenschaftler an der New York University und Autor der Studie. „Dann hoffen wir, dass es in den Daten genügend Beispiele gibt, bei denen das Kind einen Ball sieht, wenn die Eltern das Wort ‚Ball‘ sagen“, sagt er.

Die Zuordnung von Wörtern zu den Objekten, die sie darstellen, mag wie eine einfache Aufgabe erscheinen, ist es aber nicht. Um Ihnen eine Vorstellung vom Ausmaß des Problems zu geben, stellen Sie sich das Wohnzimmer einer Familie mit kleinen Kindern vor. Es enthält alle normalen Wohnzimmermöbel, aber auch etwas Unordnung für die Kinder. Der Boden ist mit Spielzeug übersät. Bleistifte liegen verstreut auf dem Couchtisch. Auf der Fensterbank steht eine Tasse und auf einem Stuhl Wäsche. Wenn ein Kleinkind das Wort „Ball“ hört, könnte es sich um einen Ball handeln. Es kann sich aber auch auf jedes andere Spielzeug, die Couch, eine Hose, die Form eines Gegenstands, seine Farbe oder die Tageszeit beziehen. „Für jedes Wort gibt es unendlich viele mögliche Bedeutungen“, erklärt Lake.

Das Problem ist so unlösbar, dass einige Entwicklungspsychologen argumentieren, dass Kinder mit einem angeborenen Verständnis dafür geboren werden müssen, wie Sprache funktioniert, um sie so schnell zu lernen. Die Studie legt jedoch nahe, dass einige Teile der Sprache auch ohne diese angeborene Fähigkeit aus einer sehr kleinen Menge an Erfahrungen gelernt werden können, sagt Jess Sullivan, eine Entwicklungspsychologin an der Skidmore University, die Teil des Teams war, das die Daten von Sams Helmkamera sammelte , war aber nicht beteiligt. an der neuen Studie beteiligt. „Für mich bringt es mein Weltbild wirklich durcheinander.“

Aber Sullivan weist darauf hin, dass die Fähigkeit, Wörter den von ihnen repräsentierten Objekten zuzuordnen, zwar ein schwieriges Lernproblem, aber nur einen Teil dessen darstellt, was Sprache ausmacht. Es gibt auch Regeln, die bestimmen, wie Wörter zusammenfließen. Ihr Hund kennt vielleicht die Wörter „Ball“ oder „Spaziergang“, aber das bedeutet nicht, dass er Englisch verstehen kann. Und es könnte sein, dass die angeborene Sprachfähigkeit von Babys über den Wortschatz hinausgeht. Dies kann beeinflussen, wie sie sich durch die Welt bewegen, worauf sie achten oder wie sie auf Sprache reagieren. „Ich glaube nicht, dass die Studie funktioniert hätte, wenn die Babys nicht den Datensatz erstellt hätten, aus dem das neuronale Netzwerk lernte“, sagt sie.

Baby, das eine Kamera auf dem Kopf trägt und in einem Hochstuhl sitzt

BRENDEN-SEE

Der nächste Schritt für Lake und seine Kollegen besteht darin, herauszufinden, was sie benötigen, damit das Lernen des Modells das frühe Sprachenlernen von Kindern besser nachahmt. „Es gibt noch viel zu tun, um ein Modell zu bekommen, dessen Fähigkeiten mit denen eines Zweijährigen vergleichbar sind“, sagt er. Dies könnte bedeuten, dass mehr Daten bereitgestellt werden. Lakes Kind, jetzt 18 Monate alt, ist Teil der nächsten Kohorte von Kindern, die diese Daten liefern werden. Sie trägt einige Stunden pro Woche eine Helmkamera. Oder vielleicht muss das Modell auf den Blick der Eltern achten oder eine Vorstellung von der Festigkeit von Objekten haben, etwas, das Kinder intuitiv erfassen. Die Entwicklung von Modellen, die mehr wie Kinder lernen können, wird Forschern helfen, das menschliche Lernen und die menschliche Entwicklung besser zu verstehen.

KI-Modelle, die einige der Arten, wie Menschen Sprache lernen, aufgreifen können, könnten beim Lernen viel effektiver sein; Sie könnten sich eher wie Menschen verhalten und weniger wie „eine langwierige statistische Maschine für den Mustervergleich“, wie der Linguist Noam Chomsky und seine Kollegen einst große Sprachmodelle wie ChatGPT beschrieben haben. „KI-Systeme sind immer noch fragil und es mangelt ihnen an gesundem Menschenverstand“, sagt Howard Shrobe, der das Defence Advanced Research Projects Agency-Programm der US-Regierung leitet, das zur Finanzierung von Lakes Team beitrug. Aber eine KI, die wie ein Kind lernen kann, könnte in der Lage sein, Bedeutungen zu verstehen, auf neue Situationen zu reagieren und aus neuen Erfahrungen zu lernen. Ziel ist es, die KI näher an die menschliche Intelligenz heranzuführen.

By rb8jg

Leave a Reply

Your email address will not be published. Required fields are marked *