Este bebé con una cámara en la cabeza ayudó a enseñarle a una IA cómo los niños aprenden el lenguaje

Este bebé con una cámara en la cabeza ayudó a enseñarle a una IA cómo los niños aprenden el lenguaje

Para este experimento, los investigadores se basaron en 61 horas de vídeo de una cámara de casco usada por un niño que vive cerca de Adelaida, Australia. Ese niño, Sam, usó la cámara de vez en cuando durante un año y medio, desde que tenía seis meses hasta poco después de su segundo cumpleaños. La cámara capturó las cosas que Sam miraba y a las que prestaba atención durante aproximadamente el 1% de sus horas de vigilia. Grabó a los dos gatos de Sam, sus padres, su cuna y sus juguetes, su casa, sus comidas y mucho más. “Este conjunto de datos era totalmente único”, dice Lake. “Es la mejor ventana que hemos tenido sobre a qué tiene acceso un solo niño”.

Para entrenar el modelo, Lake y sus colegas utilizaron 600.000 fotogramas de vídeo combinados con las frases pronunciadas por los padres de Sam u otras personas en la habitación cuando se capturó la imagen: 37.500 “expresiones” en total. A veces las palabras y los objetos coincidían. A veces no lo hacían. Por ejemplo, en una fotografía, Sam mira un clasificador de formas y uno de los padres dice: “Te gusta la cuerda”. En otro, la mano de un adulto cubre algunos bloques y un padre dice: “Tú también quieres los bloques”.

El equipo le dio al modelo dos pistas. Cuando los objetos y las palabras aparecen juntos, es una señal de que podrían estar vinculados. Pero cuando un objeto y una palabra no aparecen juntos, es una señal de que probablemente no coincidan. “Así que tenemos este tipo de unión y separación que ocurre dentro del modelo”, dice Wai Keen Vong, científico cognitivo computacional de la Universidad de Nueva York y autor d el estudio. “Entonces la esperanza es que haya suficientes casos en los datos en los que cuando el padre dice la palabra ‘pelota’, el niño esté viendo una pelota”, dice.

Relacionar palabras con los objetos que representan puede parecer una tarea sencilla, pero no lo es. Para tener una idea del alcance del problema, imaginemos el salón de una familia con niños pequeños. Tiene todos los muebles normales de una sala de estar, pero también desorden de niños. El suelo está lleno de juguetes. Hay crayones esparcidos sobre la mesa de café. Hay una taza de refrigerio en el alféizar de la ventana y ropa sucia en una silla. Si un niño pequeño escucha la palabra “pelota”, podría referirse a una pelota. Pero también podría referirse a cualquier otro juguete, o al sofá, o a un pantalón, o a la forma de un objeto, o a su color, o a la hora del día. “Hay un número infinito de significados posibles para cualquier palabra”, dice Lake.

El problema es tan difícil de resolver que algunos psicólogos del desarrollo han argumentado que los niños deben nacer con una comprensión innata de cómo funciona el lenguaje para poder aprenderlo tan rápidamente. Pero el estudio sugiere que algunas partes del lenguaje se pue den aprender a partir de un conjunto realmente pequeño de experiencias, incluso sin esa habilidad innata, dice Jess Sullivan, psicóloga del desarrollo de la Universidad Skidmore, que formó parte del equipo que recopiló los datos de la cámara del casco de Sam, pero no involucrados en el nuevo estudio. “Eso, para mí, realmente cambia mi visión del mundo”.

Pero Sullivan señala que ser capaz de relacionar palabras con los objetos que representan, aunque sea un problema de aprendizaje difícil, es sólo una parte de lo que constituye el lenguaje. También existen reglas que rigen cómo se unen las palabras. Es posible que su perro conozca las palabras “pelota” o “caminar”, pero eso no significa que pueda entender inglés. Y podría ser que cualquier capacidad innata para el lenguaje que posean los bebés vaya más allá del vocabulario. Podría influir en cómo se mueven por el mundo, a qué prestan atención o cómo responden al lenguaje. “No creo que el estudio hubiera funcionado si los bebés no hubieran creado el conjunto de datos del que aprendía la red neuronal”, afirma.

Bebé con una cámara en la cabeza sentado en una silla alta.

LAGO BRENDEN

El siguiente paso para Lake y sus colegas es tratar de descubrir qué necesitan para que el aprendizaje del modelo reproduzca más fielmente el aprendizaje temprano del lenguaje en los niños. “Queda más trabajo por hacer para tratar de conseguir un modelo con capacidades totalmente parecidas a las de un niño de dos años”, afirma. Eso podría significar proporcionar más datos. El hijo de Lake, que ahora tiene 18 meses, es parte del próximo grupo de niños que proporcionarán esos datos. Lleva una cámara en el casco durante unas horas a la semana. O tal vez el modelo necesita prestar atención a la mirada de los padres, o tener alguna sensación de la solidez de los objetos, algo que los niños captan intuitivamente. La creación de modelos que puedan aprender más como los niños ayudará a los investigadores a comprender mejor el aprendizaje y el desarrollo humanos.

Los modelos de IA que pueden captar algunas de las formas en que los humanos aprenden el lenguaje podrían ser mucho más eficientes en el aprendizaje; podrían actuar más como humanos y menos como “un pesado motor estadístico para la coincidencia de patrones”, como una vez describieron el lingüista Noam Chomsky y sus colegas grandes modelos de lenguaje como ChatGPT. “Los sistemas de IA todavía son frágiles y carecen de sentido común”, dice Howard Shrobe, que dirige el programa de la Agencia de Proyectos de Investigación Avanzada de Defensa del gobierno de Estados Unidos que ayudó a financiar el equipo de Lake. Pero una IA que pudiera aprender como un niño podría ser capaz de comprender el significado, responder a situaciones nuevas y aprender de nuevas experiencias. El objetivo es acercar la IA un paso más a la inteligencia humana.

Leave a Reply

Your email address will not be published. Required fields are marked *