La IA está cambiando la comprensión de los científicos sobre el aprendizaje de idiomas

La IA está cambiando la comprensión de los científicos sobre el aprendizaje de idiomas
¿Es suficiente vivir en un mundo rico en idiomas para enseñarle a un niño el lenguaje gramatical?
Agrandar / ¿Es suficiente vivir en un mundo rico en idiomas para enseñarle a un niño el lenguaje gramatical?

A diferencia del diálogo cuidadosamente escrito que se encuentra en la mayoría de los libros y películas, el lenguaje de la interacción cotidiana tiende a ser desordenado e incompleto, lleno de falsos comienzos, interrupciones y personas que hablan entre sí. Desde conversaciones informales entre amigos hasta disputas entre hermanos y discusiones formales en una sala de juntas. conversación auténtica es caótico Parece milagroso que cualquiera pueda aprender un idioma dada la naturaleza desordenada de la experiencia lingüística.

Por esta razón, muchos científicos del lenguaje, incluidos Noam Chomsky, uno de los fundadores de la lingüística moderna, cree que los estudiantes de idiomas necesitan una especie de pegamento para controlar la naturaleza ingobernable del lenguaje cotidiano. Y ese pegamento es la gramática: un sistema de reglas para generar oraciones gramaticales.

Los niños deben tener un plantilla de gramática conectada a sus cerebros para ayudarlos a superar las limitaciones de su experiencia lingüística, o eso es lo que se piensa.

Esta plantilla, por ejemplo, puede contener una “súper regla” que dicte cómo se agregan nuevas piezas a las frases existentes. Los niños solo necesitan aprender si su lengua materna es una, como el inglés, donde el verbo va antes del objeto (como en “Yo como sushi”), o una como el japonés, donde el verbo va después del objeto (en japonés, el misma oración está estructurada como “Yo como sushi”).

Pero los nuevos conocimientos sobre el aprendizaje de idiomas provienen de una fuente poco probable: la inteligencia artificial. Una nueva generación de grandes modelos de lenguaje de IA puede escribir artículos periodísticos, poesíay codigo de computadora y responder preguntas con la verdad después de haber estado expuesto a grandes cantidades de entrada de lenguaje. Y lo que es aún más sorprendente, todos lo hacen sin la ayuda de la gramática.

Lenguaje gramatical sin gramática.

Incluso si su la elección de palabras a veces es extraña, absurdoo contiene prejuicios racistas, sexistas y otros sesgos dañinos, una cosa está muy clara: la gran mayoría de los resultados de estos modelos de lenguaje de IA son gramaticalmente correctos. Y, sin embargo, no hay plantillas gramaticales o reglas integradas en ellos: se basan solo en la experiencia lingüística, por complicada que sea.

GPT-3, posiblemente el el más conocido de estos modeloses un gigante red neuronal de aprendizaje profundo con 175 mil millones de parámetros. Fue entrenado para predecir la siguiente palabra en una oración dada lo que había antes en cientos de miles de millones de palabras de Internet, libros y Wikipedia. Cuando hacía una predicción incorrecta, sus parámetros se ajustaban mediante un algoritmo de aprendizaje automático.

Sorprendentemente, GPT-3 puede generar texto creíble que reacciona a indicaciones como “Un resumen de la última película de ‘Rápido y furioso’ es…” o “Escribe un poema al estilo de Emily Dickinson”. Es más, GPT-3 puede responder a analogías de nivel SAT, preguntas de comprensión de lectura e incluso resolver problemas aritméticos simples, todo desde aprender a predecir la siguiente palabra.

Un modelo de IA y un cerebro humano pueden generar el mismo lenguaje, pero ¿lo están haciendo de la misma manera?
Agrandar / Un modelo de IA y un cerebro humano pueden generar el mismo lenguaje, pero ¿lo están haciendo de la misma manera?

Just_Super/E+ a través de Getty

Comparación de modelos de IA y cerebros humanos

Sin embargo, la similitud con el lenguaje humano no se detiene aquí. La investigación publicada en Nature Neuroscience demostró que estas redes artificiales de aprendizaje profundo parecen utilizar la mismos principios computacionales que el cerebro humano

. El grupo de investigación, liderado por neurocientífico Uri Hassonprimero comparó qué tan bien GPT-2—un “hermano pequeño” de GPT-3— y los humanos podían predecir la siguiente palabra en una historia tomada del podcast “This American Life”: las personas y la IA predijeron exactamente la misma palabra casi el 50 por ciento de las veces.

Los investigadores registraron la actividad cerebral de los voluntarios mientras escuchaban la historia. La mejor explicación para los patrones de activación que observaron fue que los cerebros de las personas, como GPT-2, no solo usaban una o dos palabras anteriores al hacer predicciones, sino que se basaban en el contexto acumulado de hasta 100 palabras anteriores. En conjunto, los autores concluyen: “Nuestro hallazgo de señales neuronales predictivas espontáneas cuando los participantes escuchan el habla natural sugiere que la predicción activa puede ser la base del aprendizaje de idiomas a lo largo de la vida de los humanos.”

Una posible preocupación es que estos nuevos modelos de lenguaje de IA reciben muchos aportes: GPT-3 se entrenó en experiencia lingüística equivalente a 20.000 años humanos. Pero un estudio preliminar que aún no ha sido revisado por pares descubrió que GPT-2 aún puede modelar predicciones de la siguiente palabra humana y activaciones cerebrales incluso cuando se entrena en solo 100 millones de palabras. Eso está dentro de la cantidad de aportes lingüísticos que un niño promedio podría escuchar durante los primeros 10 años de vida.

No estamos sugiriendo que GPT-3 o GPT-2 aprendan el idioma exactamente como lo hacen los niños. Por cierto, estos modelos de IA no parecen comprender muchoen todo caso, de lo que están diciendo, mientras que la comprensión es fundamental para el uso del lenguaje humano. Aún así, lo que estos modelos prueban es que un alumno, aunque sea uno de silicio, puede aprender un idioma lo suficientemente bien con la mera exposición para producir oraciones gramaticales perfectamente buenas y hacerlo de una manera que se asemeja al procesamiento del cerebro humano.

Más ida y vuelta produce más aprendizaje de idiomas.
Agrandar / Más ida y vuelta produce más aprendizaje de idiomas.

Repensar el aprendizaje de idiomas

Durante años, muchos lingüistas han creído que aprender un idioma es imposible sin una plantilla de gramática incorporada. Los nuevos modelos de IA demuestran lo contrario. Demuestran que la capacidad de producir lenguaje gramatical se puede aprender solo de la experiencia lingüística. Así mismo, sugerimos que los niños no necesitan una gramática innata para aprender el idioma.

“Los niños deben ser vistos, no escuchados”, dice el viejo refrán, pero los últimos modelos de lenguaje de IA sugieren que nada podría estar más lejos de la verdad. En cambio, los niños necesitan ser involucrado en el ida y vuelta de la conversación tanto como sea posible para ayudarlos a desarrollar sus habilidades lingüísticas. La experiencia lingüística, no la gramática, es clave para convertirse en un usuario competente del idioma.

Morten H Christiansen es profesor de psicología en Universidad de Cornelly Pablo Contreras Kallens es un doctorado estudiante de psicologia en Universidad de Cornell.

Este artículo se vuelve a publicar de La conversación bajo una licencia Creative Commons. Leer el artículo original.

Leave a Reply

Your email address will not be published. Required fields are marked *