Grabaciones de la vida de un bebé de un año entrenan a una IA para aprender palabras | Tecnología

Desde el nacimiento, los bebés comienzan a recibir estímulos visuales y auditivos, imprescindibles para aprender algo imprescindible en su vida: el lenguaje. Entre los seis y los nueve meses comienzan a hablar, asociando sonidos con objetos y conceptos del mundo real. Cuando cumplen dos años, suelen tener un vocabulario de aproximadamente 300 palabras. Pero ¿cómo se desarrolla este proceso de aprendizaje? Un equipo de investigadores de la Universidad de Nueva York estudió grabaciones de la vida diaria de un niño durante su primer año de vida para encontrar la respuesta. El experimento no sólo confirmó la conexión entre la representación visual y la lingüística -es decir, lo que se ve y la palabra que le corresponde-, sino que también contribuyó al desarrollo de un modelo de inteligencia artificial (IA), que ha logrado reconocer diferentes objetos en de una manera similar a como lo hacen los niños.

“Los grandes sistemas de IA se entrenan y funcionan con una cantidad astronómica de datos. Estamos hablando de miles de millones de palabras para poder desarrollar un sistema de lenguaje”, explica Wai Keen Vong, doctor en psicología e informática, que coordinó el estudio que se publica este jueves en la revista Ciencia. «Sin embargo, los humanos sólo necesitan unos pocos miles de palabras para lograr un sistema de comunicación eficiente», añade. De este contraste nació el interés por investigar si una IA sería capaz de aprender a hablar del mismo modo que los niños: observando su entorno, escuchando a las personas que les rodean y conectando puntos entre lo que ven y oyen.

La adquisición temprana del lenguaje es un tema ampliamente debatido y para el cual se han propuesto varias hipótesis. Tradicionalmente, este tipo de estudios se han realizado en entornos de laboratorio controlados, lo que da como resultado descubrimientos que a menudo no se extrapolan de manera efectiva a contextos más dinámicos y variados del mundo real. “La novedad de este análisis radica en el hecho de que pudimos trabajar con datos de primera mano, derivados de una situación de aprendizaje real”, subraya Vong.

Para ello, el equipo de Vong analizó 61 horas de la vida de Sam, un niño australiano que durante un año y medio -de los seis a los 25 meses de edad- usó un casco con una cámara que registraba las interacciones que tenía con sus padres y abuelos a diario. En realidad, registró sólo el 1% del tiempo que pasó despierto durante la duración del experimento. Aun así, se han conseguido cientos de imágenes que reproducen exactamente lo que el niño estaba viendo, acompañadas de las expresiones lingüísticas de su familia, que explicaban la naturaleza de los objetos que le rodeaban. “Por ejemplo, durante la hora de comer, la cámara que tenía en la cabeza grababa la imagen de una cuchara, al mismo tiempo que su madre le preguntaba algo relacionado con ese utensilio. Y así sucesivamente, con decenas de objetos cotidianos”, explica Vong.

La conexión entre estos dos medios casi nunca es obvia. De hecho, el investigador reconoce que parte del desafío para los bebés es entender exactamente qué palabra está asociada al objeto con el que interactúan. “La mayoría de las veces, los padres no etiquetan todos los objetos. Por cada pelota que Sam miraba, sus padres no le decían «esto es una pelota», «mira la pelota». Escuchó las palabras en un contexto natural y la dificultad es precisamente descubrir, en una frase más o menos larga, qué palabra corresponde al objeto redondo con el que estaba jugando”, señala Vong.

Entrena una IA como un bebé

Tras observar el comportamiento del niño, los investigadores pudieron confirmar que aprendió el significado de las palabras conectando el estímulo visual -es decir, la imagen que se le presentaba- con la respuesta de sus familiares, quienes repetían la palabra correspondiente. Con estos resultados han pasado a la segunda fase del experimento: comprobar si una IA sería capaz de aprender a reconocer objetos del mismo modo que lo hacía Sam.

El modelo de inteligencia artificial, llamado CVCL (La visión del niño para el aprendizaje contrastivo, aprendizaje contrastivo desde la perspectiva del niño), ha sido entrenado con 64 categorías visuales –utensilios, juguetes, animales, entre otras– y la transcripción de lo que Sam escuchaba mientras miraba dichos objetos. Una vez creada esta base de datos, los investigadores comenzaron a realizar pruebas para ver si la IA era capaz de identificar las imágenes. Según Vong, el modelo (con información sensorial limitada y mecanismos de aprendizaje relativamente genéricos) proporciona una base computacional para investigar cómo los niños adquieren sus primeras palabras y cómo esas palabras pueden conectarse con el mundo visual.

«Descubrimos que CVCL puede aprender a establecer conexiones entre imágenes y texto a partir de fragmentos limitados de la experiencia de un solo niño», destacan los autores en el estudio. En algunos casos, los objetos aparecían sobre un fondo blanco, mientras que en otros en un entorno con más estímulos. De hecho, la precisión de clasificación del modelo fue del 61,6% y se mantuvo alta incluso cuando se insertaron en el sistema imágenes distintas de las grabaciones de Sam, en las que la IA no había sido entrenada. «Los resultados confirman nuestra hipótesis de que con sólo dos impulsos, que son lo que el niño ve y lo que oye, es posible conseguir y acelerar este tipo de aprendizaje», destaca Vong.

Estudia cómo nace el habla

Antonio Rodríguez Fornells, investigador del Instituto de Neurociencias de la Universidad de Barcelona, ​​señala el aspecto novedoso del estudio, que abre el camino a comprender, a través de simulaciones computacionales, cuáles son los mecanismos mínimos de aprendizaje que utilizan los niños para afrontar la desafío del aprendizaje. un lenguaje: “Estudios previos sobre bebés en psicología del desarrollo aportan información clave con experimentos muy novedosos, pero la falta de estudios de neurociencia o neuroimagen sobre ellos (debido a la dificultad de aplicar estas técnicas en bebés) no permite avanzar tanto”. en neurociencia para aclarar los mecanismos cerebrales que apoyan estos procesos de adquisición del lenguaje”, explica este neurocientífico.

Además, reconoce que las simulaciones propuestas en el artículo apoyan ciertas teorías del lenguaje propuestas previamente. «Entre ellos, que simplemente con simples mecanismos de aprendizaje asociativo (que permitan vincular imágenes y palabras) en un ambiente natural de aprendizaje (como el que experimentan los niños al nacer y en los primeros meses de su vida) es suficiente para poder aprender estas relaciones y generalizar el contenido del significado”, añade Rodríguez Fornells.

Aun así, el estudio tiene algunas limitaciones. El modelo CVCL se entrenó con grabaciones de una única cámara montada en la cabeza de un solo niño y se aprendió a través de transcripciones de voz en lugar de habla directa, que omite matices importantes como la entonación y el énfasis. “Hay que recordar también que el aprendizaje del modelo fue pasivo, basado en grabaciones, sin interacción activa con el entorno, lo que difiere de cómo aprenden los niños en entornos reales”, reconocen los autores de la investigación.

puedes seguir SUJETO en Facebook, X y Instagramo regístrate aquí para recibir nuestro boletín semanal.


Entrada siguiente

HereAfter AI: Hablando con los que ya no están: el riesgo de resucitar muertos con inteligencia artificial | Tecnología

Mar Feb 6 , 2024
Entre lágrimas, luego de escuchar a sus familiares fallecidos, varias mujeres confesaron su asombro ante la Espectáculo televisión El hormiguero (Antena 3). “Se sentía súper real y lo necesitaba, realmente lo necesitaba”, sollozó una joven frente a las cámaras. “La voz es increíble, muy contenta con la experiencia”, añadió otra […]
HereAfter AI: Hablando con los que ya no están: el riesgo de resucitar muertos con inteligencia artificial |  Tecnología

Puede que te guste

Chief Editor

Johny Watshon

Lorem ipsum dolor sit amet, consectetur adipiscing elit, sed do eiusmod tempor incididunt ut labore et dolore magna aliqua. Ut enim ad minim veniam, quis nostrud exercitation ullamco laboris nisi ut aliquip ex ea commodo consequat. Duis aute irure dolor in reprehenderit in voluptate velit esse cillum dolore eu fugiat nulla pariatur

Quick Links