Esta Inteligencia Artificial aprendió lenguaje a través de los ojos de un bebé

Un modelo de inteligencia artificial (IA) ha aprendido a reconocer palabras como “cuna” y “pelota” estudiando grabaciones de casco de una pequeña fracción de la vida de un solo bebé. Los resultados sugieren que la IA puede ayudarnos a comprender cómo aprenden los humanos, afirma Wai Keen Vong, coautor del estudio e investigador de IA en la Universidad de Nueva York. Esto ha sido previamente incierto, ya que otros modelos de aprendizaje de lenguaje, como ChatGPT, aprenden de miles de millones de puntos de datos, lo cual no es comparable con las experiencias del mundo real de un infante, dice Vong. “No nos dan internet cuando nacemos”. Los autores esperan que la investigación, informada en Science el 1 de febrero, alimente debates de larga data sobre cómo los niños aprenden el lenguaje. La IA aprendió solo construyendo asociaciones entre las imágenes y palabras que vio juntas; no fue programada con ningún otro conocimiento previo sobre el lenguaje. Esto desafía algunas teorías de la ciencia cognitiva que, para atribuir significado a las palabras, los bebés necesitan algún conocimiento innato sobre cómo funciona el lenguaje, dice Vong.

Vong y sus colegas utilizaron 61 horas de grabaciones de una cámara montada en un casco llevado por un bebé llamado Sam, para recopilar experiencias desde la perspectiva del infante. Sam, quien vive cerca de Adelaida en Australia, llevó la cámara alrededor de una hora dos veces por semana (aproximadamente el 1% de sus horas de vigilia), desde la edad de seis meses hasta alrededor de dos años. Los investigadores entrenaron su red neuronal —una IA inspirada en la estructura del cerebro— en fotogramas del video y palabras habladas a Sam, transcritas de la grabación. El modelo fue expuesto a 250,000 palabras e imágenes correspondientes, capturadas durante actividades como jugar, leer y comer. El modelo utilizó una técnica llamada aprendizaje contrastivo para aprender qué imágenes y texto tienden a ir juntas y cuáles no, para acumular información que puede usarse para predecir a qué imágenes se refieren ciertas palabras, como “pelota” y “tazón”.

La dependencia del estudio en datos de un solo niño podría plantear preguntas sobre la generalización de sus hallazgos, porque las experiencias y entornos de los niños varían enormemente, dice Bortfeld. Pero el ejercicio reveló que se puede aprender mucho en los primeros días del infante solo formando asociaciones entre diferentes fuentes sensoriales, agrega. Los hallazgos también desafían a científicos, como el lingüista estadounidense Noam Chomsky, que afirman que el lenguaje es demasiado complejo y la entrada de información es demasiado escasa, para que la adquisición del lenguaje ocurra a través de procesos de aprendizaje generales. “Estos son algunos de los datos más fuertes que he visto mostrando que tales mecanismos ‘especiales’ no son necesarios”, dice Bortfeld.

leer más en www.nature.com

Sobre el Autor

AI
AI
Este artículo ha sido seleccionado y parcialmente escrito e ilustrado por Inteligencia Artificial (AI) basado en noticias disponibles.

Sé el primero en comentar en «Esta Inteligencia Artificial aprendió lenguaje a través de los ojos de un bebé»

Deja un comentario

Tu dirección de correo electrónico no será publicada.


*


WP2Social Auto Publish Powered By : XYZScripts.com