Qué esperar del próximo año en IA

Qué esperar del próximo año en IA

Tengo una silla de la vergüenza en casa. Con esto me refiero a una silla en mi dormitorio en la que apilo ropa usada que no está lo suficientemente sucia como para lavarla. Por alguna razón inexplicable, doblar y guardar esa ropa me parece una tarea abrumadora cuando me voy a la cama por la noche, así que la dejo en la silla para “más tarde”. Pagaría una buena cantidad de dinero para automatizar ese trabajo antes de que la silla quede cubierta por una montaña de ropa.

Gracias a la IA, poco a poco estamos avanzando hacia el objetivo de contar con robots domésticos que puedan realizar nuestras tareas. Construir robots domésticos verdaderamente útiles a los que podamos descargar tareas fácilmente ha sido una fantasía de ciencia ficción durante décadas y es el objetivo final de muchos expertos en robótica. Pero los robots son torpes y tienen dificultades para hacer cosas que a nosotros nos resultan fáciles. Los tipos de robots que pueden hacer cosas muy complejas, como cirugía, a menudo cuestan cientos de miles de dólares, lo que los hace prohibitivamente caros.

Yo solo publicó una historia en un nuevo sistema robótico de Stanford llamado Mobile ALOHA, que los investigadores utilizaron para conseguir un robot con ruedas barato y disponible en el mercado para hacer cosas increíblemente complejas por sí solo, como cocinar camarones, limpiar manchas de superficies y mover sillas. Incluso lograron que preparara una comida de tres platos, aunque eso fue con supervisión humana. Lea más sobre esto aquí

.

La robótica está en un punto de inflexión, dice Chelsea Finn, profesora asistente en la Universidad de Stanford, quien fue asesora del proyecto. En el pasado, los investigadores se han visto limitados por la cantidad de datos con los que pueden entrenar robots. Ahora hay muchos más datos disponibles, y trabajos como Mobile ALOHA demuestran que con redes neuronales y más datos, los robots pueden aprender tareas complejas con bastante rapidez y facilidad, afirma.

Mientras que los modelos de IA, como los grandes modelos de lenguaje que impulsan los chatbots, se entrenan con enormes conjuntos de datos extraídos de Internet, los robots deben entrenarse con datos recopilados físicamente. Esto hace que sea mucho más difícil crear grandes conjuntos de datos. Un equipo de investigadores de la Universidad de Nueva York y Meta ideó recientemente una forma sencilla e inteligente de solucionar este problema. Usaron un iPhone conectado a un dispositivo de agarre para grabar a los voluntarios realizando tareas en casa. Luego pudieron entrenar un sistema llamado Dobb-E (10 puntos para Ravenclaw por ese nombre) para completar más de 100 tareas domésticas en unos 20 minutos. (Lea más de Rhiannon Williams aquí.)

Mobile ALOHA también desmiente la creencia sostenida en la comunidad de robótica de que eran principalmente deficiencias de hardware las que limitaban la capacidad de los robots para realizar tales tareas, dice Deepak Pathak, profesor asistente de la Universidad Carnegie Mellon, que tampoco formó parte del equipo de investigación.

“La pieza que falta es la IA”, afirma.

La IA también se ha mostrado prometedora a la hora de lograr que los robots respondan a órdenes verbales y ayudarlos a adaptarse a los entornos, a menudo desordenados, del mundo real. Por ejemplo, Google sistema RT-2 combina un modelo de visión-lenguaje-acción con un robot. Esto permite al robot “ver” y analizar el mundo y responder a instrucciones verbales para hacerlo moverse. Y un nuevo sistema llamado AutoRT de DeepMind utiliza un modelo de visión y lenguaje similar para ayudar a los robots a adaptarse a entornos invisibles, y un modelo de lenguaje de gran tamaño para generar instrucciones para una flota de robots.

Y ahora viene la mala noticia: ni siquiera los robots más avanzados todavía pueden lavar la ropa. Es una tarea mucho más difícil para los robots que para los humanos. La ropa arrugada adquiere formas extrañas que dificultan el procesamiento y manipulación de los robots.

Leave a Reply

Your email address will not be published. Required fields are marked *