Cómo Google hizo su IA generativa ‘Try On’

Google está lanzando una IA generativa relacionada con la moda que tiene como objetivo hacer que las pruebas virtuales de ropa sean más realistas. La compañía lo compara con la tecnología de vista previa del armario de Cher en la película “despistado.”

Esta nueva herramienta estará disponible por primera vez en EE. UU. para marcas como Anthropologie, LOFT, H&M y Everlane. Productos que puedes utilizar esta característica en

se etiquetará con un botón “Probar”. Google dice que tiene la intención de extender esto a más en el futuro.

La herramienta en realidad no muestra cómo se vería la ropa en ti personalmente, sino que te da la oportunidad de encontrar un modelo que crees que te representa físicamente. La creación de una herramienta que pueda imitar cómo la ropa de la vida real cae, se dobla, se pega, se estira y se arruga comienza con fotografías de una gama de modelos reales con diferentes formas y tamaños corporales. De esa manera, los compradores pueden elegir un modelo con cierto tono de piel o tipo de cuerpo, y ver cómo se ve el atuendo en ese modelo. La pieza central de la IA generativa es una técnica de difusión que combina propiedades en una imagen de una prenda con otra imagen de una persona.

[Related: A guide to the internet’s favorite generative AIs]

“La difusión es el proceso de agregar gradualmente píxeles adicionales (o ‘ruido’) a una imagen hasta que se vuelve irreconocible, y luego eliminar el ruido por completo hasta que la imagen original se reconstruye con una calidad perfecta”, Ira Kemelmacher-Shlizerman, científica investigadora sénior del personal. en Google Shopping explicado en un artículo de blog

. “En lugar de usar texto como entrada durante la difusión, usamos un par de imágenes… Cada imagen se envía a su propio red neuronal (una U-net) y comparten información entre sí en un proceso llamado ‘atención cruzada’ para generar el resultado: una imagen fotorrealista de la persona que usa la prenda”.

imagen de IA
Una ilustración de la técnica de difusión. Google

[Related: Bella Hadid’s spray-on dress was inspired by the science of silly string]

La herramienta, una vez construida, fue entrenada en Google’s Gráfico de compras, que alberga unos 35 mil millones de productos de minoristas en toda la web. Los investigadores presentaron un papel describiendo esta técnica en la Conferencia IEEE sobre Visión por Computador y Reconocimiento de Patrones este año. En su artículo, los investigadores también mostraron cómo sus imágenes se comparan con las técnicas actuales, como la deformación geométrica y otras herramientas de prueba virtuales.

Por supuesto, aunque ofrece una buena visualización de cómo se vería la ropa en un modelo que es similar o útil para el comprador, no promete un buen ajuste y solo está disponible para prendas de la parte superior del cuerpo. Para pantalones y faldas, los usuarios solo tendrán que esperar a la próxima iteración.

Google también está comenzando el verano con una colección de otras nuevas funciones de inteligencia artificial en todas sus plataformas, que incluyen mapas, lente, laboratorios y más.

Leave a Reply

Your email address will not be published. Required fields are marked *