La startup original detrás de Stable Diffusion ha lanzado una IA generativa para video

La startup original detrás de Stable Diffusion ha lanzado una IA generativa para video

Establecida en 2018, Runway ha estado desarrollando software de edición de video impulsado por IA durante varios años. Sus herramientas son utilizadas por TikTokers y YouTubers, así como por los principales estudios de cine y televisión. los creadores de El programa tardío con Stephen Colbert usó el software Runway para editar los gráficos del programa; el equipo de efectos visuales detrás de la exitosa película Todo en todas partes a la vez usó la tecnología de la compañía para ayudar a crear ciertas escenas.

En 2021, Runway colaboró ​​con investigadores de la Universidad de Munich para construir la primera versión de Stable Diffusion. Stability AI, una startup con sede en el Reino Unido, intervino para pagar los costos informáticos necesarios para entrenar el modelo con muchos más datos. En 2022, Stability AI tomó la corriente principal de Stable Diffusion, transformándolo de un proyecto de investigación en un fenómeno global.

Pero las dos empresas ya no colaboran. Getty ahora está tomando acciones legales contra Stability AI, alegando que la compañía usó las imágenes de Getty, que aparecen en los datos de capacitación de Stable Diffusion, sin permiso, y Runway desea mantener su distancia.

Gen-1 representa un nuevo comienzo para Runway. Sigue una serie de modelos de texto a video revelados a fines del año pasado, incluidos Make-a-Video de Meta y Phenaki de Google, los cuales pueden generar videoclips muy cortos desde cero. También es similar a Dreamix, una IA generativa de Google revelada la semana pasada, que puede crear nuevos videos a partir de los existentes aplicando estilos específicos. Pero al menos a juzgar por el carrete de demostración de Runway, Gen-1 parece ser un paso adelante en la calidad del video. Debido a que transforma imágenes existentes, también puede producir videos mucho más largos que la mayoría de los modelos anteriores. (La compañía dice que publicará detalles técnicos sobre Gen-1 en su sitio web en los próximos días).

A diferencia de Meta y Google, Runway ha construido su modelo pensando en los clientes. “Este es uno de los primeros modelos desarrollados muy de cerca con una comunidad de creadores de videos”, dice Valenzuela. “Viene con años de conocimiento sobre cómo los cineastas y los editores de efectos visuales trabajan realmente en la posproducción”.

Gen-1, que se ejecuta en la nube a través del sitio web de Runway, está disponible hoy para un puñado de usuarios invitados y se lanzará a todos los que están en la lista de espera en unas pocas semanas.

La explosión del año pasado en la IA generativa fue impulsada por los millones de personas que tuvieron en sus manos poderosas herramientas creativas por primera vez y compartieron lo que hicieron con ellas. Valenzuela espera que poner Gen-1 en manos de profesionales creativos pronto tenga un impacto similar en el video.

“Estamos muy cerca de generar películas completas”, dice. “Estamos cerca de un lugar donde se generará la mayor parte del contenido que verá en línea”.

Leave a Reply

Your email address will not be published. Required fields are marked *