Fundada en 2018, Runway ha estado desarrollando software de edición de video basado en IA durante varios años. Sus herramientas son utilizadas por TikTokers y YouTubers, así como por los principales estudios de cine y televisión. los fabricantes de El programa tardío con Stephen Colbert usó el software Runway para editar los gráficos del programa; el equipo de efectos visuales detrás de la exitosa película Todo en todas partes a la vez utilizó la tecnología de la empresa para ayudar a crear algunas escenas.
En 2021, Runway colaboró con investigadores de la Universidad de Munich para construir la primera versión de Stable Diffusion. Stability AI, una startup con sede en el Reino Unido, intervino para pagar los costos informáticos necesarios para entrenar el modelo con muchos más datos. En 2022, Stability AI tomó la corriente principal de Stable Diffusion, transformándolo de un proyecto de investigación en un fenómeno global.
Pero las dos empresas ya no trabajan juntas. Getty ahora está tomando acciones legales contra Stability AI, alegando que la compañía usó las imágenes de Getty, que aparecen en los datos de entrenamiento de Stable Diffusion, sin permiso, y Runway desea mantener su distancia.
PISTA
Gen-1 representa un nuevo comienzo para Runway. Sigue un puñado de plantillas de texto a video reveladas a fines del año pasado, incluidas Make-a-Video de Meta y Phenaki de Google, las cuales pueden generar videoclips muy cortos desde cero. También es similar a Dreamix, una IA generativa de Google revelada la semana pasada que puede crear nuevos videos a partir de videos existentes aplicando estilos específicos. Pero al menos a juzgar por el carrete de demostración de Runway, Gen-1 parece una mejora en la calidad del video. Debido a que transforma imágenes existentes, también puede producir videos mucho más largos que la mayoría de los modelos anteriores. (La compañía dice que publicará detalles técnicos sobre Gen-1 en su sitio web en los próximos días).
A diferencia de Meta y Google, Runway construyó su modelo pensando en los clientes. “Es uno de los primeros modelos desarrollados en estrecha colaboración con una comunidad de camarógrafos”, dice Valenzuela. “Viene con años de conocimiento sobre cómo los cineastas y los editores de VFX trabajan realmente en la posproducción”.
Gen-1, que se ejecuta en la nube a través del sitio web de Runway, está disponible para un puñado de usuarios invitados hoy y se lanzará para todos en la lista de espera en unas pocas semanas.
La explosión de IA generativa del año pasado fue impulsada por los millones de personas que tuvieron en sus manos poderosas herramientas creativas por primera vez y compartieron lo que hicieron con ellas. Valenzuela espera que poner Gen-1 en manos de profesionales creativos pronto tenga un impacto similar en el video.
“Estamos realmente a punto de producir largometrajes”, dice. “Estamos cerca de un lugar donde se generará la mayor parte del contenido que verá en línea”.