À medida que as guerras de vídeo AI continuam a se intensificar com novos modelos de geração de vídeo realistas sendo lançados quase semanalmente, o líder inicial Runway não está cedendo terreno em termos de capacidades.
Na verdade, a startup com sede em Nova York — financiada com mais de $100 milhões por Google e Nvidia, entre outros — está realmente implantando novos recursos que ajudam a diferenciá-la. Hoje, por exemplo, lançou um poderoso novo conjunto de controles de câmera AI avançados para seu modelo de geração de vídeo Gen-3 Alpha Turbo.
Agora, quando os usuários geram um novo vídeo a partir de prompts de texto, imagens carregadas ou seu próprio vídeo, o usuário também pode controlar como os efeitos e cenas gerados pela AI se desenrolam de maneira muito mais granular do que com um “rolar de dados” aleatório.
O Controle Avançado de Câmera agora está disponível para o Gen-3 Alpha Turbo. Escolha tanto a direção quanto a intensidade de como você se move através de suas cenas para ainda mais intenção em cada tomada.
Em vez disso, como o Runway mostra em uma thread de vídeos de exemplo carregados em sua conta X, o usuário pode realmente dar zoom in e out de sua cena e sujeitos, preservando até as formas de personagens gerados pela AI e o cenário atrás deles, colocando-os e seus espectadores em um mundo totalmente realizado, aparentemente 3D — como se estivessem em um verdadeiro set de filme ou em locação.
Como escreveu o CEO do Runway, Crisóbal Valenzuela, no X, “Quem disse 3D?”
Esse é um grande avanço em capacidades. Mesmo que outros geradores de vídeo AI e o próprio Runway tenham oferecido anteriormente controles de câmera, eles eram relativamente bruscos e a maneira como geravam um novo vídeo resultante era muitas vezes aparentemente aleatória e limitada — tentar panorâmicas para cima ou para baixo ou ao redor de um sujeito poderia, às vezes, deformá-lo ou transformá-lo em 2D ou resultar em deformações e falhas estranhas.
O que você pode fazer com os novos Controles Avançados de Câmera do Runway Gen-3 Alpha Turbo
Os Controles Avançados de Câmera incluem opções para definir tanto a direção quanto a intensidade dos movimentos, proporcionando aos usuários capacidades nuançadas para moldar seus projetos visuais. Entre os destaques, os criadores podem usar movimentos horizontais para arquear suavemente ao redor de sujeitos ou explorar locais de diferentes ângulos, aumentando a sensação de imersão e perspectiva.
Para aqueles que desejam experimentar dinâmicas de movimento, o conjunto de ferramentas permite a combinação de vários movimentos de câmera com rampas de velocidade. Esse recurso é particularmente útil para gerar loops ou transições visualmente envolventes, oferecendo maior potencial criativo. Os usuários também podem realizar zooms dramáticos, navegando mais profundamente nas cenas com um toque cinematográfico, ou executar zooms rápidos para introduzir um novo contexto, mudando o foco narrativo e proporcionando ao público uma nova perspectiva.
A atualização também inclui opções para movimentos de caminhamento lentos, que permitem que a câmera deslize suavemente pelas cenas. Isso proporciona uma experiência de visualização controlada e intencional, ideal para enfatizar detalhes ou criar suspense. A integração do Runway dessas diversas opções visa transformar a maneira como os usuários pensam sobre o trabalho de câmera digital, permitindo transições suaves e composição de cena aprimorada.
Essas capacidades estão agora disponíveis para criadores que usam o modelo Gen-3 Alpha Turbo. Para explorar a gama completa de recursos de Controle Avançado de Câmera, os usuários podem visitar a plataforma Runway em runwayml.com.
Embora ainda não tenhamos testado o novo modelo Runway Gen-3 Alpha Turbo, os vídeos que mostram suas capacidades indicam um nível de precisão muito maior no controle e devem ajudar cineastas de AI — incluindo aqueles de grandes estúdios de Hollywood, como Lionsgate, com quem o Runway recentemente se associou — a realizar cenas de qualidade de grandes filmes mais rapidamente, de forma mais acessível e sem costura do que nunca.
Questionado pela VentureBeat por mensagem direta no X se o Runway havia desenvolvido um modelo de geração de cena 3D AI — algo atualmente sendo perseguido por outros rivais da China e dos EUA, como Midjourney — Valenzuela respondeu: “modelos de mundo :-).”
O Runway mencionou pela primeira vez que estava construindo modelos de AI projetados para simular o mundo físico em dezembro de 2023, quase um ano atrás, quando o cofundador e diretor de tecnologia (CTO) Anastasis Germanidis postou no site do Runway sobre o conceito, afirmando:
“Um modelo de mundo é um sistema de AI que constrói uma representação interna de um ambiente e a usa para simular eventos futuros dentro desse ambiente. A pesquisa em modelos de mundo até agora se concentrou em configurações muito limitadas e controladas, seja em mundos simulados de brinquedo (como os dos videogames) ou contextos estreitos (como o desenvolvimento de modelos de mundo para direção). O objetivo dos modelos de mundo gerais será representar e simular uma ampla gama de situações e interações, como aquelas encontradas no mundo real.”
Como evidenciado nos novos controles de câmera revelados hoje, o Runway está bem avançado em sua jornada para construir tais modelos e implantá-los para os usuários.