Como os mecanismos de videogame ajudam a criar efeitos visuais em sets de filmagem em tempo real

Artigo original do Variety.

Donald Glover ficou impressionado. "Esta é a coisa mais legal que já fiz", ele pode ser ouvido murmurando em um microfone quente depois de ter colocado o Millennium Falcon em hiperdrive pela primeira vez no set de "Solo: Uma História Star Wars”.


O que impressionou tanto Glover foi que a cena não foi filmada na frente de uma tela verde, como é tipicamente o caso de filmes que dependem muito de efeitos visuais. Em vez disso, a Industrial Light & Magic da Lucasfilm construiu uma configuração elaborada de cinco projetores a laser 4K em torno do cockpit do Millennium Falcon, que exibia a animação icônica do hyperdrive em tempo real. A instalação não apenas permitiu que Glover e seus colegas atuassem em menos de um vácuo, mas os projetores também eram usados como única fonte de iluminação - resultando em reflexos impressionantes das luzes azuis piscantes nos olhos dos atores.


A cena do hyperdrive é apenas um exemplo de um novo paradigma de produção que se tornou uma parte crescente dos filmes “Guerra nas Estrelas” da Lucasfilm. Em vez de adicionar efeitos visuais na pós-produção, o estúdio está confiando mais nas tecnologias em tempo real. E a Lucasfilm não está sozinha nessa abordagem: desde grandes estúdios de cinema a produtores independentes, todos estão adotando cada vez mais ferramentas de produção em tempo real que mudam a forma como filmes e programas de TV são produzidos - e possibilitam projetos que de outra forma não existiriam.


Nos últimos anos, a ILM vem desenvolvendo um conjunto de ferramentas de produção virtual que abrange uma variedade de tecnologias em tempo real. Apelidado de Stagecraft, essas ferramentas abrangem todo o processo de produção, desde o design inicial, com a ajuda de headsets de realidade virtual, até efeitos visuais como os usados ​​em “Solo”.


O que une muitas das ferramentas é que elas entregam resultados instantaneamente que anteriormente levariam horas, ou até dias, explica Rob Bredow, diretor de criação e diretor executivo da ILM. “O tempo real é uma mudança fundamental no fluxo de trabalho”, diz ele. "Efeitos visuais e técnicas digitais estão sendo incluídos muito, muito mais cedo no processo."


Um exemplo: os sets virtuais que anteriormente teriam sido adicionados a um filme semanas mais tarde agora podem ser visualizados em tempo real, enquanto que as cenas estão sendo enquadradas. A ILM usou a tecnologia para outra cena em “Solo” - a sequência do assalto ao trem que combinava atores atuando na frente de uma tela verde com filmagens nos Alpes italianos. "Você pode ter uma noção de como isso está realmente se encaixando", diz Bredow. "Esta é uma mudança de jogo em termos do tipo de escolhas criativas que você pode fazer."


A jornada da ILM para abraçar as tecnologias em tempo real começou com o A.I. - Inteligência Artificial” de Steven Spielberg há cerca de 20 anos, quando ajudou o diretor a criar Rogue City, a cena glamourosa e sexualizada de Las Vegas, ganhando vida no set. “Obviamente, a cidade era grande e não era prática de construir”, lembra o diretor de criação da ILM, John Knoll. Em vez disso, o ILM criou um sistema de tracking dedicado para a câmera no set que permitia aos computadores adicionar uma visualização do set virtual em tempo real. Isso possibilitou a Spielberg compor cenas em frente a uma tela azul e, ao mesmo tempo, visualizá-las com uma interpretação virtual de toda a cidade.


Para fazer isso, ILM usava um mecanismo de jogo - o software no centro dos videogames modernos e ricos em gráficos que processam as imagens em tempo real para dar conta dos movimentos imprevisíveis de um player de videogame.


"Essa foi uma das primeiras vezes em que um mecanismo de jogo foi usado para o previz ao vivo em um set", explica Bredow sobre o processo de pré-visualização, que permite aos cineastas ver como as cenas com efeitos em um filme serão antes de serem filmadas.


Inicialmente desenvolvido como um tipo de encanamento subjacente para videogames, os mecanismos de jogos têm se tornado cada vez mais uma ferramenta favorita para os cineastas que buscam adicionar recursos visuais em tempo real a partes de seu processo de produção.

A princípio, o uso de mecanismos de jogos em Hollywood limitou-se principalmente ao tipo de pré-visualização pioneira de Spielberg e ILM. Mas como os chipsets de processamento gráfico otimizados para esse tipo de computação em tempo real se tornam mais poderosos, os mecanismos de jogos desempenham um papel maior em todo o fluxo de trabalho, até o que os insiders chamam de pixel final - imagens que ficam tão boas que realmente podem ser mostradas nos cinemas ou na TV.


“O tempo real nos dá a capacidade de montar aproximações melhores das cenas finais mais cedo. E quando você pode fazer isso, todos os esforços podem fazer com que a cena seja a melhor possível ”.
ROB BREDOW, ILM

A Nickelodeon anunciou no ano passado um show com o título de trabalho “Meet the Voxels”, que será produzido inteiramente com um mecanismo de jogo. A Disney Television Animation lançou uma série de curtas chamada “Baymax Dreams” em setembro, que foram produzidos de maneira similar. E a Lucasfilm colocou um dróide chamado K-2SO que foi renderizado com um mecanismo de jogo em “Rogue One: Uma História Star Wars”, onde era praticamente indistinguível de personagens tradicionalmente renderizados.


"Todo mundo está percebendo que o dia de render farms épicas e a espera de 16 horas para ver como a água fica em sua cena acabou", diz Isabelle Riva, que dirige a Made With Unity, braço da Unity Technologies que promove o uso de seu software em Hollywood e além. "Perder o seu tempo acabou", diz ela.


A rapidez das ferramentas de produção em tempo real e a capacidade de responder às solicitações dos cineastas com muito mais rapidez, é um grande motivo pelo qual a ILM as está adotando. “Os efeitos visuais são realmente sobre o tempo de iteração”, explica Greg Grusby, diretor de Relações Públicas da ILM. "Quanto mais iterações você conseguir na frente de um diretor, mais rápido você chegará ao objetivo final."


Adiciona Bredow: “O tempo real nos dá a capacidade de reunir aproximações melhores das cenas finais mais cedo. E quando você pode fazer isso, então todos os esforços podem fazer com que a cena pareça o melhor possível. Obter todas as coisas sutis que vão fazer o personagem respirar corretamente e suas roupas parecem perfeitas e a iluminação ser perfeita. Uma vez que você sabe que a ideia geral da cena está funcionando bem, você pode trabalhar com essas peças delicadas.”


Além de economizar tempo no processo de produção, o tempo real também promete ser muito mais barato do que as tecnologias tradicionais de produção. Isso abre oportunidades para uma nova safra de cineastas produzirem filmes de Hollywood com orçamentos muito mais baixos, especialmente quando se trata de animação. Um grande exemplo disso é "Sonder", que foi coroado como o melhor curta de animação do Festival de Cinema Independente de Los Angeles do ano passado.



O diretor de “Sonder”, Neth Nom, havia trabalhado em alguns videogames, bem como em alguns projetos de realidade virtual para empresas como Google e Baobab Studios. Depois de experimentar o poder dos mecanismos de jogo nesses trabalhos, ele decidiu confiar na tecnologia para produzir seu filme. "Eu vi o potencial para economizar muito tempo na produção", diz ele.


Usar um mecanismo de jogo para fazer um filme - principalmente encontrar as pessoas certas para o trabalho - nem sempre foi fácil. No início do projeto, Nom foi para vários encontros do Unity, que ele compara a redes de encontros rápidos para desenvolvedores, com a decepção de acabar sem uma pessoa no final da noite. “Uma vez por mês eu tentava recrutar engenheiros da Unity, mas ninguém estava interessado”, lembra ele. "Eles eram todos apenas jogadores hardcore".


Por fim, a produtora de Nom e “Sonder”, Sara Sampson, encontrou uma equipe de 240 pessoas, que trabalhou como mão-de-obra, muitas vezes colaborando remotamente e mudando as coisas enquanto revia cenas através das video conferências do Google Hangouts. "Muitos de nossos tripulantes estão em países diferentes", diz Nom. “Esse tipo de desafio desafia a ideia: 'Você realmente precisa de um estúdio?' Você poderia fazer isso em sua sala de estar.”


“Grandes histórias podem vir de qualquer lugar”, concorda Riva. Os mecanismos de jogo, ela argumenta, podem

ajudar criadores independentes a fazer muito do que os estúdios fizeram por anos com ferramentas caras e enormes render farms - clusters de computadores de alto desempenho criados especificamente para produzir efeitos visuais, geralmente para filmes e TV. "Você não precisa de todo o conjunto que a maioria dos estúdios de cinema tem."


Mas os grandes estúdios ainda não estão prontos para jogar fora suas tecnologias de produção existentes. A ILM, por exemplo, tem se concentrado na interoperabilidade entre suas diversas ferramentas. Ele ainda conta com softwares tradicionais, mas em alguns casos se apoia em uma versão personalizada do Unreal Engine, o mecanismo de jogo da Epic, desenvolvedor do popular título “Fortnite.” Além disso, a ILM possui um mecanismo proprietário em tempo real chamado Helios, baseado em tecnologia desenvolvida na Pixar.

Ator Brendan Byrd atua como um raptor durante o teste de personagem do sistema de desempenho em tempo real do Magic Mirror. Chris Hawkinson

"Cinco ou seis anos atrás, quando começamos esta era de fazer filmes de 'Guerra nas Estrelas', ficou claro que teríamos que reutilizar muitos assets*”, explica Bredow. É por isso que a ILM desenvolveu uma maneira de usar os mesmos recursos e fazê-los funcionar em qualquer um desses conjuntos de ferramentas. Quips Grusby, "Construa uma vez, implemente em qualquer lugar".


A abordagem também ajudou a ILM quando estava trabalhando no “Rogue One”. Knoll lembra de ter visto alguns dos trabalhos que a Electronics Arts vinha fazendo com seus jogos de “Guerra nas Estrelas” e percebendo que a EA já havia construído alguns assets* para seus jogos que a ILM precisava para o filme, incluindo o icônico AT-ST Walker, o veículo Imperial que os fãs da franquia viram pela primeira vez em “O Império Contra-Ataca”. “Pegamos alguns assets*, e porque as ferramentas em tempo real tão boas agora, não demorou muito para que pudéssemos usá-los em um longa-metragem ”, diz ele.


À medida que os mecanismos de jogos se tornam mais populares, esse tipo de troca está se tornando uma via de mão dupla, permitindo que os estúdios reutilizem os assets* de filmes em videogames, experiências de realidade virtual e muito mais. "Os Universals, os Paramounts, os Foxes, a Warner Bros. - eles não estão apenas olhando para os filmes com VFX", diz Riva. "Eles estão olhando para tudo. Produtos de consumo, passeios, jogos, filmes, tudo.


E como os estúdios adotam mecanismos de jogos para fazer filmes, eles ganham acesso a uma nova geração de artistas, explica Bredow. "Estamos definitivamente reunindo artistas de cinema com pessoas que têm mais jogos e experiência em tecnologia em tempo real", diz ele. "Podemos recrutar de um grupo mais amplo de pessoas com experiências diferentes".


Em última análise, a velocidade com que Hollywood está adotando a tecnologia em tempo real depende de quão confortáveis os cineastas estão trabalhando com colegas vindos do mundo dos videogames e das ferramentas de produção que eles trazem consigo. Alguns diretores podem ser mais casados com fluxos de trabalho existentes, mas outros estão adotando o novo mundo de tempo real de todo coração.


Bredow se lembra do supervisor de efeitos visuais ILM Grady Cofer demonstrando uma das primeiras ferramentas em tempo real da ILM para Spielberg em setembro de 2015: especificamente, o Stagecraft Magic Mirror da ILM, uma ferramenta personalizada de captura de movimento que permite aos atores observarem-se como personagens de efeitos visuais em tempo real em uma grande tela de LED, como se estivessem olhando para um espelho.


Spielberg estava trabalhando no “Jogador Nº1” na época, e o plano da Cofer naquele dia era apenas mostrar ao diretor do que a tecnologia era capaz. No entanto, Spielberg imediatamente pegou uma câmera virtual e começou a enquadrar as cenas para deixar personagens “Jogador Nº1” como At3mis e Parzival ganharem vida na tela do Magic Mirror.


“Passou de uma demonstração tecnológica para uma sessão criativa de brainstorming com ele e seus atores”, lembra Bredow. "É quando ficamos realmente empolgados quando a tecnologia desaparece e voltamos ao cinema. Então sabemos que atingimos a meta.

Texto traduzido de: https://variety.com/2019/biz/features/video-game-engines-visual-effects-real-time-1203214992/

*

previz: pré-visualização

assets: elementos (ex: objetos em 3D)

Links

A.I. - Inteligência Artificial (português)

ILM (inglês)

Made With Unity (português)

Unreal Engine (inglês)

Jogador Noº1 (português)

Curta de animação "Sonder" (inglês)

Lupita Nyong'o e a Captura de movimento em Star Wars [video] (inglês)

  • Facebook
Se inscreva para receber os posts.

©2020 Dama Invisível por anavfx.com