Cinematografia Digital e Efeitos Visuais

Cin Digital 01

Por João Victor Boechat
Universidade FUMEC, Brasil

*Artigo apresentado na AVANCA|CINEMA 2013 International Conference Cinema - Art, Technology, Communication. Recebeu o prêmio de melhor trabalho da conferência pela International Association for Media in Science (IAMS).

Introdução

O termo cinematografia muitas vezes está associado à imagem capturada pela câmera e ao trabalho realizado para obter esta imagem. No entanto o seu significado é muito mais amplo. A definição de John Hora para o American Cinematographer Manual aponta nuances desta atividade:

Cinematografia não é uma subcategoria da fotografia. Em vez disso, fotografia é apenas uma técnica que o cineasta usa em conjunto com outras técnicas físicas, organizacionais, gerenciais, interpretativas e de manipulação de imagens para efetuar um processo coerente (Burum 2007).

Muita polêmica tem surgido sobre a cinematografia com a expansão do uso de recursos digitais. Recentemente o diretor de fotografia Christopher Doyle comentou a cinematografia do filme Life of Pi (Lee 2012), que tem a maior parte das cenas realizadas com o auxílio da computação gráfica. O filme recebeu diversos prêmios de cinematografia em festivais de cinema, como o Oscar, o Bafta e o American Society of Cinematographers (IMDb 2013). Doyle disse, depois de muitos insultos, que Life of Pi “não é cinema e não é cinematografia… Se alguém manipulasse tanto minha imagem, eu nem iria aparecer.” (Blouin Artinfo 2013)

Christopher Doyle é um respeitado diretor de fotografia australiano, que realizou a maior parte dos seus trabalhos na Ásia e tem em seu currículo diversos prêmios de cinematografia em produções com diretores como Kar Wai Wong, Yimou Zhang, Gus Van Saint e Phillip Noyce (IMDb 2013b). A sua opinião é compartilhada por outras pessoas que trabalham na indústria cinematográfica, mas que não vieram a público de forma tão contundente. Quentin Tarantino lamentou a queda da produção em celuloide, ao comentar o seu filme Django Unchained (Tarantino 2013), que disputou o Oscar de cinematografia com Life of Pi. Tarantino disse que a tecnologia digital está forçando o seu afastamento da produção cinematográfica (The Hollywood Reporter 2012).

Na premiação de cinematografia da Academy Awards concorreram dois filmes realizados com câmeras digitais (Life of Pi e Skyfall) e três produções em película de 35 mm (Django Unchained, Lincoln e Anna Karenina). Em anos anteriores, situações semelhantes têm ocorrido, com alguns filmes realizados no formato digital vencendo o prêmio de cinematografia, como Avatar (Cameron 2009) e The Curious Case of Benjamin Button (Fincher 2008). O chileno Claudio Miranda, diretor de fotografia de Life of Pi, também recebeu diversos prêmios de cinematografia por outros trabalhos, como em The Curious Case of Benjamin Button (IMDb 2013c).

A migração do formato em película para o digital tem acontecido paulatinamente e definitivamente. Como resultado, algumas companhias fabricantes de película para fotografia e cinema têm aos poucos abandonado a fabricação de filme no formato celuloide. A introdução de recursos digitais na produção cinematográfica começou com os aplicativos desenvolvidos para gerenciar projetos, com planilhas de produção e financeiras, como em tantas outras atividades gerenciais. No entanto, os métodos digitais transformaram radicalmente todas as etapas da produção cinematográfica.

A edição e a montagem foi o primeiro setor a sofrer esta transformação, com a introdução da edição não-linear digital nos anos 1990. Em seguida, a pós-produção abandonou a impressora óptica e adotou um fluxo de trabalho digital, utilizando o método bem sucedido de escanear com laser cada quadro da película e transformá-lo em um quadro digital para manipulação na pós-produção digital, gerando o digital intermediate. A distribuição e a projeção digital também se popularizaram à medida que novas tecnologias eram desenvolvidas. Nos últimos anos, com os sensores de estado sólido atingindo as dimensões do fotograma, as câmeras digitais de cinema começaram a ser produzidas e têm substituído as filmadoras com película. Atualmente todas as etapas da produção cinematográfica podem ser realizadas somente com bits. Os motivos do sucesso do formato digital têm sido técnicos, econômicos e de praticidade. Novos avanços tecnológicos têm permitido que o cinema digital se aproxime em qualidade visual ao cinema em película (Gomide 2013).

Neste artigo, esta transformação nos meios de produção cinematográfica é debatida, procurando as razões do sucesso do formato digital de um ponto de vista técnico. O objetivo é procurar entender por que a produção digital vem sendo cada dia mais adotada como padrão em todo o fluxo de produção e se os protestos veementes contra isso têm fundamento. O diretor Christopher Doyle disse, na entrevista em que criticou a cinematografia do filme, que não tinha assistido Life of Pi. Então qual é a origem de toda esta polêmica?

Na próxima seção a experiência visual no cinema e a imagem digital são discutidas devido a sua importância para entender como são tomadas as decisões sobre a imagem a ser produzida. Nas seções seguintes são apresentados os setores da produção cinematográfica que utilizam ferramentas digitais, com um breve histórico da transformação. O objetivo é demonstrar que a finalidade da cinematografia é ajudar a contar uma história e criar uma experiência. O caminho seguido para isso é o mesmo para o cinema em película e para o cinema digital.

Visão e imagem digital

A imagem digital, ao ser exibida, geralmente é construída na forma de um mosaico, a partir de uma matriz de elementos de imagem, os pixels, colocados lado a lado. Cada pixel pode ter um único valor de cor dentro do conjunto limitado de cores disponível para cada formato de imagem. A quantidade de pixels determina a resolução da imagem e a quantidade de cores disponíveis é a profundidade de cor em bits. A acuidade visual, que é o menor ângulo em que a visão consegue reconhecer dois pontos separados, e o tamanho do pixel permitem que se crie a ilusão da imagem ser contínua e não construída como um mosaico. Outros parâmetros também tem que ser ajustados para que a imagem simule a nossa experiência subjetiva da visão (Pedrini e Schwartz 2008).

O olho humano normal pode detectar 130 tons de cor na faixa visível do espectro, distingue fracamente 20 diferenças de saturação em uma dada cor e em torno de 500 variações de luminosidade. Cada olho tem 6 milhões de sensores de cor, os chamados cones, e 125 milhões de sensores de luminosidade, os bastonetes, espalhados no fundo da retina, ao redor do eixo óptico e da fóvea (Davson and Perkins 2013).

A óptica presente no olho permite que a luz da cena seja focalizada em um furo, que é a íris, e se projete no fundo da retina e esta óptica determina a profundidade de campo. A profundidade de campo é a região em torno do plano focal que ainda apresenta nitidez da imagem. A visão deixa em foco uma área próxima à fóvea, que é o ponto da retina que cruza o eixo óptico do olho. A profundidade de campo depende da abertura da íris, da distância focal e de visualização (Hartley 2004). A profundidade de campo no fotograma de 35 mm, com uma lente de 50 mm de distância focal usada em uma câmera de cinema, se assemelha à profundidade de campo da visão humana. Quanto menor o dispositivo que captura a luz, seja o fotograma ou o sensor de estado sólido, maior será a profundidade de campo. Esta diferença pode ser percebida comparando a imagem capturada por câmeras de cinema de 35 mm e câmeras de vídeo com sensores de ¾ de polegada ou menos, como eram as câmeras de televisão antes da High Definition Television (HDTV). A exibição na televisão gerada por câmeras de TV tinha uma profundidade de campo muito grande que, muitas vezes, trazia toda a imagem em foco. Sensores de estado sólido, como o ccd (charge-coupled device) e o cmos (Complementary metal–oxide–semiconductor), atingiram atualmente dimensões físicas equivalentes ao fotograma da película, permitindo a fabricação de câmeras de cinema com estes sensores. As câmeras digitais então utilizam o mesmo conjunto de lentes das câmeras com película.

As cores na imagem digital passaram a ser decompostas em suas três componentes a partir do final dos anos 1980, com o aumento da capacidade de processamento dos computadores. Estas componentes podem ser a verde, a vermelha e a azul, ou a ciana, a magenta e a amarela, ou o matiz, a luminosidade e a saturação, ou outras variações, e todas estas representações da cor devem ser equivalentes. A aplicação de um conjunto ou outro de componentes depende do momento em que a imagem está sendo trabalhada e de sua finalização para exibição. A quantidade de combinações destas componentes para gerar todas as cores possíveis é determinada pela quantidade de bits. Um bit permite a representação de duas cores, dois bits quatro, três bits oito cores e, em forma geral, n bits permitem representar 2n cores. Nos formatos de cinema digital mais utilizados, que possuem a resolução de 2048 x 1080 pixels no chamado formato 2K, ou 4096×2160 pixels no 4K, o número de cores possíveis para cada pixel tem 10 bits ou 12 bits por cada componente de cor. Como 10 bits equivale a 1024, o número de cores possíveis para esta profundidade de cor é pouco acima de 1 bilhão e 70 milhões. Para 12 bits, que equivale a 4096 valores por componente, temos pouco mais de 68 bilhões e 700 milhões de cores disponíveis. A imagem representada por 8 bits por componente, que é a mais utilizada ainda hoje, conhecida como Truecolor, com 24 bits de valores de cor, ou 16 milhões e 700 mil, será substituída por estas novas profundidades de cor inevitavelmente, devido ao aumento da capacidade de processamento e à melhoria da qualidade visual da imagem (Gomide 2013).

Existem atualmente diversas maneiras de gerar a imagem digital para o cinema. Com a composição de imagens, que pode ser feita na pós-produção ou, em algum casos, na própria câmera, é possível combinar imagens vindas de diferentes formas de captura. Uma lista de métodos para capturar a imagem digital está a seguir:

Filmadoras digitais de cinema ou vídeo;

  • Máquinas fotográficas digitais;
  • Imagens capturadas em película que depois são digitalizadas, pelo escaneamento dos fotogramas ou pela telecinagem;
  • Imagens capturadas em vídeo analógico e que depois são digitalizadas, através das placas de captura de vídeo;
  • Imagens still escaneadas;
  • Imagens geradas totalmente em computador, pela computação gráfica.

Além do aumento da resolução e da profundidade de cor, a forma em que os valores de luminosidade são distribuídos também afeta a experiência visual no cinema. A faixa ou alcance dinâmico é a diferença entre o valor mais alto e o mais baixo no intervalo. A distribuição da percepção da luminosidade na visão humana não é linear e ela distingue mais nuances nas cores mais escuras do que em cores mais brilhantes. O comportamento é semelhante às películas, seguindo aproximadamente uma curva logarítmica. Os sensores de estado sólido utilizados para capturar a imagem digital tem um comportamento linear. A solução em todos os métodos de captura de imagem listados acima é aumentar a profundidade de cor em bits e distribuir estes valores em uma curva logarítmica, com um maior número de valores na região das sombras do que na região de alto brilho. A adoção desta estratégia, com as cores sendo representadas com 10 bits ou mais e com uma resolução cada vez maior em sensores com área útil maior, tem permitido aproximar a experiência visual da imagem digital da qualidade visual da película.

De forma resumida, na produção totalmente realizada em película, a imagem é capturada pelas filmadoras, utilizando um filme com características adequadas para a iluminação e as texturas de figurinos e cenários da cena. A película que recebeu a luz das tomadas é então enviada para o laboratório para ser revelada, com os banhos químicos e seus tempos ajustados para as características do filme, para obter os resultados visuais previamente planejados em cada rolo de filme. O resultado muitas vezes pode ser frustrante neste momento. Um depoimento de um resultado insatisfatório foi feito por Jean-Pierre Jeunet comentando a fotografia do filme Delicatessen (Jeunet 1991) comparada ao filme que teve digital intermediate na pós-produção, Amélie (Jeunet 2004).

Uma cópia dos rolos de película são enviados para a mesa de montagem, com a finalidade de montar o filme e separar as cenas que serão trabalhadas na pós-produção. Para a película, a pós-produção utiliza a impressora óptica para fazer alterações na imagem original e inserir letreiros, como será abordado na seção Pós-Produção e Efeitos Visuais. A partir das marcações de cortes da edição e da marcação de luz do diretor de fotografia, é então gerado o interpositivo, também chamado de master, para gerar as cópias para exibição. O filme é então preparado para distribuição adicionando a trilha de áudio (Malkiewicz e Mullen 2005).

Cada uma das etapas da produção cinematográfica pode ser realizada exclusivamente com o formato digital de escolha. A última das conquistas do fluxo de trabalho com a imagem em bits foi a disseminação do uso das câmeras digitais de cinema, com os sensores de dimensões semelhantes ao fotograma e características que os aproximam da película. O fluxo de trabalho digital será abordado a partir da próxima seção.

Edição não-linear

A montagem para o cinema em película era realizada manipulando diretamente o positivo ou o negativo do filme. Nos primeiros tempos, a montagem era feita observando cada quadro contra a luz, cortando a película nos pontos de corte de entrada e saída da tomada e colando no ponto de corte da próxima tomada. Nos anos 1920 começaram a ser introduzidas as primeiras máquinas que permitiam montar o filme sem tocar a película, com dispositivos mecânicos e elétricos. São dignas de menção a Moviola, a Steenbeck e muitas outras mesas de montagem por onde toda a produção cinematográfica passava para ser cortada. Estas mesas ainda são utilizadas quando se vai montar em película, mesmo que se faça uma edição prévia em uma ilha de edição digital não-linear.

Os termos edição e montagem geram algumas confusões no Português do Brasil. Montagem é utilizado para o cinema por causa da influência cultural francesa. Edição é em geral usado para televisão e outras mídias, influência da língua inglesa, que surgiu com a transmissão para televisão, seus métodos e equipamentos. Mas os dois processos são chamados por apenas um nome em cada uma das línguas de origem.

Algumas estratégias foram desenvolvidas para editar uma história filmada no computador. A primeira função do equipamento digital de edição foi gerar um arquivo de texto com os cortes, já que as imagens digitais com que se trabalhava na época, nos anos 1990, eram de baixa qualidade. Os rolos do filme são digitalizados e colocados no banco de memória do computador. Nos primeiros anos, a imagem era como um rascunho da película, em baixa resolução. O arquivo de texto é chamado de lista de corte (cut list) para o cinema e lista de decisões de edição (editing decision list – EDL) para a televisão, e tem as informações dos pontos de entrada e saída de cada tomada, os números do rolo ou da fita e observações sobre efeitos e luz. A partir dele se pode começar o trabalho na mesa de montagem para o cinema ou nos equipamentos online para a televisão.

A maior vantagem em usar este processo é que se pode acessar imediatamente o quadro da tomada, clicando no ícone da cena. Não é mais preciso correr rolos de filme para encontrar o frame. O acesso é randômico, no banco de memória. Na edição em computador, a troca e manipulação de velocidade de tomadas e a determinação dos cortes podem ser feitas no momento em que se quiser e precisar, apenas escolhendo arquivos de vídeo e áudio indicados pelos apontadores (pointers), e vendo e ouvindo as cenas e as mudanças em tempo real. Estas são algumas características e atrativos da edição não-linear digital. Na edição linear se deve correr as fitas ou os rolos até se encontrar o fotograma de interesse.

Para armazenar em bits as imagens, foram inicialmente utilizados discos ópticos (Murch 2004), discos rígidos com busca redundante, fitas de vídeo e a telecinagem. A telecinagem é um processo desenvolvido para poder veicular filmes na televisão. A película projetada a 24 quadros por segundo é passada para uma fita magnética de vídeo a 25 ou 30 quadros por segundo, dependendo do sistema de televisão, seja NTSC, PAL-M, SECAM, PAL etc. Com o hardware, representado pela placa de captura de vídeo adequada, é possível transformar o sinal componente do vídeo analógico em vídeo digital, que pode ser armazenado em dispositivos de memória, como os discos rígidos. A fita de vídeo tem uma trilha em seus canais magnéticos muito útil: o timecode. O timecode permite que cada quadro de imagem tenha a sua marcação no tempo, que é transmitida para o formato digital juntamente com o vídeo e o áudio, que estão em outros canais separados da fita magnética. Ao armazenar as imagens da fita nos discos do computador, se tem o vídeo, o áudio, o timecode, os números de borda do rolo de filme e os metadados, que são armazenados no momento de salvar o arquivo gravado. Os metadados podem conter todo o tipo de informação em texto, muitas vezes escritos pelo assistente de edição, como número da tomada, tipo de lente, detalhes da gravação etc.

Algumas estações de trabalho, que forneciam o hardware e o software em um mesmo pacote, foram desenvolvidas nestes primeiros tempos para editar imagens geradas em película que eram armazenadas digitalmente, mesmo que em baixa qualidade. Com o software era possível transformar o timecode da fita em números de borda de cada tomada filmada. A saída principal destes softwares era um arquivo de texto com os números de borda e o timecode de cada corte e de cada intervenção na imagem. Este arquivo é/era utilizado para fazer os cortes na película em mesas de montagem.

O software Film Composer da AVID foi um dos programas mais bem sucedidos nesta época e ajudou a mudar paradigmas (Avid 1996). 1995 foi o ano, segundo (Murch 2004), que o número de longas metragens editados em computador suplantou o método tradicional em película. Todos os críticos atuais da cinematografia digital utilizaram este método em suas produções. Editei um longa metragem, Aleijadinho (Pereira 2001), em uma estação Film and Media Composer da Avid em 1999. Estas estações são até hoje utilizadas para fazer edição offline, na mesma configuração da década de 1990 (Gomide 2013).

Atualmente, as filmagens podem ser realizadas com câmeras digitais e as cenas são gravadas em discos de memória. Estas imagens podem ser diretamente acessadas pelo equipamento de edição e editadas diretamente no original ou em uma cópia digital preparada para a montagem, o digital intermediate, nesta etapa da pós-produção.

Pós-Produção e Efeitos Visuais

A pós-produção e os efeitos visuais vêm sendo empregados como instrumentos de apoio para viabilizar narrativas desde as primeiras obras cinematográficas. Dos primórdios do cinema até o início da era digital utilizavam-se exclusivamente trucagens ópticas para imprimir o efeito visual na película. Essas trucagens evoluíram significativamente nos primeiros cem anos do cinema, começando no cinema mudo e chegando ao início dos anos 1990, quando começaram a ser substituídas pelos efeitos realizados em computadores.

A migração da pós-produção para o formato digital aconteceu em diversas etapas. Até os anos 1980, os efeitos visuais eram realizados exclusivamente com truques ópticos. No início da edição digital não-linear, as cenas que seriam trabalhadas na pós-produção eram marcadas na lista de corte e as películas com as tomadas eram enviadas para a impressora óptica. Com a possibilidade de telecinar ou escanear cada fotograma e transformá-lo em um quadro digital de alta resolução e alta qualidade, e equipamentos que permitiam manipular a imagem diretamente no computador, a pós-produção passou a ser realizada diretamente nesses equipamentos. A transformação dos fotogramas em formato digital é chamada de geração do digital intermediate. A saída das imagens trabalhadas posteriormente para película era feita com um processo inverso ao escâner, chamada de transfer. Com a melhoria dos equipamentos de escaneamento dos fotogramas e do desempenho dos processadores e softwares de manipulação de imagem, todos os rolos de película passaram a ser escaneados, guardados no formato digital em discos rígidos, editados e trabalhados diretamente no formato digital, em todos os processos da pós-produção, incluindo a correção de cor, os efeitos visuais e os letreiros. Depois era feito o transfer para fazer o interpositivo e gerar as cópias para exibição em salas de cinema com película.

As câmeras digitais de cinema tornam desnecessário o escaneamento posterior da imagem, saltando uma etapa, e fornecem a imagem diretamente nos formatos digitais. A pós-produção digital realiza tudo aquilo que se fazia com recursos ópticos e ela expandiu as possibilidades de manipulação da imagem, com métodos geométricos para rastreamento de pontos e colocação de cenários com a câmera e elementos de cena em movimento, com a modificação dos valores de cada pixel que permitem um maior controle da correção de cor e da composição de imagens e muitas outras.

Georges Méliès inaugurou o uso dos efeitos visuais e foi dos mais importantes inovadores da história do cinema. Com Méliès, se começou a empregar recursos ópticos para obter os efeitos, como superfícies semi-espelhadas, divisor de feixes da projeção para impressão na película, dentre outros. Dessa maneira, iniciou uma nova forma de fazer cinema, não documental, diferentemente dos filmes dos irmãos Lumière. Foi o primeiro a utilizar a exposição dupla (La Caverne Maudite, 1898), a primeira tomada com um divisor de imagens e atores em dois ambientes diferentes (Un Homme di Tête, 1898) e a primeira fusão (Cendrillon, 1899), além de tomadas de miniaturas, efeitos de replicação e transparência. Esses recursos são hoje usados massivamente em diversos formatos de imagem em movimento (Rickitt 2007).

Nos primeiros anos, os efeitos visuais eram também obtidos através da técnica do stop action, ou stop motion. Esta técnica também é conhecida como substituição por parada de ação. Consiste em parar a filmagem, alterar a cena e continuar a filmar, ou fazer a ação fotograma por fotograma. Com a substituição por parada de ação, utilizavam-se miniaturas, com cenários e bonecos, e outras técnicas de composição, como a projeção de imagens misturadas com cenas reais.

Uma série de técnicas foi desenvolvida para fazer a composição dos diversos elementos de imagem opticamente, resultando em um fotograma final como se todos os elementos tivessem sido filmados simultaneamente. Uma das técnicas, que é usada também com as câmeras digitais, é o efeito na câmera, ou on camera. A tomada trombone é um efeito on camera muito utilizado, na qual a câmera se movimenta em um trilho com relação a um objeto ou personagem e, ao mesmo tempo, a distância focal da lente é alterada para fazer a imagem da frente ter as mesmas dimensões. Nesta tomada, o objeto ou o personagem permanecem com o mesmo tamanho relativo ao enquadramento enquanto o tamanho do background parece se alterar. Outra técnica é a do travelling matte, no qual a imagem de background tem um buraco exatamente onde vai ser inserido o elemento da outra imagem, que é impressa no background posteriormente. É uma técnica complexa de ser realizada em película, pois o elemento a ser inserido pode estar em movimento, mas ela foi realizada inúmeras vezes com sucesso no cinema. Essa técnica se tornou inteiramente redundante com a imagem digital. Variações da técnica do travelling matte foram desenvolvidas e utilizadas com sucesso no cinema pré-digital. A mais importante delas é a técnica do fundo azul, ou blue-screen. Nela, o elemento a ser inserido no background é filmado com o fundo azul (Rickitt 2007).

Um avanço notável foi a invenção da impressora óptica (optical printer). A função mais básica desse equipamento é retrofotografar uma imagem em um novo pedaço de filme. É como se uma câmera estive apontada para um projetor. O projetor é carregado com uma imagem positiva e a câmera captura essa imagem, quadro a quadro. Pode-se colocar filtros, lentes e máscaras no caminho da projeção para obter-se os efeitos desejados, assim como misturar duas ou mais projeções (Pinteau 2005).

Os efeitos mais comuns obtidos com essa técnica são classificados como (Burum 2007):

1. efeitos de transição: empregados para criar uma mudança no tempo e na localização entre as cenas. Dentre diversos tipos de transições entre planos de imagem, temos:

a) o fade in e fade out, quando a imagem desaparece ou surge de uma cor, em geral o preto;

b) fusão, quando um plano de imagem vai desaparecendo enquanto o próximo aparece gradualmente;

c) wipe, que são transições feitas com figuras geométricas, como círculos e quadrados, trazendo com elas a próxima cena;

d) virada de página, quando as imagens são mudadas como se estivessem na folha de um livro.

2. quadro congelado, que é feito com o quadro (frame) de imagem preso na impressora e ele é continuamente repetido;

3. mudança da sequência de quadros;

4. composição de imagens de diferentes projeções;

5. efeito de zoom;

6. aceleração ou desaceleração do movimento;

7. reversão do movimento.

A imagem digital pode ser exibida como uma composição de camadas de imagens. Nesse caso, a imagem final é construída a partir de diferentes fontes de imagens, que são compostas para que o resultado pareça como se tudo tivesse sido capturado ao mesmo tempo, de uma única vez. E nenhuma delas precisa perder a qualidade ou ficar semitransparente quando aplicadas na composição.

Para que as camadas de imagens possam ser colocadas umas sobre as outras, deve ser definida a transparência de cada camada. Então é preciso criar a informação com a transparência de cada pixel na imagem. A forma encontrada para se definir a transparência é colocar essa informação em um quarto canal, além dos três canais de cor de cada pixel. Esse quarto canal é chamado de canal alfa e ele contém o mesmo número de bits de que cada um dos outros canais. No caso da imagem com oito bits por canal para cada pixel, o canal alfa tem 256 valores de transparência por pixel, indo do completamente transparente ao completamente opaco.

As técnicas de efeitos visuais com recursos digitais podem alterar diversos parâmetros presentes na imagem digital. A correção de cor é realizada para cada tomada manipulando os valores de cor dos pixels. A introdução de um cenário virtual envolve o canal alfa e o casamento de movimento entre o background e a frente da imagem. Os personagens e cenários em 3D são modelados em estações que trabalham em um mundo criado matematicamente e imagens vetoriais. São diferentes estações de trabalho que realizam cada etapa da pós-produção, uma para edição, outra para composição e efeitos visuais, outra para modelagem 3D e outra para o gerenciamento de cores.

Walter Murch criou uma imagem figurativa para o trabalho da pós-produção por meio de um gráfico em duas dimensões (Murch 2004). O eixo horizontal é a timeline do filme, o seu desenvolvimento temporal. Esta dimensão pertence à edição. O eixo vertical é o da manipulação da imagem quadro a quadro, que é o universo da composição e dos efeitos visuais. Em 2001 ele previa que uma única estação de trabalho realizaria as duas dimensões da pós-produção. Há alguns anos surgiram equipamentos que fazem este processo, como o Fire e o Smoke da Discreet Logic, atualmente Autodesk (Autodesk 2013). Devido às características próprias de cada uma das dimensões, o trabalho continua sendo feito em máquinas separadas e com equipes distintas, mas que trabalham em conjunto.

Os processos de manipulação da imagem podem ser classificados de diversas maneiras, dependentes dos recursos artísticos e técnicos empregados. Uma classificação baseada nos métodos computacionais utilizados pode ser:

  • Composição digital;
  • Correção de cor;
  • Rastreamento;
  • Personagens e/ou cenários virtuais;
  • Captura de movimento;
  • Morphing;
  • Warping;
  • Controle de movimento de câmera;
  • Matchmoving.
  • Uma descrição detalhada de cada um destes processos é encontrada em (Gomide 2009).

Gene Warren, diretor da Fantasy II Film Effects, que produziu, dentre outros filmes, o Drácula de Bram Stocker (1992), Underworld (2003) e Lost (2004-2008), comenta a transformação para o digital: “Nós finalmente paramos de usar a impressora óptica em 2002. Até o fim podíamos criar composições incríveis com nossas velhas máquinas. Mas não conseguíamos competir com os garotos que podiam gastar alguns poucos milhares de dólares em uma workstation e alguns softwares. Qualquer um pode agora juntar algumas camadas de imagem apertando poucas teclas, mas não há dúvida de que saber como realmente uma tomada funciona – seja ela digital ou óptica – é uma arte. Mas a honorável técnica de obter uma grande imagem daquelas velhas máquinas imensas é atualmente redundante e esse talento tradicional será logo perdido para sempre.” (Rickitt 2007)

Câmeras e sensores de 35 mm

A largura da película para cinema pode ter quatro valores diferentes, medida em milímetros: de 8, 16, 35 ou 70 mm. Estas larguras definem a bitola do filme e o tipo de câmera cinematográfica. O padrão mais utilizado no cinema é o de 35 mm. Esta escolha é baseada nos custos de produção, na qualidade da imagem e nas características físicas dos equipamentos, como peso ou dimensões. O fotograma da película de 35 mm de largura possui 21,95 mm de largura e 16,00 mm de altura, na proporção de 1,37, no formato acadêmico. Existe também o formato Super 35, com a mesma bitola 35 mm, mas com uma área do fotograma maior, como por exemplo de 24.89 mm × 18.66 mm (Burim 2007). No entanto, as salas de exibição não suportam este formato e ele é então transformado em 35 mm ou em um formato digital, antes de ser exibido.

As lentes desenvolvidas para filmar em 35 mm são amplamente utilizadas e as lentes objetivas na faixa de 50 mm de distância focal produzem distorções na perspectiva próximas à percebida pelo olho humano. A profundidade de campo também é próxima da experiência da visão. As maiores e mais tradicionais fabricantes de câmeras de cinema com película, que são a Aaton, a Arri e a Panavision, abandonaram a película e atualmente só produzem estes equipamentos sob demanda. O fundador da Aaton, Jean-Pierre Beauviala, descreve o motivo: “Praticamente ninguém está comprando câmeras novas de cinema com película. Por que comprar uma nova quando existem tantas câmeras usadas ao redor do mundo?” (Kaufmann 2011)

O vice-presidente da Arri, Bill Russel, prevê em sua entrevista de 2011 para a Creative Cow: “Em dois ou três anos será 85% digital e 15% filme. Mas a data do completo desaparecimento do filme? Ninguém sabe” (Kaufmann 2011). Isso depende do tempo que a Kodak e a Fuji continuarão fabricando filmes. A Fuji interrompeu a fabricação de filme para cinema em março de 2013, como está no comunicado da companhia (Fuji 2013). A Kodak ainda continua a sua produção.

Os sensores de estado sólido utilizados para capturar imagens em filmadoras digitais transformam a luz em sinal eletrônico. A placa que recebe a luz da imagem é constituída por foto-sensores, chamados também de pixels ou fotocélulas. A resolução maior será para pixels menores e maior quantidade de fotocélulas. Duas estratégias diferentes são utilizadas para capturar a luz e dividi-la em suas componentes de cor. Em uma delas, é colocado um prisma logo depois da lente, que divide a luz nas componentes vermelha, verde e azul, como na imagem 1. Cada componente é capturada por um sensor, em um total de três. A outra estratégia é colocar filtros na frente de um sensor único, e estes filtros separam as componentes. Na imagem 2 é ilustrado o filtro do tipo malha de Bayer.

Cin Digital 02
Imagem 1: diagrama esquemático mostrando a separação da luz pelo prisma após passar pela lente.
Cin Digital 03
Imagem 2: diagrama com uma malha de Bayer, à esquerda, e a distribuição de filtros à direita.

Inicialmente, a área de captura de luz destes sensores era menor que 15 mm e produzia imagem semelhante às câmeras de vídeo analógicas. O aumento da área útil dos sensores, o aumento do número de fotocélulas, a diminuição de seu tamanho e a representação de um maior número de cores impulsionou o seu uso em câmeras cinematográficas.

O surgimento das câmeras de televisão de alta definição da Sony no final dos anos 1990, da linha CineAlta HDW-F900, com sensores com área útil semelhante ao fotograma de 35 mm, possibilitou começar a fazer cinema digitalmente. Os primeiros exemplos de filmes realizados com esta câmera surgiram rapidamente, com Vidocq (Pitof 2001) e Star Wars Episode II (2002). Acompanhei toda a produção de Os Normais (Alvarenga 2003), para a Globo Filmes, que utilizava os mesmos recursos. A câmera CineAlta foi posteriormente desenvolvida em colaboração com a Panavision, gerando a Panavision HD-900F. Novos fabricantes entraram no mercado de produção de câmeras digitais, como os tradicionais Aaton, Panavision e ARRI, a RED, com uma abordagem completamente original de distribuição de câmeras (RED 20013), a Canon, com a série EOS (Canon 2013) e a Blackmagic Design, que anteriormente trabalhava com placas de captura de vídeo (Blackmagic 2013), dentre outros fabricantes.

Quando se vai gravar no formato digital, se pode rever a cena imediatamente e permanecer com ela no banco de memória da produção ou apaga-la, caso ela não seja útil, processo muito diferente do fluxo de trabalho com película. As imagens são armazenadas em bancos de memória que podem ser acessados pelos equipamentos de pós-produção imediatamente. Com o aumento do intervalo dinâmico, da profundidade de cor, da resolução e com estratégias para aproximar o desempenho dos sensores de estado sólido da película, a migração para o formato digital é natural. A facilidade de sincronizar duas câmeras de cinema digital foi um dos motivos do sucesso do ressurgimento da produção do cinema 3D, para posterior exibição estereoscópica. Estudos sobre o desempenho dos sensores de estado sólido podem ser encontrados em (Clark 2012). Dados detalhados sobre a performance de filmes da Kodak podem ser obtidos no portal do fabricante (Kodak 2013).

Distribuição e projecão

A distribuição e a exibição de filmes no formato digital têm sido praticada desde o início dos anos 2000. Os equipamentos de exibição digital evoluíram tomando como referência a exibição em película e atualmente rivaliza com ela e tem contado com um número cada vez maior de salas de exibição digital. A distribuição do filme por meio de bancos de memória ou por rede tem permitido dividir a produção cinematográfica em lugares geográficos distantes, como o exemplo da Weta Digital, que produz intensamente para Hollywood mas está na Nova Zelândia (Weta 2013). Na distribuição e na projeção o fluxo de trabalho utilizando recursos digitais também se torna mais simples, rápido e amplia as possibilidades de uso, com custos menores na maioria das vezes. O armazenamento e a distribuição sem compressão não afetam a qualidade final da imagem e não serão abordados tecnicamente neste artigo.

O armazenamento e a distribuição de arquivos digitais para cinema digital é ainda um desafio, devido à grande quantidade de informações por segundo que deve ser processada. Um quadro de imagem no formato 4K, sem compressão, com 12 bits por canal de cor, pode chegar a 319 Mbit. Com a cadência de 24 quadros por segundo, o fluxo de bits chega a 7,6 Gbit/seg. Esta quantidade de dados é manipulável apenas por computadores preparados para isso e em redes de 10 Gbits/seg, o que representa um custo adicional para a produção.

Fernando Meirelles veiculou um comunicado para a sua produtora O2 Filmes chamando a atenção para a quantidade de memória que estava sendo utilizada na realização das produções (Meirelles 2010). A O2 tinha atingido, em junho de 2010, a capacidade de memória de um petabyte, isso é, na época era 4 vezes maior do que a memória do UOL, o maior portal de internet do Brasil, ou 1/4 do que tinha o Google mundial. Mesmo assim, a capacidade de memória não era suficiente para o ritmo em que crescia a busca por espaço vazio de memória na produtora. Meirelles então propõe o retorno aos métodos de arquivamento e armazenamento praticados com a película.

Conclusão

A história da cinematografia é plena de manifestações de repúdio à introdução de novas tecnologias, como no início do som no cinema falado e durante muitas décadas depois dos primeiros filmes coloridos. A Academia de Cinema teve, durante quase três décadas, as premiações de Oscar para cinematografia e direção de arte de filmes coloridos e outras duas para filmes em preto & branco, de 1939 a 1967 (Oscar 2013). A mudança do formato acadêmico de filmagem e exibição, com o fator de forma de 4 x 3, para os formatos anamórficos widescreen, também foi acompanhada por debates intensos (Manvell e Weis 2013).

A migração para a cinematografia digital e o consequente abandono da película tem trazido à tona discussões profundas sobre a experiência subjetiva do cinema e as tecnologias de produção de imagens, assim como todo tipo de discurso apaixonado que simplesmente nega ou cultua a nova tecnologia. A questão central que deve ser discutida é se o espectador percebe a diferença quando está assistindo filmes produzidos exclusivamente com a tecnologia digital, sem qualquer utilização de película. As diversas premiações para filmes produzidos recentemente empregando a tecnologia digital em todas as etapas da produção cinematográfica e a ausência de debate do público sobre a qualidade do formato digital levam à conclusão que a tecnologia digital no cinema tem se igualado à da película, desenvolvida em mais de um século de evolução.

O objetivo final de um longa metragem de cinema é o de contar uma história e a utilização de recursos digitais preserva este objetivo. O resultado final, que é visível em cada quadro de imagem, demonstra que a tecnologia digital expandiu as fronteiras do cinema, na forma em que era realizado até os anos 1990. A produção em película no futuro breve deverá ser equivalente à produção em preto e branco nos dias de hoje, realizada por poucas equipes e sob demanda direta.

Agradecimentos

Este trabalho teve o apoio financeiro da Fundação de Amparo à Pesquisa do Estado de Minas Gerais (FAPEMIG), do Conselho de Desenvolvimento Científico e Tecnológico (CNPq) e do Programa de Pesquisa e Iniciação Científica da Universidade FUMEC (ProPIC/FUMEC).

Referências bibliográficas

ALVARENGA 2003, Os Normais (2003). Dir. José Alvarenga Jr, Brasil.

AUTODESK 2013, página do Smoke no portal da Autodesk: http://www.autodesk.com/products/smoke/overview, visitado em 10/05/2013.

AVID 1996, Avid Film Composer User’s Guide, Avid Technology Inc. 552pp.

BLACKMAGIC 2013, portal oficial da Blackmagic Design: http://www.blackmagicdesign.com/products/, visitado em 15/05/2013.

BLOUIN ARTINFO 2013, entrevista de Christopher Doyle para o portal Blouin Artinfo, http://sea.blouinartinfo.com/news/story/874483/christopher-doyle-interview-part-2-life-of-pi-oscar-is-an, visitado em 15/05/2013.

BURUM, S.H. (2007) – American Cinematographer Manual, 7th ed, Hollywood, EUA, The ASC Press, ISBN 0-935578-31-5, 886 pp.

CAMERON 2009, Avatar (2009). Dir. James Cameron, EUA.

CLARK, R.N. 2013, artigo “Digital Camera Sensor Performance Summary” no portal http://www.clarkvision.com/articles/digital.sensor.performance.summary/, visitado em 15/05/2013.

DAVSON, H. And PERKINS, E.S. (2013) “Human Eye”, in Encyclopedia Britannica, http://www.britannica.com/EBchecked/topic/1688997/human-eye, visitado em 15/05/2013.

FINCHER 2008. The Curious Case of Benjamin Button (2008). Dir. David Fincher, EUA.

FUJI 2013, comunicado do fabricante sobre a descontinuação da produção de película, de abril de 2013 http://www.fujifilm.com/news/n130402.html, visitado em 15/05/2013.

GOMIDE, J.V.B e ARAÚJO, A. de A. (2009) Efeitos Visuais, uma Abordagem a Partir do Tratamento Digital de Imagens, Revista de Informática Teórica e Aplicada, volume 15, no. 1, pag. 89-116, ISSN 0103-4308.

GOMIDE, J.V.B. (2013) – Imagem Digital Aplicada, um Guia Completo para Profissionais e Estudantes. São Paulo, Brasil, Editora Campus/Elsevier, no prelo.

HARTLEY, R. and ZISSERMAN, A. (2004) Multiple View Geometry in Computer Vision, 2nd ed, Cambridge University Press, ISBN 9780521540513, 668 pp.

IMDb 2013a, página com a lista de premiações e nomeações do filme Life of Pi no portal IMDb: http://www.imdb.com/title/tt0454876/awards, visitado em 15/05/2013.

IMDb 2013b, página com premiações nos últimos anos de Christopher Doyle, no portal IMDb: http://www.imdb.com/name/nm0236313/awards, visitado em 15/05/2013.

JEUNET 1991, Delicatessen (1991). Dir. Jean-Pierre Jeunet e Marc Caro, França.

JEUNET 2004, Amélie (2004). Dir. Jean-Pierre Jeunet, França.

IMDb 2013c, filmografia do diretor de fotografia Claudio Miranda no portal IMDb: http://www.imdb.com/name/nm0592073/#Cinematographer, visitado em 15/05/2013.

KAUFMAN, D. (2011), artigo “Film Fading to Black” no portal Creative Cow: http://library.creativecow.net/kaufman_debra/magazine_27-Film-Fade-to-Black/1, visitado em 15/05/2013.

KODAK 2013, informações sobre diversos tipos de película para cinema: http://motion.kodak.com/motion/Products/Distribution_And_Exhibition/index.htm, visitado em 15/05/2013.

LEE 2012. Life of Pi (2012). Dir, Ang Lee, EUA.

LUCAS 2002, Star Wars: Episode II (2002). Dir. George Lucas, EUA.

MALKIEWICZ, K. e MULLEN, M.D. (2005), Cinematography, 3th ed., New York, EUA, Fireside Book, ISBN 0-7432-6438-X.

MANVELL, R. e WEIS, E. (2013), in “Motion Picture Technology”, in Encyclopedia Britannica http://www.britannica.com/EBchecked/topic/394192/motion-picture-technology/52185/Wide-screen-and-stereoscopic-pictures, visitado em 15/05/2013.

MEIRELLES, F. (2010), comunicado interno da produtora O2 Filmes, veiculado em 07/06/2010.

MURCH, Walter (2004). Num Piscar de Olhos. Rio de Janeiro, Brasil, Jorge Zahar Editor, ISBN 8-571107-82-3, 152 pp.

OSCAR 2013, portal com todas as premiações da Academy Awards, http://www.oscars.org/awards/academyawards/, visitado em 15/05/2013.

PEDRINI, H. e SCHWARTZ, W.R. (2008) Análise de Imagens Digitais: Princípios, Algoritmos e Aplicações, São Paulo, Brasil, Thomsom Learning. ISBN 8-522105-95-2, 528 pp.

PEREIRA 2001. Aleijadinho – Paixão, Glória e Suplício (2001). Dir. Geraldo Santos Pereira, Brasil.

PINTEAU, P (2005). Special Effects, an Oral History, New York, EUA, Abrams Publishers, ISBN 0810955911, 568 pp.

PITOF 2001, Vidocq (2001). Dir. Pitof, França.

RED 2013, portal oficial do fabricante de cameras digitais para cinema RED: http://www.red.com/learn/workflow, visitado em 15/05/2013.

RICKITT, Richard (2007). Special Effects, the History and Technique, 2nd ed, New York, EUA, Billboard Books, ISBN 0823084086, 384 pp.

TARANTINO 2013, Django Unchained (2012). Dir. Quanin Tarantino, EUA.

THE HOLLYWOOD REPORTER 2012, entrevista com Quentin Tarantino, para o portal The Hollywwod Reporter: http://www.hollywoodreporter.com/news/quentin-tarantino-says-digital-projection-394853, visitado em 15/05/2013.

WETA 2013, portal da produtora neozelandesa Weta Digital, http://www.wetafx.co.nz/ visitado em 15/05/2013.

Total
0
Shares
Prev
O sujeito no documentário torna-se o sujeito do documentário: um estudo sobre a autobiografia em Santiago
Santiago Doc

O sujeito no documentário torna-se o sujeito do documentário: um estudo sobre a autobiografia em Santiago

Next
10 segundos
You May Also Like