HDR VÍDEO vs HDR FOTOGRAFIA
O que é HDR Vídeo? Se você é um cara da câmera ou mesmo um cara de imagem, provavelmente você está familiarizado com a fotografia HDR. E se você está pensando “tudo bem, o que é grande coisa, nós tivemos HDR há anos”, pense novamente. O vídeo HDR não está completamente relacionado com a fotografia HDR, com exceção da parte da “faixa dinâmica superior”.
Em geral, qualquer técnica de alcance dinâmico elevado procura capturar ou exibir mais níveis de brilho dentro de uma cena, ou seja, aumentar o alcance dinâmico geral. É uma espécie de declaração ‘duh’, mas vamos com isso.
Na fotografia, isso geralmente significa usar exposições múltiplas em diferentes valores de exposição (EVs) e misturando os resultados em uma única imagem final. A captura, é claro, sempre foi que, independentemente de quantas paradas de luz você capture com sua câmera ou técnica HDR, você ainda está limitado pelos mesmos 256 níveis de brilho oferecidos pela compressão JPEG de 8 bits e exibições de computador / televisão, ou o conjunto de tonalidades ligeiramente maior, mas ainda limitado, oferecido por tintas para impressão.
Assim, a maioria das fotografias HDR depende da criação de regiões de contraste local em toda a imagem, misturando os diferentes níveis de exposição para preservar os detalhes nos quadros e as luzes:
Embora os resultados sejam muitas vezes bonitos, eles são, no seu núcleo, não naturais ou surrealistas.
HDR Video é completamente diferente
Em vez de tentar comprimir o alcance dinâmico natural de uma cena em um intervalo dinâmico muito limitado para exibição, o vídeo HDR expande o alcance dinâmico da própria exibição, aumentando os brilhos de exibição médio e pico (medido em nits) e aumentando o total profundidade de bits de imagem de 8 bits para pelo menos 10 bits / canal, ou de 255 níveis de brilho e 16 milhões de cores, para pelo menos 1024 níveis de brilho e 1,02 bilhões de cores.
A mudança do nível da luz de exibição permite amplos intervalos de tonalidades através das luzes e das luzes, de modo que a imagem exibida final em si é uma renderização mais natural de uma cena, capaz de combinar a gama dinâmica global do cinema digital de hoje e câmeras de origem cinematográfica. E talvez mais importante, quando totalmente implementado, o vídeo HDR combinará quase completamente a faixa dinâmica do próprio olho humano.
COMO CHEGAMOS AQUI?
Então, se o vídeo HDR é muito melhor do que o que usamos até agora, por que não estamos usando isso o tempo todo?
E agora, para uma lição de história (é interessante, mas não é essencial saber, então salte para baixo se não se importa).
Os tubos de catódromo como aparelhos científicos e dispositivos de “exibição” têm sido em uma ou outra forma desde o final da década de 1880, mas a primeira câmera CRT não foi inventada até o final da década de 1920. As primeiras câmeras eram grandes com baixas resoluções; as televisões eram graxas, barulhentas e de baixa fidelidade.
As coisas mudaram rapidamente nos primeiros anos da televisão. À medida que mais empresas pulavam a bordo do vagão de televisão CRT, cada um criava sistemas de televisão ligeiramente diferentes e incompatíveis para evitar violação de direitos de patente. Esses diferentes sistemas, com diferentes tipos de sinais, significavam que os aparelhos de televisão domésticos deveriam corresponder às câmeras usadas pelo transmissor, ou seja, tinham que ser feitas pela mesma empresa. Como resultado, a primeira emissora em uma área criou um monopólio local para o fabricante de equipamentos que adquiriram suas primeiras câmeras e os consumidores não tinham escolha.
Prevendo um grande problema quando mais pessoas começaram a comprar conjuntos de televisões e mais transmissores queriam entrar em uma área, o governo dos Estados Unidos entrou e disse que a diversidade de sistemas não iria voar – todas as transmissões de televisão e aparelhos de televisão deveriam ser compatíveis. Para isso, criaram um novo órgão de governo, o Comitê Nacional do Sistema de Televisão, ou NTSC, que passou a definir o primeiro padrão de televisão nacional em 1941.
Tivemos que lidar com os resultados da padronização, boa e má, desde então.
O bem, obviamente, foi que não precisamos comprar uma televisão diferente para cada canal que queremos assistir, ou em todas as partes do país em que queremos viver (embora as transnacionais muitas vezes ainda não tenham sorte). O ruim é que todas as evoluções do padrão desde 1941 exigiram compatibilidade com versões anteriores: os padrões de transmissão digital de hoje e os padrões de exibição de computadores também são limitados em parte pelo que os CRTs poderiam fazer nas décadas de 1940 e 50.
Não acredita em mim? Mesmo ignorando o modificador de taxa de quadros NTSC 1 / 1.001, ainda existe uma forte influência: vamos ver a lista:
1) Espaço de cores: o espaço de cor YIQ para NTSC e o espaço de cor YUV utilizado tanto em PAL como em SECAM são ambos baseados nas cores que podem ser produzidas pelos fósforos de brilho curto, que cobrem o interior das telas CRT e formam a luz e a produção de cor elemento do CRT. Na transição para digital, YIQ e YUV formaram a base para Rec. Espaço de cores 601 (SD Digital), que por sua vez é a base para a Rec. Espaço de cores 709 (HD Digital) (Rec. 709 usa quase as mesmas primárias que a Rec. 601).E no caso de o seu computador se sentir excluído, as mesmas primárias de cores são usadas no padrão de exibição sRGB também, porque todos esses espaços de cores foram exibidos, e todos foram construídos com a mesma tecnologia CRT. Como até o início dos anos 2000, os CRTs eram a maneira de exibir imagens eletronicamente – os LCDs eram de baixo contraste, os monitores de plasma eram caros e nem os LEDs nem os DLPs tinham entrado em seus próprios.
2) Função de transferência: a função de transferência (também chamada de curva de gama) usada em SD e HD também é baseada na resposta natural de luz e elétrica de CRT e elétrica para luz. A câmera CRT capturou imagens com uma curva de resposta de luz-tensão de aproximadamente gama 1 / 2.2, enquanto o CRT exibe imagens recriadas com uma curva de resposta de tensão para luz de aproximadamente 2.4. Juntos, esses valores formaram a gama padrão padrão de 1,2, e constituem a base para o padrão de gama de exibição de referência atual de 2,4, encontrado na Recomendação UIT-T BT.1886.
3) Límites de brilho: por fim, e provavelmente de forma mais frustrante, os ecrãs CRT precisos em cores exigem brilho limitado para manter a precisão da cor.Dependendo dos fósforos reais utilizados para as primárias, esse valor de brilho máximo normalmente cairá na faixa de 80-120 nits. E o CRT do consumidor exibe, enquanto maior, mais brilhante e com menos precisão de cores, ainda é terra nos níveis de brilho máxima de 200 nit. Para comparação, os níveis de brilho encontrados em diferentes superfícies externas durante um dia ensolarado chegam na faixa 5000-14,000 (ou mais!).Esta grande disparidade de brilho entre os níveis de exibição de referência e consumidor foi acentuada nos últimos anos com a substituição de CRTs por monitores LCD, Plasma e OLED, que podem facilmente exibir o brilho máximo de 300-500 nits. Esses níveis de brilho danificam o aspecto geral das imagens classificadas em referência, enquanto são muito intolerantes às mudanças nas condições de luz ambiente. Em suma, isso significa que com os padrões atuais, os consumidores raramente têm a oportunidade de ver o conteúdo em suas casas como pretenderam os cineastas.
Então, por causa do tubo de raio catódico antigo (tecnologia inoperante), estamos presos com um conjunto de padrões legados que limitam a forma como podemos entregar imagens aos consumidores. Mas porque os CRTs são uma tecnologia morta, agora temos uma oportunidade em que podemos optar por ser algemado pela década de 1950 pelo resto do tempo, ou, para dizer “o suficiente”, e usar algo melhor. Algo em frente pensando. Algo, nossa tecnologia atual ainda não pode igualar 100%. Algo como, HDR video.
O CAMINHO HDR
No momento, existem duas categorias diferentes e padrões múltiplos que abrangem o vídeo HDR, incluindo o HDR 10 Media Profile do CTA, o Dolby Vision da Dolby e o Log Gamma Híbrido da BBC. E, naturalmente, todos fazem as coisas um pouco diferente. Eu abordarei suas diferenças em profundidade na Parte 3: Termos de Vídeo HDR Explicados, mas por agora vou agrandá-los e apenas me concentrar nos aspectos comuns de todo o vídeo HDR, e o que o torna diferente do vídeo do passado.
Há quatro coisas principais que são necessárias para chamar algo de vídeo HDR: Recomendação UIT-T BT.2020 ou espaço de cores DCI-P3, uma função de transferência de alcance dinâmico elevado, 10 bits por transmissão de canal e valores de exibição e metadados transmitidos.
1. Espaço de cores: na maior parte, o vídeo HDR é visto por muitos como uma extensão das especificações BT.2020 UHD / FUHD e DCI existentes e, como tal, usa a gama de cores BT.2020 mais ampla (BT.2020 é a Substituição de 4K / 8K para padrões de transmissão HD BT.709 / Rec.709) ou a gama DCI-P3 mais limitada, mas ainda ampla.
BT.2020 usa primárias de comprimento de onda puro, em vez de valores primários com base nas emissões de luz dos fósforos CRT ou qualquer material. A captura é, é claro, não podemos mostrar isso completamente em uma tela de mesa (ainda), e somente os projetores laser mais recentes podem cobrir toda a gama de cores. Mas, em última instância, a amplitude do espaço de cores cobre quantas cores visíveis é possível com três primárias reais * e inclui todos os valores de cores já disponíveis em Rec.709 / sRGB e DCI-P3, bem como 100% da Adobe RGB e a maioria dos espaços para impressoras disponíveis com pigmentos e corantes atuais.
2. Função de transferência: onde o vídeo HDR diverge das especificações padrão BT.2020 e DCI está em seu nível de luz para o valor digital e relação de valor digital para nível de luz, chamado OETF e EOTF, respectivamente. Eu vou entrar em mais profundidade em OETFs e EOTFs em outro momento, mas por agora o que precisamos saber é que a relação atual entre níveis de luz e valores digitais é um legado dos dias do tubo de raio catódico e aproxima a gama 2.4 . Sob este sistema, o valor digital branco completo de 235 se traduz em uma saída de luz entre 80-120nits.
Estender essa mesma curva para uma saída de alcance dinâmico mais alto prova-se problemática por causa da resposta não linear do olho humano: isso causaria um pisar severo nas luzes e os negros, ou exigiria 14-16 bits por canal enquanto desperdiçava valores digitais em incrementos que na verdade não podem ser vistos. E ainda não seria compatível com versões anteriores, nesse caso, qual é o objetivo?
Então, o vídeo HDR usa uma das duas novas curvas de transferência: o híbrido Gamma (HLG) da BBC, padronizado em ARIB STD-B67, que permite níveis de brilho de saída de 0,01 nit até cerca de 5000 nits e Dolby’s Perceptual Quantization (PQ ), padronizada em SMPTE ST.2084, que permite níveis de brilho de saída de 0.0001 nit até 10.000 nits.
PQ é o resultado da pesquisa direta feita por Dolby para medir a resposta do olho humano e para criar uma curva onde nenhum valor é desperdiçado sem um passo visível entre os valores. A vantagem do PQ é bastante clara, em termos de maximizar o brilho da saída futura (os melhores monitores individuais experimentais atualmente no máximo 4000 nits, o aparelho de teste Dolby variou de 0.004 a 20.000 nits) e aumentando a quantidade de detalhes capturados nos negros.
O HLG, por outro lado, fornece um grau de compatibilidade para trás, combinando os níveis de saída da gama 2.4 para os primeiros 50% da curva e reservando os 50% superiores dos valores para a saída de nível de luz mais alta. Geralmente, o conteúdo do HLG com uma gama de sistemas de 1,2 parece muito próximo do conteúdo padrão da gama dinâmica, embora os brancos acabem por ser comprimidos e mais graciosos do que o conteúdo dominado em SDR para começar.
3. Bit Depth: As novas curvas de transferência acentuam um problema com o vídeo desde a mudança de valores analógicos para valores digitais: pisar. À medida que as telas ficaram mais brilhantes, a diferença entre dois valores de código (digamos, valor digital de 25 e 26) às vezes é suficiente para que possamos ver uma clara linha de distinção entre os dois cinzas. Isto é especialmente verdadeiro ao usar uma tela cujo brilho máximo é maior do que o padrão de referência, e é mais comum nos negros do que nos brancos.
Ambos os padrões BT.2020 e DCI já possuem requisitos para diminuir o passo pisando comutação de codificação de sinal e transmissão de 8 bits por canal para 10 bits mínimos (12 bits para DCI), permitindo pelo menos um gradiente 4 vezes mais suave. No entanto, o BT.2020 ainda permite renderização de 8 bits na tela, que é o que você encontrará na grande maioria das televisões e displays de referência no mercado hoje.
Por outro lado, o vídeo HDR vai um passo adiante e requer renderização de 10 bits no próprio painel de exibição ; ou seja, cada sub pixel de cor deve ser capaz de entre 876 e 1024 níveis de luz distinguíveis, em todos os modos de brilho operacional e contraste.
A razão pela qual HDR requer um painel de 10 bits enquanto o BT.2020 não é, é que nossos olhos são mais suscetíveis a pisar o valor de uma cor ou gradiente do que pisar sua tonalidade ou saturação: o olho pode facilmente compensar menor fidelidade de cor (8 bits por canal no espaço BT.2020) preenchendo as lacunas, mas com uma curva HDR, o salto em níveis de luz entre dois códigos em 8 bits por canal é suficientemente grande para que seja claramente visível.
4. Metadados: A última coisa que o vídeo HDR requer que o padrão BT.2020 não seja, são metadados. Todas as formas de vídeo HDR devem incluir informações sobre o conteúdo eo ambiente de masterização. Isso inclui qual EOTF foi usado no grau, o máximo e os brancos médios da moldura do conteúdo e exibição e quais primárias RGB foram usadas. O Dolby Vision inclui até mesmo metadados para definir, disparado por tiro, como traduzir os valores de HDR para o alcance SDR!
Os fabricantes de displays do consumidor usam essas informações para adaptarem o conteúdo das suas telas em tempo real, sabendo quando gravar ou compactar os destaques e os negros (com base na capacidade da tela em que está sendo exibido) e para a seleção automática do modo operacional (comutação da Rec. 709 a BT.2020, e dentro e fora do modo HDR, sem o usuário final ter que mudar uma configuração).
Então, em resumo, o que o vídeo HDR faz de forma diferente? Gamas de cores mais amplas, novas curvas de função de transferência para permitir uma gama de brilhos muito maior, requisito mínimo de 10 bits por canal no visor para minimizar o passo e transmissão de metadados para comunicar informações sobre o conteúdo e seu ambiente de masterização para o usuário final .
Todos os quais são essenciais, nenhum dos quais é completamente compatível com versões anteriores.
SIM, MAS O QUE PARECE?
Infelizmente, a única maneira de realmente mostrar o que o HDR parece é dizer-lhe para ir a uma feira comercial ou casa de postagem com imagens para mostrar ou comprar uma TV com recursos HDR e transmitir algum conteúdo HDR real. Porque quando você exibe conteúdo HDR em uma exibição normal, ele não parece direito:
Você pode ter um pouco de sensação se eu cortar os níveis de brilho de uma imagem de faixa dinâmica padrão pela metade e colocá-lo lado a lado com um que segue mais de perto a faixa de brilho HDR:
Mas isso não captura o vídeo HDR realmente. Não sei como descrevê-lo – é poderoso, bonito, claro, real, presente e multidimensional. Há uma resposta fisiológica e psicológica real à imagem que você não obtém com a metragem de alcance dinâmico padrão – e não apenas uma resposta emocional à qualidade da imagem, mas os níveis de brilho mais altos realmente desencadeiam coisas em seus olhos e cérebro que permitem que você Literalmente, veja-o de forma diferente do que qualquer coisa que você já viu antes.
E uma vez que você começa a usá-lo em uma base regular, nada mais parece tão satisfatório, nenhuma outra imagem tão bonita. Você acaba com a sensação de que tudo o mais é um pouco insuficiente. É por isso que o HDR se tornará rapidamente o novo normal do futuro vídeo.
A Composer Invent Produtora cria vídeos institucionais, videos para web, conteúdo de marca ou branded content e videos 360 para impulsionar seu negócio e sua marca.
Leia também: O lado negro de Steve Jobs.
Fonte: https://www.mysterybox.us