Por que um filtro anti-aliasing físico ainda é necessário nas DSLRs modernas?
On Fevereiro 15, 2021 by adminEu entendo que o objetivo do filtro anti-aliasing (AA) é evitar o moiré. Quando as câmeras digitais surgiram pela primeira vez, um filtro AA foi necessário para criar desfoque suficiente para evitar padrões de moiré. Naquela época, o poder dos processadores das câmeras era muito limitado. Mas por que ainda é necessário colocar um filtro AA sobre o sensor em câmeras DSLR modernas? Não foi possível ser realizado com a mesma facilidade pelos algoritmos aplicados quando a saída do sensor está sendo demosaiced? Parece que o poder de processamento atual disponível na câmera permitiria isso agora muito mais do que alguns anos atrás. Canon ” s atual processador Digic 5+ tem mais de 100 vezes o poder de processamento do processador Digic III, o que supera o poder das primeiras câmeras digitais. Especialmente ao gravar arquivos RAW, o embaçamento AA não poderia ser feito no estágio de pós-processamento? Essa é a premissa básica da Nikon D800E, embora use um segundo filtro para neutralizar o primeiro?
Comentários
- Não é. Já existem DSLRs sem filtro anti-alias, incluindo Pentax K-5 IIs, Nikon D800E, além de modelos sem espelho como a Olympus PEN E -PM2 e todos os Fujis (X-E1, X-Pro1). Além disso, eles até anunciaram câmeras de lente fixa sem filtro AA (X20 e X100S).
- E todas essas câmeras às vezes exibem moiré colorido.
- Certamente, mas outras câmeras também. Suspeito que um filtro anti-alias que evita todo o moiré seria muito forte, então os fabricantes usam filtros AA de menor intensidade. Como um exemplo, em meu Comparação entre K-5 IIs e K-5 II , o moiré ocorre em ambas as câmeras, apenas muito mais com o K-5 IIs.
- IIRC a nova Nikon D7100 não ‘ não tem um também.
- Um d agora, o Pentax K-3 não tem filtro, mas tem um modo para vibrar o sensor muito, muito levemente durante a exposição para simular um. Muitas inovações interessantes nesta área.
Resposta
O aliasing é o resultado da repetição de padrões de aproximadamente mesma frequência interferindo uns com os outros de maneira indesejável. No caso da fotografia, as frequências mais altas da imagem projetada pela lente no sensor criam um padrão de interferência (moiré, neste caso) com a grade de pixels. Essa interferência ocorre apenas quando essas frequências são aproximadamente as mesmas ou quando a frequência de amostragem do sensor corresponde à frequência de onda da imagem. Esse é o limite de Nyquist. Observe … esse é um problema analógico … o moiré ocorre devido à interferência que ocorre em tempo real no mundo real antes de a imagem ser realmente exposta.
Depois que a imagem é exposta, esse padrão de interferência é efetivamente “incorporado”. Você pode usar o software até certo ponto para limpar os padrões de moiré na postagem, mas é minimamente eficaz quando comparado a um filtro passa-baixo físico (AA) na frente do sensor. A perda de detalhes devido ao moiré também pode ser maior do que aquela perdida para um filtro AA, já que o moiré são dados efetivamente sem sentido, onde detalhes levemente borrados ainda podem ser úteis.
Um filtro AA é projetado apenas para borrar essas frequências em Nyquist para que não criem padrões de interferência. A razão pela qual ainda precisamos de filtros AA é porque os sensores de imagem e as lentes ainda são capazes de resolver na mesma frequência. Quando os sensores melhoram a ponto de a frequência de amostragem do próprio sensor ser consistentemente mais alta do que até mesmo as melhores lentes em sua abertura ideal, a necessidade de um filtro AA diminui. A lente em si lidaria com o desfoque necessário para nós, e os padrões de interferência nunca surgiriam em primeiro lugar.
Comentários
- Aqui está a parte a comentário postado em photo.stackexchange.com/questions/10755/… . Você ainda acredita que é preciso? Em caso afirmativo, como o padrão é incorporado até que os dados RAW tenham sido eliminados? ” Ironicamente, pelo menos com RAW, o limite teórico de nyquist nem sempre parece ser um limite rígido, o que é provavelmente devido aos diferentes comprimentos de onda de luz vermelha, verde e azul e a distribuição de pixels RGB em um sensor. – jrista ♦ 10 de abril ‘ 11 às 18:50 ”
- Acho que estava falando sobre resolução em geral lá, e não diretamente para o aliasing no sinal digital gravado. O limite de nyquist é uma coisa difícil de definir em um sensor bayer devido ao padrão irregular das linhas RGRG e GBGB. A resolução espacial do verde é maior do que a resolução espacial do vermelho ou do azul, então o limite de nyquist na luz vermelha ou azul está em uma frequência mais baixa do que o limite de nyquist na luz verde.O limite nyquist em uma imagem demosaiced é meio difícil de definir exatamente, então se torna um pouco como uma faixa difusa, ao invés de um limite matemático concreto.
- … esse padrão se torna parte da imagem. Mesmo se você conhecesse as características exatas da wavelet da imagem virtual e pudesse produzir uma série de Fourier de então, você teria que alterar a orientação da imagem em relação ao conceito virtual do sensor para eliminar o moiré ” perfeitamente “. Isso é muito trabalho excessivamente intenso e altamente matemático … assumindo que você conhecesse a natureza EXATA do sinal da imagem virtual original e sua relação com o sensor. Uma vez que o aliasing é embutido em um RAW, está praticamente pronto, não há realmente ‘ qualquer desfazimento sem suavizar os detalhes.
- Eu sei tudo sobre a diferença em frequência entre vermelho / azul e verde. Como todos os filtros ópticos AA atuais filtram apenas em nyquist, isso realmente depende da câmera. Nem todos os filtros AA são projetados exatamente da mesma forma e, mesmo para a mesma marca, diferentes modelos e linhas diferentes costumam ter filtros AA que se comportam de maneira diferente. Eu sei que historicamente as linhas 1D e 5D permitiram ALGUMAS frequências logo acima de nyquist, mas acho que é uma questão de balancear com a resolução da lente.
- Em sensores com pixels menores, como a Canon 18mp APS- C, a D800, a D3200, os pixels estão ficando muito, muito pequenos. Fora de um pequeno segmento, se lentes realmente novas (como a geração da série L da Canon ‘ s Mark II, e então, apenas as lançadas nos últimos dois ou três anos) podem resolver o suficiente detalhes para superar significativamente o sensor e causar aliasing em frequências mais altas do que nyquist. Filtre em torno de nyquist e a própria lente borrará os detalhes além disso. Acho que é parte do motivo pelo qual a linha 5D teve um filtro AA excessivamente forte … as lentes superam-no mais facilmente.
Resposta
A física simplesmente não funciona assim. Aliasing irreversivelmente transforma as frequências além do limite de Nyquist para aparecerem como frequências abaixo do limite, embora aqueles “aliases” não estão realmente lá. Nenhuma quantidade de processamento de um sinal com alias pode recuperar o sinal original no caso geral. As extravagantes explicações matemáticas são um tanto demoradas, a menos que você tenha tido uma aula de teoria de amostragem e processamento digital de sinais. Se você tivesse, não estaria fazendo a pergunta. Infelizmente, a melhor resposta é simplesmente “Não é assim que a física funciona. Desculpe, mas você vai ter que confiar em mim. “.
Para tentar dar uma sensação aproximada de que o que foi dito acima pode ser verdade, considere o caso de uma foto de um parede de tijolos. Sem um filtro AA, haverá padrões moiré (que são na verdade os aliases) fazendo com que as linhas de tijolos pareçam onduladas. Você nunca viu o edifício real, apenas a imagem com as linhas onduladas.
Como você sabe que os tijolos reais não foram dispostos em um padrão ondulado? Você presume que eles não foram do seu conhecimento geral de tijolos e da experiência humana de ver paredes de tijolos. No entanto, alguém poderia simplesmente fazer um ponto de vista deliberadamente fazer uma parede de tijolos para que parecesse na vida real (quando vista com seus próprios olhos) como a imagem? Sim, eles poderiam. Portanto, é possível distinguir matematicamente uma imagem com alias de uma parede de tijolos normal e uma imagem fiel de uma parede de tijolos deliberadamente ondulada? Não não é. Na verdade, você também não pode dizer a diferença, exceto que sua intuição sobre o que uma imagem provavelmente representa pode dar a impressão de que você pode. Mais uma vez, estritamente falando, você não pode dizer se as ondas são artefatos de padrão moiré ou são reais.
O software não pode remover magicamente as ondulações porque não sabe o que é real e o que não é. Matematicamente, pode ser mostrado que não é possível saber, pelo menos olhando apenas para a imagem ondulada.
Uma parede de tijolos pode ser um caso óbvio onde você pode saber que a imagem com alias está errada, mas há há muitos casos mais sutis em que você realmente não sabe, e pode nem estar ciente de que o aliasing está acontecendo.
Adicionado em resposta aos comentários:
A diferença entre o aliasing de um sinal de áudio e uma imagem é apenas que o primeiro é 1D e o último 2D. A teoria e qualquer matemática para perceber efeitos ainda é a mesma, apenas que é aplicada em 2D no tratamento de imagens. Se as amostras estiverem em uma grade retangular regular, como em uma câmera digital, então alguns outros problemas interessantes surgem. Por exemplo, a frequência da amostra é sqrt (2) inferior (cerca de 1,4x inferior) ao longo das direções diagonais em oposição às direções alinhadas ao eixo. No entanto, a teoria de amostragem, a taxa de Nyquist e o que os aliases realmente são não são diferentes em um sinal 2D e em um sinal 1D.A principal diferença parece ser que isso pode ser mais difícil para aqueles que não estão acostumados a pensar no espaço de frequência, para compreender e projetar o que tudo isso significa em termos do que você vê em uma imagem. não, você não pode “t” demosaico “um sinal após o fato, pelo menos não no caso geral em que você não sabe o que o original deve ser. Padrões moiré causados pela amostragem de uma imagem contínua são aliases. A mesma matemática se aplica a eles da mesma forma que se aplica a altas frequências se transformando em um fluxo de áudio e soando como apitos de fundo. É a mesma coisa, com a mesma teoria para explicá-lo e a mesma solução para lidar com isso.
Essa solução é eliminar as frequências acima do limite de Nyquist antes amostragem. Em áudio, isso pode ser feito com um filtro passa-baixo simples, que você poderia fazer a partir de um resistor e capacitor. Na amostragem de imagem, você ainda precisa de um filtro passa-baixo, neste caso, ele está pegando um pouco da luz que atingiria apenas um único pixel e espalhando-o para os pixels vizinhos. Visualmente, isso parece um leve desfoque da imagem antes de ser amostrada. O conteúdo de alta frequência parece detalhes finos ou bordas nítidas em uma imagem. Por outro lado, bordas nítidas e detalhes finos contêm altas frequências. São exatamente essas frequências altas que são convertidas em aliases na imagem amostrada. Alguns apelidos são o que chamamos de padrões de moiré quando o original tinha algum conteúdo regular. Alguns apelidos dão o efeito de “degrau” às linhas ou arestas, especialmente quando estão quase verticais ou horizontais. Existem outros efeitos visuais causados por apelidos.
Só porque o eixo independente nos sinais de áudio é o tempo e os eixos independentes (dois deles, já que o sinal é 2D) de uma imagem são a distância, isso não invalida o matemática ou de alguma forma torná-lo diferente entre sinais de áudio e imagens. Provavelmente porque a teoria e as aplicações de aliasing e anti-aliasing foram desenvolvidas em sinais 1D que eram voltagens baseadas no tempo, o termo “domínio do tempo” é usado para contrastar com “domínio da frequência “. Em uma imagem, a representação do espaço fora da frequência é tecnicamente o” domínio da distância “, mas, para simplificar o processamento do sinal, é muitas vezes referida como o” domínio do tempo “. Não deixe que isso o distraia do que realmente é o aliasing é. E não, não é nenhuma evidência de que a teoria não se aplica a imagens, apenas que uma escolha enganosa de palavras às vezes é usada para descrever coisas devido a razões históricas. Na verdade, o atalho “domínio do tempo” aplicado ao domínio da não frequência das imagens é, na verdade, porque a teoria é a mesma entre imagens e sinais reais baseados no tempo. Aliasing é aliasing independentemente de qual seja o eixo (ou eixos) independente.
A menos que você esteja disposto a se aprofundar nisso em alguns cursos universitários sobre teoria de amostragem e processamento de sinal, no final você apenas terá que confiar naqueles que confiaram. Algumas dessas coisas não são intuitivas, sem uma base teórica significativa.
Comentários
- Todos minha experiência em amostragem e processamento de sinal digital tem sido com relação ao áudio digital. Eu entendo como um filtro passa-baixo age para limitar os sons acima de uma certa frequência de entrar na conversão AD. Se você ‘ re amostragem em 44.100 Hz, você aplica um filtro que começa a rolar em cerca de 20 KHz e qualquer resposta de 22 KHz praticamente desaparece. Mas com a imagem digital não é ‘ tão simples, porque mesmo com filtros AA alguns aliasing passam. Eu ‘ li em outro lugar que os filtros não t tente bloquear tudo acima do Nyquist porque isso reduziria muito a resolução.
- Eu teria que concordar que o problema com o qual um filtro passa-baixa em uma câmera lida não é o mesmo que o problema de um filtro passa-baixa no processamento de áudio. Acho que a melhor maneira de colocar isso é que um filtro passa-baixo de áudio trabalha diretamente com um sinal eletrônico, enquanto um filtro passa-baixo óptico funciona nas frequências espaciais de um sinal de imagem produzido por uma lente. O sinal eletrônico com o qual você está acostumado a trabalhar é de natureza diferente do sinal de imagem.
- @Michael: Veja o complemento da minha resposta.
- ” Os padrões ondulados causados pela amostragem de uma imagem contínua são apelidos. ” – Olin. Acho que esse é o ponto-chave aqui mesmo! Quando você realmente faz a exposição, você não está gravando uma versão pura da imagem virtual original … você está gravando aliases de pontos de dados dentro da imagem virtual original. Esses dados em seu computador contêm aliases. Maneira muito agradável, concisa e clara de colocá-lo. 🙂
- @Michael: O que você diz sobre como os pixels coloridos são interpolados a partir dos valores brutos do sensor está correto, mas não tem relação com a discussão de aliasing.
Deixe uma resposta