¿Por qué todavía se necesita un filtro anti-aliasing físico en las DSLR modernas?
On febrero 15, 2021 by adminEntiendo que el propósito del filtro anti-aliasing (AA) es evitar el efecto muaré. Cuando surgieron las cámaras digitales, era necesario un filtro AA para crear suficiente desenfoque para evitar patrones muaré. En ese momento, el poder de los procesadores en cámara era muy limitado. Pero, ¿por qué sigue siendo necesario colocar un filtro AA sobre el sensor en las cámaras DSLR modernas? No se puede » ¿Se puede lograr con la misma facilidad mediante los algoritmos aplicados cuando se está demostrando la salida del sensor? Parecería que la potencia de procesamiento actual disponible en la cámara permitiría esto ahora mucho más que hace unos años. Canon » El actual procesador Digic 5+ tiene más de 100 veces la potencia de procesamiento del procesador Digic III, que eclipsa la potencia de las primeras cámaras digitales. Especialmente cuando se toman archivos RAW, ¿no se puede realizar el desenfoque AA en la etapa de posprocesamiento? ¿Es esta la premisa básica de la Nikon D800E, aunque usa un segundo filtro para contrarrestar el primero?
Comentarios
- No lo es. Ya hay DSLR que no tienen filtro anti-alias, incluidas las Pentax K-5 II, Nikon D800E, además de modelos sin espejo como la Olympus PEN E -PM2 y todas las Fujis (X-E1, X-Pro1). Además, incluso anunciaron cámaras de lente fija sin filtro AA (X20 y X100S).
- Y todas esas cámaras muestran muaré de color a veces.
- De hecho, pero también lo harán otras cámaras. Sospecho que un filtro anti-alias que evita todo el muaré sería demasiado fuerte, por lo que los fabricantes usan filtros AA de menor intensidad. Como ejemplo, en mi Comparación de K-5 II y K-5 II , se produce muaré en ambas cámaras, solo que mucho más con la K-5 II.
- IIRC la nueva Nikon D7100 no ‘ tampoco tiene uno.
- Un Ahora, la Pentax K-3 no tiene filtro, pero tiene un modo para hacer vibrar el sensor muy, muy ligeramente durante la exposición para simular uno. Mucha innovación interesante en esta área.
Respuesta
La creación de alias es el resultado de la repetición de patrones de aproximadamente misma frecuencia interfiriendo entre sí de manera indeseable. En el caso de la fotografía, las frecuencias más altas de la imagen proyectada por la lente sobre el sensor crea un patrón de interferencia (muaré en este caso) con la cuadrícula de píxeles. Esta interferencia solo ocurre cuando esas frecuencias son aproximadamente las mismas, o cuando la frecuencia de muestreo del sensor coincide con la frecuencia de ondículas de la imagen. Ese es el límite de Nyquist. Tenga en cuenta … que es un problema analógico … el moiré se produce debido a la interferencia que se produce en tiempo real en el mundo real antes de que la imagen esté realmente expuesta.
Una vez que la imagen está expuesta, ese patrón de interferencia se «integra» efectivamente. Puede usar software hasta cierto punto para limpiar los patrones de muaré en la publicación, pero es mínimamente efectivo en comparación con un filtro físico de paso bajo (AA) frente al sensor. La pérdida de detalles debida al moiré también puede ser mayor que la perdida por un filtro AA, ya que el moiré son datos sin sentido, donde los detalles ligeramente borrosos aún podrían ser útiles.
Un filtro AA está diseñado para difuminar esas frecuencias en Nyquist para que no creen patrones de interferencia. La razón por la que todavía necesitamos filtros AA es que los sensores de imagen y las lentes aún son capaces de resolverse a la misma frecuencia. Cuando los sensores mejoran hasta el punto en que la frecuencia de muestreo del sensor en sí es consistentemente más alta que incluso las mejores lentes en su apertura óptima, entonces la necesidad de un filtro AA disminuiría. La lente en sí misma manejaría efectivamente el desenfoque necesario para nosotros, y los patrones de interferencia nunca surgirían en primer lugar.
Comentarios
- Aquí está la parte a comentario publicado en photo.stackexchange.com/questions/10755/… . ¿Todavía cree que es exacto? Si es así, ¿cómo se integra el patrón hasta que se han demostrado los datos RAW? » Irónicamente, al menos con RAW, el límite teórico de nyquist no siempre parece ser un límite estricto, lo que probablemente se deba a las diferentes longitudes de onda de la luz roja, verde y azul y la distribución de píxeles RGB en un sensor. – jrista ♦ 10 de abril ‘ 11 a las 18:50 »
- Creo que estaba hablando de resolución en general allí, y no directamente al aliasing en la señal digital grabada. El límite de nyquist es algo difícil de precisar en un sensor bayer debido al patrón desigual de las filas RGRG y GBGB. La resolución espacial del verde es más alta que la resolución espacial del rojo o del azul, por lo que el límite de nyquist en luz roja o azul está a una frecuencia más baja que el límite de nyquist en luz verde.El límite de nyquist en una imagen demostrada es algo difícil de llamar exactamente, por lo que se convierte en una banda un poco difusa, en lugar de un límite matemático concreto.
- … ese patrón se convierte en parte de la imagen. Incluso si conociera las características exactas de las ondas de la imagen virtual y pudiera producir una serie de Fourier de ellas, tendría que cambiar la orientación de la imagen en relación con el concepto virtual del sensor para eliminar el muaré » perfectamente «. Eso es mucho trabajo excesivamente intenso y altamente matemático … suponiendo que conozca la naturaleza EXACTA de la señal de imagen virtual original y su relación con el sensor. Una vez que el alias se ha horneado en un RAW, está prácticamente terminado, realmente no hay ‘ deshacerlo sin suavizar los detalles.
- Sé todo acerca de la diferencia en frecuencia entre rojo / azul y verde. En cuanto a todos los filtros AA ópticos actuales que solo filtran en nyquist, realmente depende de la cámara. No todos los filtros AA están diseñados exactamente de la misma manera, e incluso para la misma marca, diferentes modelos y diferentes líneas a menudo tienen filtros AA que se comportan de manera diferente. Sé que históricamente las líneas 1D y 5D han permitido ALGUNAS frecuencias justo por encima de nyquist, sin embargo, creo que es una cuestión de equilibrio con la resolución de la lente.
- En sensores con píxeles más pequeños, como el Canon 18mp APS- C, la D800, la D3200, los píxeles son cada vez más pequeños. Fuera de un segmento pequeño, si los lentes realmente nuevos (como la generación de la serie L Mark II de Canon ‘, y luego, solo los lanzados en los últimos dos o tres años) pueden resolver lo suficiente detalle para superar significativamente al sensor y causar aliasing en frecuencias más altas que nyquist. Filtre alrededor de nyquist, y la lente en sí difuminará los detalles más allá de eso. Creo que esa es parte de la razón por la que la línea 5D ha tenido un filtro AA demasiado fuerte … las lentes lo resuelven más fácilmente.
Respuesta
La física simplemente no funciona de esa manera. Aliasing irreversiblemente transforma las frecuencias más allá del límite de Nyquist para que aparezcan como frecuencias por debajo del límite, aunque esas Los «alias» no están realmente ahí. Ninguna cantidad de procesamiento de una señal con alias puede recuperar la señal original en el caso general. Es bastante largo entrar en las elegantes explicaciones matemáticas, a menos que haya tenido una clase de teoría de muestreo y procesamiento de señales digitales. Si lo hubiera hecho, no estaría haciendo la pregunta. Desafortunadamente, la mejor respuesta es simplemente «Así no es como funciona la física. Lo siento, pero tendrás que confiar en mí en esto «. .
Para intentar dar una idea aproximada de que lo anterior podría ser cierto, considera el caso de una imagen de un pared de ladrillo. Sin un filtro AA, habrá patrones de muaré (que en realidad son los alias) que harán que las líneas de ladrillo parezcan onduladas. Nunca ha visto el edificio real, solo la imagen con las líneas onduladas.
¿Cómo sabe que los ladrillos reales no estaban colocados en un patrón ondulado? Usted asume que no fueron de su conocimiento general de ladrillos y experiencia humana de ver paredes de ladrillo. Sin embargo, ¿alguien podría simplemente hacer un punto deliberadamente hacer una pared de ladrillos para que se vea en la vida real (cuando se ve con sus propios ojos) como la imagen? Sí, podrían. Por lo tanto, ¿es posible distinguir matemáticamente una imagen con alias de una pared de ladrillos normal y una imagen fiel de una pared de ladrillos deliberadamente ondulada? No, no es. De hecho, tampoco puedes notar la diferencia, excepto que tu intuición acerca de lo que una imagen probablemente representa puede darte la impresión de que sí. Una vez más, estrictamente hablando, no puedes decir si las ondas son artefactos de patrón muaré o son reales.
El software no puede eliminar mágicamente las ondas porque no sabe qué es real y qué no. Matemáticamente, se puede demostrar que no puede saberlo, al menos con solo mirar la imagen ondulada.
Una pared de ladrillos puede ser un caso obvio en el que puede saber que la imagen con alias es incorrecta, pero hay Hay muchos casos más sutiles en los que realmente no sabe, y es posible que ni siquiera se dé cuenta de que está sucediendo el alias.
Agregado en respuesta a los comentarios:
La diferencia entre crear un alias en una señal de audio y una imagen es solo que la primera es 1D y la última 2D. La teoría y cualquier matemática para realizar efectos sigue siendo la misma, solo que se aplica en 2D cuando se trata de imágenes. Si las muestras están en una cuadrícula rectangular regular, como si estuvieran en una cámara digital, entonces surgen otros problemas interesantes. Por ejemplo, la frecuencia de muestreo es sqrt (2) más baja (aproximadamente 1,4 veces más baja) a lo largo de las direcciones diagonales opuestas a las direcciones alineadas con el eje. Sin embargo, la teoría de muestreo, la tasa de Nyquist y lo que realmente son los alias no son diferentes en una señal 2D que en una señal 1D.La principal diferencia parece ser que esto puede ser más difícil para aquellos que no están acostumbrados a pensar en el espacio de frecuencias para entender y proyectar lo que significa todo en términos de lo que ven en una imagen.
De nuevo, no, no se puede «demostrar» una señal después del hecho, al menos no en el caso general en el que no se sabe lo que se supone que es el original. Los patrones de muaré causados por el muestreo de una imagen continua son alias. La misma matemática se aplica a ellos tal como se aplica a las altas frecuencias que forman un alias en una transmisión de audio y suenan como silbidos de fondo. Es lo mismo, con la misma teoría para explicarlo y la misma solución para tratarlo.
Esa solución es eliminar las frecuencias por encima del límite de Nyquist antes muestreo. En el audio que se puede hacer con un filtro de paso bajo simple que posiblemente podría hacer a partir de una resistencia y un condensador. En el muestreo de imágenes, todavía necesita un filtro de paso bajo, en este caso está tomando parte de la luz que golpearía sólo un píxel y distribuirlo a los píxeles vecinos. Visualmente, esto parece un ligero desenfoque de la imagen antes de muestrearla. El contenido de alta frecuencia se ve como detalles finos o bordes nítidos en una imagen. Por el contrario, los bordes nítidos y los detalles finos contienen altas frecuencias. Son exactamente estas altas frecuencias las que se convierten en alias en la imagen muestreada. Algunos alias son lo que llamamos patrones de muaré cuando el original tenía contenido regular. Algunos alias dan el efecto de «escalón» a líneas o bordes, especialmente cuando son casi verticales u horizontales. Existen otros efectos visuales causados por los alias.
El hecho de que el eje independiente en las señales de audio sea el tiempo y los ejes independientes (dos de ellos ya que la señal es 2D) de una imagen sean la distancia no invalida la matemáticas o de alguna manera hacer que sea diferente entre las señales de audio y las imágenes. Probablemente porque la teoría y las aplicaciones de aliasing y anti-aliasing se desarrollaron en señales 1D que eran voltajes basados en el tiempo, el término «dominio del tiempo» se usa para contrastar con «dominio de frecuencia» «. En una imagen, la representación del espacio sin frecuencia es técnicamente el» dominio de la distancia «, pero para simplificar el procesamiento de la señal, a menudo se la denomina» dominio del tiempo «. es. Y no, no es evidencia en absoluto de que la teoría no se aplique a las imágenes, solo que a veces se usa una elección engañosa de palabras para describir cosas debido a razones históricas. De hecho, el atajo «dominio del tiempo» que se aplica al dominio de no frecuencia de imágenes es en realidad porque la teoría es la misma entre imágenes y señales basadas en el tiempo real. Aliasing es aliasing independientemente de cuál sea el eje (o ejes) independiente.
A menos que esté dispuesto a profundizar en esto en el nivel de un par de cursos universitarios sobre teoría de muestreo y procesamiento de señales, al final simplemente tendrá que confiar en los que sí lo han hecho. Algunas de estas cosas no son intuitivas sin una base teórica significativa.
Comentarios
- Todos mi experiencia en el muestreo y el procesamiento de señales digitales se ha relacionado con el audio digital. Entiendo cómo actúa un filtro de paso bajo para limitar los sonidos por encima de una determinada frecuencia para que no entren en la conversión AD. Si ‘ re muestreo a 44,100 hz, aplica un filtro que comienza a rodar a unos 20 kHz y cualquier respuesta de 22 kHz prácticamente desaparece. Pero con imágenes digitales no es ‘ t tan simple, porque incluso con los filtros AA se logra algo de alias. Yo ‘ he leído en otra parte que los filtros no No intente bloquear todo lo que esté por encima del Nyquist porque eso reduciría demasiado la resolución.
- Tendría que estar de acuerdo en que el problema que trata un filtro de paso bajo en una cámara no es lo mismo que el problema que trata un filtro de paso bajo en el procesamiento de audio. Supongo que la mejor manera de decirlo es que un filtro de paso bajo de audio funciona directamente con una señal electrónica, mientras que un filtro óptico de paso bajo trabaja en las frecuencias espaciales de una señal de imagen producida por una lente. La señal electrónica con la que está acostumbrado a trabajar es de una naturaleza diferente a la señal de imagen.
- @Michael: Vea la adición a mi respuesta.
- » Los patrones de muaré causados por el muestreo de una imagen continua son alias. » – Olin. ¡Creo que ese es el punto clave allí mismo! Cuando realmente toma la exposición, no está grabando una versión pura de la imagen virtual original … está grabando alias de puntos de datos dentro de esa imagen virtual original. Esa información en su computadora contiene alias. Una forma muy bonita, concisa y clara de decirlo. 🙂
- @Michael: Lo que dices acerca de cómo se interpolan los píxeles a todo color de los valores del sensor sin procesar es correcto, pero no influye en la discusión sobre el alias.
Deja una respuesta