Pourquoi un filtre anti-aliasing physique est-il toujours nécessaire sur les reflex numériques modernes?
On février 15, 2021 by adminJe comprends que le but du filtre anti-aliasing (AA) est déviter le moiré. Lorsque les appareils photo numériques sont apparus pour la première fois, un filtre AA était nécessaire pour créer suffisamment de flou pour éviter les motifs de moiré. À cette époque, la puissance des processeurs intégrés à la caméra était très limitée. Mais pourquoi est-il toujours nécessaire de placer un filtre AA sur le capteur des appareils photo reflex numériques modernes? Impossible de « t ceci être accompli tout aussi facilement par les algorithmes appliqués lorsque la sortie du capteur est dématriée? Il semblerait que la puissance de traitement actuelle disponible dans lappareil photo le permette maintenant bien plus quil y a quelques années. Canon » Le processeur Digic 5+ actuel a plus de 100 fois la puissance de traitement du processeur Digic III, qui éclipse la puissance des premiers appareils photo numériques. Surtout lors de la prise de vue de fichiers RAW, le floutage AA ne pourrait-il pas être effectué lors de la phase de post-traitement? Est-ce le principe de base du Nikon D800E, même sil utilise un deuxième filtre pour contrer le premier?
Commentaires
- Ce nest pas le cas. Il existe déjà des reflex numériques sans filtre anti-alias, notamment le Pentax K-5 II, le Nikon D800E, ainsi que des modèles sans miroir comme lOlympus PEN E -PM2 et tous les Fujis (X-E1, X-Pro1). De plus, ils ont même annoncé des caméras à objectif fixe sans filtre AA (X20 et X100S).
- Et toutes ces caméras montrent parfois un moiré de couleur.
- En effet, mais il en sera de même pour dautres caméras. Je soupçonne quun filtre anti-alias qui évite tout moiré serait trop fort, donc les fabricants utilisent des filtres AA de moindre puissance. A titre dexemple, dans mon Comparaison des K-5 II et K-5 II , le moiré se produit sur les deux appareils, mais bien plus encore avec le K-5 II.
- IIRC le nouveau Nikon D7100 n ‘ pas non plus.
- Un Désormais, le Pentax K-3 na pas de filtre mais dispose dun mode pour faire vibrer le capteur très, très légèrement pendant lexposition pour en simuler un. Beaucoup d’innovations intéressantes dans ce domaine.
Réponse
Le crénelage est le résultat de la répétition de modèles de même fréquence interférant les uns avec les autres de manière indésirable. Dans le cas de la photographie, les fréquences plus élevées de limage projetée par lobjectif sur le capteur créent un motif dinterférence (moiré dans ce cas) avec la grille de pixels. Cette interférence se produit uniquement lorsque ces fréquences sont à peu près les mêmes, ou lorsque la fréquence déchantillonnage du capteur correspond à la fréquence dondelettes de limage. Cest la limite de Nyquist. Remarque … cest un problème analogique … le moiré se produit en raison dinterférences qui se produisent en temps réel dans le monde réel avant que limage ne soit réellement exposée.
Une fois limage exposée, ce motif dinterférence est effectivement « intégré ». Vous pouvez utiliser un logiciel dans une certaine mesure pour nettoyer les motifs de moiré en post, mais il est peu efficace par rapport à un filtre passe-bas physique (AA) devant le capteur. La perte de détails due au moiré peut également être supérieure à celle perdue dans un filtre AA, car le moiré est effectivement des données absurdes, où des détails légèrement flous pourraient encore être utiles.
Un filtre AA est simplement conçu pour brouiller ces fréquences à Nyquist afin quelles ne créent aucun motif dinterférence. La raison pour laquelle nous avons toujours besoin de filtres AA est que les capteurs dimage et les objectifs sont toujours capables de se résoudre à la même fréquence. Lorsque les capteurs saméliorent au point où la fréquence déchantillonnage du capteur lui-même est constamment plus élevée que même les meilleurs objectifs à leur ouverture optimale, alors le besoin dun filtre AA diminue. Lobjectif lui-même gérerait efficacement le flou nécessaire pour nous, et les motifs dinterférence napparaîtraient jamais en premier lieu.
Commentaires
- Voici la partie a commentaire publié sur photo.stackexchange.com/questions/10755/… . Pensez-vous toujours que cest exact? Si tel est le cas, comment le modèle est-il intégré jusquà ce que les données RAW aient été dématriquées? » Ironiquement, au moins avec RAW, la limite de nyquist théorique ne semble pas toujours être une limite stricte, ce qui est probablement dû aux différentes longueurs donde de la lumière rouge, verte et bleue la répartition des pixels RVB dans un capteur. – jrista ♦ 10 avril ‘ 11 à 18:50 »
- Je crois que je parlais de résolution en général là, et pas directement à laliasing dans le signal numérique enregistré. La limite de nyquist est un peu difficile à fixer dans un capteur bayer en raison de la configuration inégale des rangées RGRG et GBGB. La résolution spatiale du vert est supérieure à la résolution spatiale du rouge ou du bleu, de sorte que la limite de nyquist dans la lumière rouge ou bleue est à une fréquence inférieure à la limite de nyquist dans la lumière verte.La limite de nyquist dans une image dématriée est un peu difficile à appeler exactement, donc elle devient un peu une bande floue, plutôt quune limite mathématique concrète.
- … ce modèle devient une partie de limage. Même si vous connaissiez les caractéristiques exactes des ondelettes de limage virtuelle, et que vous pouviez produire une série de fourier, vous auriez à modifier lorientation de limage par rapport au concept virtuel du capteur pour éliminer le moiré » parfaitement « . Cest beaucoup de travail excessivement intense et hautement mathématique … en supposant que vous connaissiez la nature EXACTE du signal dimage virtuelle dorigine et sa relation avec le capteur. Une fois que laliasing est cuit dans un RAW, cest à peu près fait, il ny a vraiment ‘ aucune annulation sans adoucir les détails.
- Je sais tout sur la différence en fréquence entre le rouge / bleu et le vert. Comme pour tous les filtres optiques AA actuels ne filtrant que chez nyquist, cela dépend vraiment de lappareil photo. Tous les filtres AA ne sont pas conçus exactement de la même manière, et même pour la même marque, différents modèles et différentes lignes ont souvent des filtres AA qui se comportent différemment. Je sais quhistoriquement, les lignes 1D et 5D ont permis à CERTAINES fréquences juste au-dessus de nyquist, mais je pense que cest une question déquilibrage avec la résolution de lobjectif.
- Sur les capteurs avec des pixels plus petits, tels que le Canon 18mp APS- C, le D800, le D3200, les pixels deviennent vraiment très petits. En dehors dun petit segment, si les objectifs vraiment nouveaux (comme la génération Mark II de la série L de Canon ‘, et ensuite, seuls ceux sortis au cours des deux ou trois dernières années) peuvent résoudre suffisamment détail pour dépasser considérablement le capteur et provoquer un crénelage à des fréquences supérieures à nyquist. Filtrez autour de nyquist, et lobjectif lui-même brouillera les détails au-delà. Je pense que cest en partie la raison pour laquelle la gamme 5D a eu un filtre AA trop puissant … les objectifs le surpassent plus facilement.
Réponse
La physique ne fonctionne tout simplement pas de cette façon. Le crénelage de manière irréversible transforme les fréquences au-delà de la limite de Nyquist pour apparaître comme des fréquences inférieures à la limite, bien que celles Les « alias » ne sont pas vraiment là. Aucune quantité de traitement dun signal crénelé ne peut récupérer le signal dorigine dans le cas général. Les explications mathématiques sophistiquées sont assez longues à entrer à moins que vous nayez eu un cours de théorie de léchantillonnage et de traitement numérique du signal. Si vous laviez fait, vous ne poseriez pas la question. Malheureusement, la meilleure réponse est simplement « Ce » nest pas ainsi que fonctionne la physique. Désolé, mais vous « allez devoir me faire confiance à ce sujet. » .
Pour essayer de donner une impression approximative que ce qui précède pourrait être vrai, considérons le cas dune photo dun mur de briques. Sans filtre AA, il y aura des motifs de moiré (qui sont en fait les alias) donnant aux lignes de brique un aspect ondulé. Vous n’avez jamais vu le vrai bâtiment, seulement l’image avec les lignes ondulées.
Comment savez-vous que les vraies briques n’ont pas été posées selon un motif ondulé? Vous supposez qu’elles n « t de votre connaissance générale des briques et de votre expérience humaine de voir des murs de briques. Cependant, quelquun pourrait-il simplement faire valoir un point de vue délibérément sur le mur de briques afin quil ressemble dans la vraie vie (vu de vos propres yeux) à limage? Oui, ils pourraient. Par conséquent, est-il possible de distinguer mathématiquement une image aliasée dun mur de briques normal et une image fidèle dun mur de briques délibérément ondulé? Non, ça ne lest pas. En fait, vous ne pouvez pas vraiment faire la différence non plus, sauf que votre intution sur ce quune image représente probablement peut vous donner limpression que vous le pouvez. Encore une fois, à proprement parler, vous ne pouvez pas dire si les vagues sont des artefacts de moiré ou sont réels.
Le logiciel ne peut pas supprimer les ondulations par magie car il ne sait pas ce qui est réel et ce qui ne l’est pas. Mathématiquement, on peut montrer quil ne peut pas savoir, du moins en regardant seulement limage ondulée.
Un mur de briques peut être un cas évident où vous pouvez savoir que limage aliasée est fausse, mais là il existe de nombreux cas plus subtils où vous ne savez vraiment pas et que vous ne savez peut-être même pas que lalias est en cours.
Ajouté en réponse aux commentaires:
La différence entre laliasing dun signal audio et dune image est uniquement que le premier est 1D et le second 2D. La théorie et les mathématiques pour réaliser des effets sont toujours les mêmes, juste quelles sont appliquées en 2D lorsquil sagit dimages. Si les échantillons sont sur une grille rectangulaire régulière, comme dans un appareil photo numérique, dautres problèmes intéressants se posent. Par exemple, la fréquence déchantillonnage est sqrt (2) plus basse (environ 1,4x plus basse) le long des directions diagonales par rapport aux directions alignées sur laxe. Cependant, la théorie de léchantillonnage, le taux de Nyquist et ce que sont réellement les alias ne sont pas différents dans un signal 2D et dans un signal 1D.La principale différence semble être que cela peut être plus difficile pour ceux qui nont pas lhabitude de penser dans lespace des fréquences de réfléchir et de projeter ce que tout cela signifie en termes de ce que vous voyez dans une image.
Encore une fois, non, vous ne pouvez pas « démosaliser » un signal après coup, du moins pas dans le cas général où vous ne savez pas ce que l original est censé être. Les motifs de moirage provoqués par léchantillonnage dune image continue sont alias. Le même calcul sapplique à eux, tout comme il sapplique aux hautes fréquences se repliant dans un flux audio et sonnant comme des sifflets darrière-plan. Cest la même chose, avec la même théorie pour lexpliquer, et la même solution pour y faire face.
Cette solution consiste à éliminer les fréquences au-dessus de la limite de Nyquist avant échantillonnage. En audio, cela peut être fait avec un simple filtre passe-bas que vous pourriez éventuellement créer à partir dune résistance et dun condensateur. Pour léchantillonnage dimage, vous avez toujours besoin dun filtre passe-bas, dans ce cas, il prend une partie de la lumière qui frapperait un seul pixel et en le répartissant sur les pixels voisins. Visuellement, cela ressemble à un léger flou de limage avant quelle ne soit échantillonnée. Le contenu haute fréquence ressemble à des détails fins ou à des bords nets dans une image. Inversement, les arêtes vives et les détails fins contiennent des fréquences élevées. Ce sont exactement ces hautes fréquences qui sont converties en alias dans limage échantillonnée. Certains alias sont ce que nous appelons des modèles de moiré lorsque loriginal avait un contenu régulier. Certains alias donnent un effet de « marche en escalier » aux lignes ou aux arêtes, en particulier lorsquelles sont presque verticales ou horizontales. Il y a dautres effets visuels causés par les alias.
Ce nest pas parce que laxe indépendant dans les signaux audio est le temps et que les axes indépendants (deux dentre eux puisque le signal est 2D) dune image sont la distance ninvalide pas le mathématique ou en quelque sorte la différencier entre les signaux audio et les images. Probablement parce que la théorie et les applications de laliasing et de lanticrénelage ont été développées sur des signaux 1D qui étaient des tensions basées sur le temps, le terme «domaine temporel» est utilisé pour contraster avec «domaine fréquentiel « . Dans une image, la représentation de lespace non fréquentiel est techniquement le » domaine de la distance « , mais pour simplifier le traitement du signal, on lappelle quand même souvent le » domaine temporel « . Ne laissez pas cela vous distraire de ce quest réellement le crénelage est. Et non, ce nest pas du tout la preuve que la théorie ne sapplique pas aux images, seulement quun choix trompeur de mots est parfois utilisé pour décrire des choses pour des raisons historiques. En fait, le raccourci «domaine temporel» appliqué au domaine non fréquentiel des images est en fait parce que la théorie est la même entre les images et les vrais signaux temporels. Le crénelage est un crénelage quel que soit le ou les axes indépendants.
À moins que vous ne soyez prêt à approfondir cela au niveau de quelques cours universitaires sur la théorie de léchantillonnage et le traitement du signal, à la fin vous allez juste devoir faire confiance à ceux qui en ont. Certaines de ces choses ne sont pas intuitives sans une formation théorique significative.
Commentaires
- Tous mon expérience dans léchantillonnage et le traitement du signal numérique concerne laudio numérique. Je comprends comment un filtre passe-bas agit pour empêcher les sons au-dessus dune certaine fréquence dentrer dans la conversion AD. Si vous ‘ sur un échantillonnage à 44 100 Hz, vous appliquez un filtre qui commence à se dérouler à environ 20 kHz et toute réponse à 22 kHz a pratiquement disparu. Mais avec l’imagerie numérique, ce n’est pas ‘ aussi simple, car même avec les filtres AA, certains alias passent. Jai ‘ lu ailleurs que les filtres ne t essayer de bloquer tout ce qui se trouve au-dessus du Nyquist car cela réduirait trop la résolution.
- Je dois admettre que le problème avec lequel un filtre passe-bas dans un appareil photo traite n’est pas le même que le problème traité par un filtre passe-bas dans le traitement audio. Je suppose que la meilleure façon de le dire est quun filtre passe-bas audio fonctionne directement avec un signal électronique, alors quun filtre passe-bas optique fonctionne sur les fréquences spatiales dun signal dimage produit par un objectif. Le signal électronique avec lequel vous avez lhabitude de travailler est dune nature différente dun signal dimage.
- @Michael: Voir lajout à ma réponse.
- » Les motifs de moiré provoqués par léchantillonnage dune image continue sont des alias. » – Olin. Je pense que cest là le point clé! Lorsque vous prenez réellement lexposition, vous nenregistrez pas une version pure de limage virtuelle dorigine … vous enregistrez des alias de points de données dans cette image virtuelle dorigine. Ces données sur votre ordinateur contiennent des alias. Manière très agréable, concise et claire de le dire. 🙂
- @Michael: Ce que vous dites sur la façon dont les pixels en couleur sont interpolés à partir des valeurs brutes du capteur est correct, mais na aucun rapport avec la discussion sur les alias.
Laisser un commentaire