Warum wird bei modernen DSLRs immer noch ein physischer Anti-Aliasing-Filter benötigt?
On Februar 15, 2021 by adminIch verstehe, dass der Zweck des Anti-Aliasing-Filters (AA) darin besteht, Moiré zu verhindern. Als Digitalkameras zum ersten Mal auftauchten, war ein AA-Filter erforderlich, um genügend Unschärfe zu erzeugen, um Moiré-Muster zu verhindern. Zu dieser Zeit war die Leistung von Kamera-Prozessoren sehr begrenzt. Aber warum muss in modernen DSLR-Kameras immer noch ein AA-Filter über dem Sensor platziert werden? Konnte dies nicht Dies lässt sich genauso einfach mit den Algorithmen erreichen, die angewendet werden, wenn die Ausgabe des Sensors demosaikiert wird. Es scheint, dass die derzeit in der Kamera verfügbare Verarbeitungsleistung dies jetzt viel mehr als noch vor einigen Jahren ermöglichen würde. Canon “ Der aktuelle Digic 5+ -Prozessor verfügt über eine 100-fache Verarbeitungsleistung des Digic III-Prozessors, was die Leistung der frühesten Digitalkameras in den Schatten stellt. Insbesondere beim Aufnehmen von RAW-Dateien konnte die AA-Unschärfe in der Nachbearbeitungsphase nicht durchgeführt werden. Ist dies die Grundvoraussetzung der Nikon D800E, obwohl sie einen zweiten Filter verwendet, um den ersten entgegenzuwirken?
Kommentare
- Dies ist nicht der Fall. Es gibt bereits DSLRs ohne Anti-Alias-Filter, einschließlich der Pentax K-5 IIs, der Nikon D800E sowie spiegelloser Modelle wie dem Olympus PEN E. -PM2 und alle Fujis (X-E1, X-Pro1). Außerdem kündigten sie sogar Kameras mit festem Objektiv ohne AA-Filter (X20 und X100S) an.
- Und all diese Kameras zeigen manchmal Farbmoire.
- In der Tat, aber auch andere Kameras. Ich vermute, dass ein Anti-Alias-Filter, der jegliches Moiré vermeidet, zu stark wäre, daher verwenden Hersteller AA-Filter mit geringerer Stärke. Als Beispiel in meinem K-5 IIs und K-5 II Vergleich , Moire tritt bei beiden Kameras auf, nur viel mehr bei den K-5 IIs.
- IIRC die neue Nikon D7100 ‚ hat auch keine.
- An d Jetzt hat die Pentax K-3 keinen Filter, aber einen Modus, um den Sensor während der Belichtung sehr, sehr leicht zu vibrieren, um einen zu simulieren. Viele interessante Innovationen in diesem Bereich.
Antwort
Aliasing ist das Ergebnis der Wiederholung von Mustern von ungefähr dem gleiche Frequenz, die sich auf unerwünschte Weise gegenseitig stört. Bei der Fotografie erzeugen die höheren Frequenzen des vom Objektiv auf den Sensor projizierten Bildes ein Interferenzmuster (in diesem Fall Moiré) mit dem Pixelraster. Diese Interferenz tritt nur auf, wenn diese Frequenzen ungefähr gleich sind oder wenn die Abtastfrequenz des Sensors mit der Wavelet-Frequenz des Bildes übereinstimmt. Das ist die Nyquist-Grenze. Beachten Sie, dass dies ein analoges Problem ist. Moiré tritt aufgrund von Interferenzen auf, die in der realen Welt in Echtzeit auftreten, bevor das Bild tatsächlich belichtet wird.
Sobald das Bild belichtet ist, wird dieses Interferenzmuster effektiv „eingebrannt“. Sie können bis zu einem gewissen Grad Software verwenden, um Moiré-Muster in der Post zu bereinigen. Dies ist jedoch im Vergleich zu einem physischen Tiefpassfilter (AA) vor dem Sensor nur minimal wirksam. Der Detailverlust aufgrund von Moiré kann auch größer sein als der Verlust, der bei einem AA-Filter verloren geht, da Moiré effektiv Unsinnsdaten sind, bei denen leicht unscharfe Details noch nützlich sein können.
Ein AA-Filter dient nur dazu, diese Frequenzen bei Nyquist zu verwischen, damit keine Interferenzmuster entstehen. Der Grund, warum wir immer noch AA-Filter benötigen, ist, dass Bildsensoren und Objektive immer noch in der Lage sind, auf dieselbe Frequenz aufzulösen. Wenn sich die Sensoren so weit verbessern, dass die Abtastfrequenz des Sensors selbst konstant höher ist als selbst die besten Objektive bei optimaler Apertur, verringert sich der Bedarf an einem AA-Filter. Das Objektiv selbst würde die für uns notwendige Unschärfe effektiv bewältigen, und Interferenzmuster würden überhaupt nicht auftreten.
Kommentare
- Hier ist Teil a Kommentar gepostet zu photo.stackexchange.com/questions/10755/… . Glauben Sie immer noch, dass es richtig ist? Wenn ja, wie wird das Muster eingebrannt, bis die RAW-Daten demosaikiert wurden? “ Ironischerweise scheint die theoretische Nyquist-Grenze zumindest bei RAW nicht immer eine harte Grenze zu sein, was wahrscheinlich auf die unterschiedlichen Wellenlängen von rotem, grünem und blauem Licht und zurückzuführen ist die Verteilung von RGB-Pixeln in einem Sensor. – jrista ♦ 10. April ‚ 11 um 18:50 “
- Ich glaube, ich habe allgemein über Auflösung gesprochen dort und nicht direkt zum Aliasing im aufgezeichneten digitalen Signal. Die Nyquist-Grenze ist aufgrund des ungleichmäßigen Musters der RGRG- und GBGB-Zeilen in einem Bayer-Sensor schwierig zu bestimmen. Die räumliche Auflösung von Grün ist höher als die räumliche Auflösung von Rot oder Blau, daher liegt die Nyquist-Grenze bei rotem oder blauem Licht bei einer niedrigeren Frequenz als die Nyquist-Grenze bei grünem Licht.Die Nyquist-Grenze in einem demosaikierten Bild ist schwer genau zu nennen, daher wird sie eher zu einem Fuzzy-Band als zu einer konkreten mathematischen Grenze.
- … dieses Muster wird Teil des Bildes. Selbst wenn Sie die genauen Wavelet-Eigenschaften des virtuellen Bildes kennen und dann eine Fourier-Reihe erzeugen könnten, müssten Sie die Ausrichtung des Bildes relativ zum virtuellen Konzept des Sensors ändern, um das Moiré perfekt „. Das ist eine Menge übermäßig intensiver, hochmathematischer Arbeit … vorausgesetzt, Sie kennen die GENAUE Natur des ursprünglichen virtuellen Bildsignals und seine Beziehung zum Sensor. Sobald Aliasing in eine RAW eingebrannt ist, ist es so gut wie erledigt. Es gibt wirklich kein ‚ mehr, um es rückgängig zu machen, ohne Details zu mildern.
- Ich weiß alles über den Unterschied in der Frequenz zwischen rot / blau und grün. Wie bei allen aktuellen optischen AA-Filtern, die nur bei nyquist filtern, hängt dies wirklich von der Kamera ab. Nicht alle AA-Filter sind exakt gleich ausgelegt, und selbst für dieselbe Marke haben verschiedene Modelle und verschiedene Linien häufig AA-Filter, die sich unterschiedlich verhalten. Ich weiß, dass die 1D- und 5D-Linien in der Vergangenheit einige Frequenzen knapp über Nyquist durchgelassen haben, aber ich denke, es ist eine Frage des Ausgleichs mit der Objektivauflösung.
- Bei Sensoren mit kleineren Pixeln, wie dem Canon 18mp APS- C, die D800, die D3200, Pixel werden sehr, sehr klein. Außerhalb eines kleinen Segments können wirklich neue Objektive (wie die Mark II L-Serie von Canon ‚ und nur die in den letzten zwei bis drei Jahren veröffentlichten) genug aufgelöst werden Details, um den Sensor deutlich aufzulösen und Aliasing bei Frequenzen zu verursachen, die höher als nyquist sind. Filtern Sie bei etwa nyquist, und das Objektiv selbst verwischt darüber hinaus Details. Ich denke, das ist einer der Gründe, warum die 5D-Linie einen zu starken AA-Filter hatte … Objektive lösen ihn leichter auf.
Antwort
Die Physik funktioniert einfach nicht so. Durch Aliasing irreversibel werden Frequenzen über die Nyquist-Grenze hinaus transformiert, um als Frequenzen unterhalb der Grenze zu erscheinen, obwohl diese „Aliase“ sind nicht wirklich da. Im allgemeinen Fall kann kein Verarbeitungsaufwand für ein Alias-Signal das ursprüngliche Signal wiederherstellen. Die ausgefallenen mathematischen Erklärungen sind ziemlich lang, es sei denn, Sie hatten eine Klasse in Abtasttheorie und digitaler Signalverarbeitung. Wenn Sie dies getan hätten, würden Sie die Frage nicht stellen. Leider ist dann die beste Antwort einfach „Das“ nicht so, wie die Physik funktioniert. Tut mir leid, aber Sie müssen mir diesbezüglich vertrauen. .
Um ein grobes Gefühl dafür zu vermitteln, dass das oben Gesagte wahr sein könnte, betrachten Sie den Fall eines Bildes von a Ziegelwand. Ohne einen AA-Filter gibt es Moiré-Muster (die eigentlich die Aliase sind), die die Ziegellinien wellig aussehen lassen. Sie haben noch nie das eigentliche Gebäude gesehen, nur das Bild mit den Wellenlinien.
Woher wissen Sie, dass die echten Steine nicht in einem Wellenmuster verlegt wurden? Sie nehmen sie an waren nicht von Ihrem allgemeinen Wissen über Ziegel und der menschlichen Erfahrung, Ziegelmauern zu sehen. Könnte jemand, der nur einen Punkt macht, absichtlich eine Mauer machen, damit sie im wirklichen Leben (mit eigenen Augen betrachtet) wie das Bild aussieht? Ja, sie könnten. Ist es daher möglich, ein Alias-Bild einer normalen Mauer mathematisch von einem getreuen Bild einer absichtlich gewellten Mauer zu unterscheiden? Nein ist es nicht. Tatsächlich können Sie den Unterschied auch nicht wirklich erkennen, außer dass Ihre Vorstellung davon, was ein Bild wahrscheinlich darstellt, den Eindruck erweckt, dass Sie es können. Auch hier können Sie streng genommen nicht sagen, ob die Wellen wellig sind sind Moiré-Muster-Artefakte oder real.
Software kann die Wellen nicht auf magische Weise entfernen, da sie nicht weiß, was real ist und was nicht. Mathematisch kann gezeigt werden, dass es nicht wissen kann, zumindest wenn nur das gewellte Bild betrachtet wird.
Eine Mauer kann ein offensichtlicher Fall sein, in dem Sie wissen können, dass das Alias-Bild falsch ist, aber dort Es gibt viele subtilere Fälle, in denen Sie es wirklich nicht wissen und möglicherweise nicht einmal wissen, dass Aliasing stattfindet.
Als Antwort auf Kommentare hinzugefügt:
Der Unterschied zwischen dem Aliasing eines Audiosignals und eines Bildes besteht nur darin, dass das erstere 1D und das letztere 2D ist. Die Theorie und jede Mathematik zur Realisierung von Effekten ist immer noch dieselbe, nur dass sie beim Umgang mit Bildern in 2D angewendet wird. Wenn sich die Samples wie in einer Digitalkamera in einem regelmäßigen rechteckigen Raster befinden, treten einige andere interessante Probleme auf. Zum Beispiel ist die Abtastfrequenz entlang der diagonalen Richtungen um ein Quadrat (2) niedriger (ungefähr 1,4x niedriger), bezogen auf die achsausgerichteten Richtungen. Die Abtasttheorie, die Nyquist-Rate und die tatsächlichen Aliase unterscheiden sich jedoch in einem 2D-Signal nicht von einem 1D-Signal.Der Hauptunterschied scheint zu sein, dass dies für diejenigen, die nicht daran gewöhnt sind, im Frequenzraum zu denken, schwieriger sein kann, sich Gedanken zu machen und zu projizieren, was dies alles in Bezug auf das bedeutet, was Sie auf einem Bild sehen.
Wiederum Nein, Sie können ein Signal nachträglich „demosaikieren“, zumindest nicht in dem allgemeinen Fall, in dem Sie nicht wissen, wie das Original aussehen soll. Moiré-Muster, die durch Abtasten eines kontinuierlichen Bildalias verursacht werden, sind Aliase. Für sie gilt die gleiche Mathematik wie für Aliasing von hohen Frequenzen in einen Audiostream, das wie Hintergrundpfeifen klingt. Es ist das gleiche Zeug, mit der gleichen Theorie, um es zu erklären, und der gleichen Lösung, um damit umzugehen.
Diese Lösung besteht darin, die Frequenzen über der Nyquist-Grenze vor zu eliminieren Sampling. Bei Audio, das mit einem einfachen Tiefpassfilter ausgeführt werden kann, das Sie möglicherweise aus einem Widerstand und einem Kondensator herstellen können. Bei der Bildabtastung benötigen Sie immer noch ein Tiefpassfilter. In diesem Fall wird ein Teil des Lichts aufgenommen, das auftreffen würde nur ein einziges Pixel und es auf benachbarte Pixel verteilen. Optisch sieht dies wie eine leichte Unschärfe des Bildes aus, bevor es abgetastet wird. Hochfrequenzinhalte sehen aus wie feine Details oder scharfe Kanten in einem Bild. Umgekehrt enthalten scharfe Kanten und feine Details hohe Frequenzen. Genau diese hohen Frequenzen werden im abgetasteten Bild in Aliase umgewandelt. Einige Aliase nennen wir Moiré-Muster, wenn das Original regelmäßig Inhalt hatte. Einige Aliase verleihen Linien oder Kanten den „Treppenstufen“ -Effekt, insbesondere wenn sie nahezu vertikal oder horizontal sind. Es gibt andere visuelle Effekte, die durch Aliase verursacht werden.
Nur weil die unabhängige Achse in Audiosignalen die Zeit ist und die unabhängigen Achsen (zwei davon, da das Signal 2D ist) eines Bildes die Entfernung sind, wird die Entfernung nicht ungültig Mathematik oder machen es irgendwie anders zwischen Audiosignalen und Bildern. Wahrscheinlich, weil die Theorie und Anwendungen von Aliasing und Anti-Aliasing auf 1D-Signalen entwickelt wurden, die zeitbasierte Spannungen waren, wird der Begriff „Zeitbereich“ verwendet, um im Gegensatz zu „Frequenzbereich“ zu stehen „. In einem Bild ist die Darstellung des Nichtfrequenzraums technisch gesehen die“ Entfernungsdomäne „, aber zur Vereinfachung der Signalverarbeitung wird sie häufig als“ Zeitdomäne „bezeichnet. Lassen Sie sich dadurch nicht von dem Aliasing ablenken ist. Und nein, es ist überhaupt kein Beweis dafür, dass die Theorie nicht für Bilder gilt, nur dass manchmal eine irreführende Wortwahl verwendet wird, um Dinge aus historischen Gründen zu beschreiben. Tatsächlich ist die Abkürzung „Zeitbereich“, die auf den Nichtfrequenzbereich von Bildern angewendet wird, tatsächlich , weil die Theorie zwischen Bildern und echten zeitbasierten Signalen dieselbe ist. Aliasing ist Aliasing, unabhängig davon, um welche unabhängige Achse (n) es sich handelt.
Es sei denn, Sie sind bereit, sich am Ende auf der Ebene einiger College-Kurse zu Abtasttheorie und Signalverarbeitung damit zu befassen Sie müssen nur denen vertrauen, die dies haben. Einige dieser Dinge sind ohne einen signifikanten theoretischen Hintergrund nicht intuitiv.
Kommentare
- Alle von Mein Hintergrund in der Abtastung und digitalen Signalverarbeitung war in Bezug auf digitales Audio. Ich verstehe, wie ein Tiefpassfilter Klänge über einer bestimmten Frequenz daran hindert, in die AD-Konvertierung zu gelangen. Wenn Sie ‚ Wenn Sie bei 44.100 Hz abtasten, wenden Sie einen Filter an, der bei etwa 20 kHz abrollt, und jede Antwort von 22 kHz ist so gut wie weg. Bei digitaler Bildgebung ist dies jedoch nicht ‚ so einfach. weil selbst mit AA-Filtern ein gewisses Aliasing durchkommt. Ich ‚ habe an anderer Stelle gelesen, dass die Filter nicht Versuchen Sie nicht, alles über dem Nyquist zu blockieren, da dies die Auflösung zu stark reduzieren würde.
- Ich muss zustimmen, dass das Problem, mit dem sich ein Tiefpassfilter in einer Kamera befasst, nicht besteht das gleiche wie das Problem, mit dem sich ein Tiefpassfilter in der Audioverarbeitung befasst. Ich denke, der beste Weg, es auszudrücken, ist, dass ein Audio-Tiefpassfilter direkt mit einem elektronischen Signal arbeitet, während ein optisches Tiefpassfilter mit den Raumfrequenzen eines von einem Objektiv erzeugten Bildsignals arbeitet. Das elektronische Signal, mit dem Sie arbeiten, ist anderer Natur als ein Bildsignal.
- @Michael: Siehe Ergänzung zu meiner Antwort.
- “ Moiré-Muster, die durch Abtasten eines kontinuierlichen Bildes verursacht werden, sind Aliase. “ – Olin. Ich denke, das ist genau dort der entscheidende Punkt! Wenn Sie die Belichtung tatsächlich aufnehmen, zeichnen Sie keine reine Version des ursprünglichen virtuellen Bilds auf. Sie zeichnen Aliase von Datenpunkten innerhalb dieses ursprünglichen virtuellen Bildes auf. Diese Daten auf Ihrem Computer enthalten Aliase. Sehr schöne, prägnante und klare Art, es auszudrücken. 🙂
- @Michael: Was Sie darüber sagen, wie Vollfarbpixel aus rohen Sensorwerten interpoliert werden, ist korrekt, hat jedoch keinen Einfluss auf die Aliasing-Diskussion.
Schreibe einen Kommentar