Dlaczego we współczesnych lustrzankach cyfrowych nadal potrzebny jest fizyczny filtr antyaliasingowy?
On 15 lutego, 2021 by adminRozumiem, że celem filtra antyaliasingu (AA) jest zapobieganie efektowi mory. Kiedy po raz pierwszy pojawiły się aparaty cyfrowe, niezbędny był filtr AA, aby uzyskać wystarczające rozmycie, aby zapobiec powstawaniu mory. W tym czasie moc procesorów w aparatach była bardzo ograniczona. Ale dlaczego nadal konieczne jest umieszczanie filtra AA na matrycy w nowoczesnych aparatach DSLR? Nie można tego można osiągnąć równie łatwo dzięki algorytmom stosowanym podczas demozaizacji sygnału wyjściowego z czujnika? Wydawałoby się, że obecna moc przetwarzania dostępna w aparacie pozwoliłaby na to znacznie więcej niż jeszcze kilka lat temu. Canon ” Obecny procesor Digic 5+ ma ponad 100 razy większą moc obliczeniową niż procesor Digic III, co przewyższa moc najwcześniejszych aparatów cyfrowych. Czy nie można wykonać rozmycia AA na etapie przetwarzania końcowego, zwłaszcza podczas fotografowania plików RAW? Czy jest to podstawowe założenie aparatu Nikon D800E, mimo że używa drugiego filtru, aby przeciwdziałać pierwszemu?
Komentarze
- Tak nie jest. Istnieją już lustrzanki cyfrowe bez filtra antyaliasowego, w tym Pentax K-5 IIs, Nikon D800E oraz modele bezlusterkowe, takie jak Olympus PEN E -PM2 i wszystkie Fujis (X-E1, X-Pro1). Dodatkowo ogłosili nawet aparaty z obiektywami stałymi bez filtra AA (X20 i X100S).
- A wszystkie te aparaty czasami pokazują kolorową morę.
- Rzeczywiście, ale inne aparaty też. Podejrzewam, że filtr antyaliasowy, który zapobiega wszelkiej morze, byłby zbyt silny, więc producenci używają filtrów AA o mniejszej mocy. Jako przykład, w moim Porównanie K-5 IIs i K-5 II , mora występuje w obu aparatach, tylko znacznie bardziej w przypadku K-5 IIs.
- IIRC nowy Nikon D7100 nie ' też nie ma.
- d teraz Pentax K-3 nie ma filtra, ale ma tryb bardzo, bardzo nieznacznej wibracji czujnika podczas ekspozycji, aby go symulować. Wiele interesujących innowacji w tej dziedzinie.
Odpowiedź
Aliasing jest wynikiem powtarzających się wzorców mniej więcej ta sama częstotliwość interferuje ze sobą w niepożądany sposób. W przypadku fotografii wyższe częstotliwości obrazu rzutowanego przez obiektyw na sensor tworzą i wzór interferencyjny (w tym przypadku mora) z siatką pikseli. Ta interferencja występuje tylko wtedy, gdy te częstotliwości są z grubsza takie same lub gdy częstotliwość próbkowania czujnika odpowiada częstotliwości falkowej obrazu. To jest granica Nyquista. Uwaga … to jest problem analogowy … mora pojawia się z powodu interferencji, która występuje w czasie rzeczywistym w świecie rzeczywistym, zanim obraz zostanie faktycznie naświetlony.
Po odsłonięciu obrazu ten wzór interferencji jest skutecznie „zapiekany”. Możesz do pewnego stopnia użyć oprogramowania do usunięcia wzorów mory po postach, ale jest to minimalnie skuteczne w porównaniu z fizycznym filtrem dolnoprzepustowym (AA) przed czujnikiem. Utrata szczegółów spowodowana efektem mory może być również większa niż utrata przez filtr AA, ponieważ mora jest w rzeczywistości danymi nonsensownymi, w których lekko rozmyte szczegóły mogą być nadal przydatne.
Filtr AA został zaprojektowany po to, aby zamazać te częstotliwości w Nyquist, aby nie tworzyły żadnych wzorców interferencji. Powodem, dla którego nadal potrzebujemy filtrów AA, jest to, że czujniki obrazu i soczewki nadal są w stanie rozróżniać do tej samej częstotliwości. Gdy czujniki poprawią się do punktu, w którym częstotliwość próbkowania samego czujnika jest stale wyższa niż nawet najlepsze soczewki przy ich optymalnej aperturze, zapotrzebowanie na filtr AA zmniejszyłoby się. Sam obiektyw skutecznie poradziłby sobie z koniecznym dla nas rozmyciem, a wzorce interferencji nigdy by się nie pojawiły.
Komentarze
- Oto część a komentarz opublikowany w photo.stackexchange.com/questions/10755/… . Czy nadal uważasz, że jest dokładna? Jeśli tak, w jaki sposób wzór jest zapiekany do czasu usunięcia danych RAW? ” Jak na ironię, przynajmniej w przypadku formatu RAW, teoretyczna granica nyquista nie zawsze wydaje się być twardym limitem, co prawdopodobnie wynika z różnych długości fal światła czerwonego, zielonego i niebieskiego oraz rozkład pikseli RGB w czujniku. – jrista ♦ 10 kwietnia ' 11 o 18:50 ”
- Myślę, że mówiłem ogólnie o rozdzielczości tam, a nie bezpośrednio do aliasingu w nagranym sygnale cyfrowym. Ograniczenie nyquista jest dość trudne do ustalenia w czujniku Bayer ze względu na nierówny wzór rzędów RGRG i GBGB. Rozdzielczość przestrzenna zieleni jest wyższa niż rozdzielczość przestrzenna koloru czerwonego lub niebieskiego, więc granica nyquista w świetle czerwonym lub niebieskim ma niższą częstotliwość niż granica nyquista w świetle zielonym.Nyquistowskie ograniczenie w zdemozaikowanym obrazie jest trudne do dokładnego określenia, więc staje się raczej rozmytym pasmem niż konkretnym ograniczeniem matematycznym.
- … ten wzór staje się częścią obrazu. Nawet gdybyś znał dokładną charakterystykę falki wirtualnego obrazu i mógł stworzyć czterokrotnie wyższą serię, musiałbyś zmienić orientację obrazu względem wirtualnej koncepcji czujnika, aby wyeliminować mory ” idealnie „. To dużo nadmiernie intensywnej, wysoce matematycznej pracy … zakładając, że znasz DOKŁADNĄ naturę oryginalnego sygnału obrazu wirtualnego i jego związek z czujnikiem. Po utworzeniu aliasingu w pliku RAW jest prawie gotowe, tak naprawdę nie ' nie można go cofnąć bez zmiękczania szczegółów.
- Wiem wszystko o różnicy w częstotliwości między czerwonym / niebieskim a zielonym. Jeśli chodzi o wszystkie obecne filtry optyczne AA, filtrujące tylko w firmie nyquist, tak naprawdę zależy to od aparatu. Nie wszystkie filtry AA są zaprojektowane dokładnie tak samo, a nawet dla tej samej marki różne modele i różne linie często mają filtry AA, które zachowują się inaczej. Wiem, że historycznie linie 1D i 5D przepuszczały NIEKTÓRE częstotliwości tuż powyżej nyquista, jednak myślę, że jest to kwestia balansowania z rozdzielczością obiektywu.
- W przypadku czujników z mniejszymi pikselami, takich jak Canon 18MP APS- C, D800, D3200, piksele stają się naprawdę, bardzo małe. Poza małym segmentem, jeśli naprawdę nowe obiektywy (takie jak generacja Canon ' Mark II serii L, a tylko te wprowadzone na rynek w ciągu ostatnich dwóch-trzech lat) mogą rozwiązać wystarczająco dużo szczegółów, aby znacznie przekroczyć rozdzielczość czujnika i spowodować aliasing przy częstotliwościach wyższych niż nyquist. Filtruj wokół nyquista, a sam obiektyw rozmyje szczegóły poza tym. Myślę, że jest to jeden z powodów, dla których linia 5D ma zbyt mocny filtr AA … soczewki łatwiej go pokonują.
Odpowiedź
Fizyka po prostu nie działa w ten sposób. Aliasowanie nieodwracalnie przekształca częstotliwości poza granicę Nyquista, aby pojawiać się jako częstotliwości poniżej limitu, chociaż te „aliasów” tak naprawdę nie ma. Żadna ilość przetwarzania sygnału zaliasowanego nie może odtworzyć oryginalnego sygnału w ogólnym przypadku. Wymyślne matematyczne wyjaśnienia są dość długie, chyba że miałeś zajęcia z teorii próbkowania i cyfrowego przetwarzania sygnałów. Gdyby tak było, nie zadawałbyś tego pytania. Niestety wtedy najlepszą odpowiedzią jest po prostu „To nie tak działa fizyka. Przykro mi, ale „będziesz musiał mi zaufać w tej sprawie”. .
Aby spróbować z grubsza stwierdzić, że powyższe może być prawdą, rozważ przypadek zdjęcia przedstawiającego ceglana ściana. Bez filtra AA pojawią się wzory mory (które w rzeczywistości są aliasami), które sprawią, że linie cegieł będą wyglądać falisto. Nigdy nie widziałeś prawdziwego budynku, tylko zdjęcie z falistymi liniami.
Skąd wiesz, że prawdziwe cegły nie zostały ułożone w falisty wzór? zakładasz , że nie wynikały z twojej ogólnej wiedzy o cegłach i ludzkich doświadczeń związanych z oglądaniem ceglanych ścian. Czy jednak ktoś mógłby po prostu celowo zrobić ceglaną ścianę tak, aby wyglądała w prawdziwym życiu (na własne oczy) jak na zdjęciu? Tak, mogli. Czy zatem można matematycznie rozróżnić aliasowany obraz normalnej ściany z cegły od wiernego obrazu celowo falistej ściany z cegły? Nie, nie jest. W rzeczywistości nie możesz też tak naprawdę odróżnić różnicy, z wyjątkiem tego, że Twoja uwaga na temat tego, co obraz prawdopodobnie przedstawia, może sprawiać wrażenie, że możesz. Ponownie, mówiąc ściśle, nie możesz stwierdzić, czy są artefaktami wzoru mory lub są rzeczywiste.
Oprogramowanie nie może w magiczny sposób usunąć fal, ponieważ nie wie, co jest prawdziwe, a co nie. Matematycznie można wykazać, że nie może tego wiedzieć, przynajmniej patrząc na falujący obraz.
Mur z cegły może być oczywistym przypadkiem, w którym można wiedzieć, że obraz z aliasem jest nieprawidłowy, ale jest wiele bardziej subtelnych przypadków, w których naprawdę nie wiesz, a nawet możesz nie być świadomy, że zachodzi aliasowanie.
Dodane w odpowiedzi na komentarze:
Różnica między aliasowaniem sygnału audio i obrazu polega tylko na tym, że pierwszy jest 1D, a drugi 2D. Teoria i wszelkie obliczenia matematyczne służące do realizacji efektów są nadal takie same, tyle że stosuje się ją w 2D, gdy mamy do czynienia z obrazami. Jeśli próbki są na zwykłej prostokątnej siatce, tak jak w aparacie cyfrowym, pojawia się kilka innych interesujących problemów. Na przykład częstotliwość próbkowania jest o sqrt (2) niższa (około 1,4x niższa) wzdłuż przekątnych kierunków w stosunku do kierunków wyrównanych osi. Jednak teoria próbkowania, częstotliwość Nyquista i to, czym naprawdę są aliasy, nie różnią się w sygnale 2D niż w sygnale 1D.Wydaje się, że główna różnica polega na tym, że tym, którzy nie są przyzwyczajeni do myślenia w przestrzeni częstotliwości, może być trudniej owinąć umysł i rzutować, co to wszystko oznacza w kategoriach tego, co widzisz na zdjęciu.
Ponownie, nie, nie możesz „demozaikować” sygnału po fakcie, przynajmniej nie w ogólnym przypadku, gdy nie wiesz, jaki powinien być oryginał. Wzory mory spowodowane próbkowaniem ciągłego obrazu to aliasy. Stosuje się do nich ta sama matematyka, podobnie jak w przypadku wysokich częstotliwości, które są aliasowane do strumienia audio i brzmią jak gwizdy w tle. To ta sama sprawa, z tą samą teorią, która to wyjaśnia, i tym samym rozwiązaniem, aby sobie z tym poradzić.
Rozwiązaniem jest wyeliminowanie częstotliwości powyżej granicy Nyquista przed próbkowanie. W przypadku dźwięku, który można wykonać za pomocą prostego filtra dolnoprzepustowego, który można uzyskać z rezystora i kondensatora. W przypadku próbkowania obrazu nadal potrzebny jest filtr dolnoprzepustowy, w tym przypadku pobiera on część światła, które padłoby tylko jeden piksel i rozłożenie go na sąsiednie piksele. Wizualnie wygląda to na lekkie rozmycie obrazu przed próbkowaniem. Zawartość o wysokiej częstotliwości wygląda jak drobne szczegóły lub ostre krawędzie na obrazie. I odwrotnie, ostre krawędzie i drobne szczegóły zawierają wysokie częstotliwości. To właśnie te wysokie częstotliwości są konwertowane na aliasy w próbkowanym obrazie. Niektóre aliasy nazywamy wzorami mory, gdy oryginał zawierał pewną regularną treść. Niektóre aliasy nadają liniom lub krawędziom efekt „stopni schodów”, zwłaszcza gdy są prawie pionowe lub poziome. Istnieją inne efekty wizualne spowodowane aliasami.
Tylko dlatego, że niezależną osią w sygnałach audio jest czas, a niezależne osie (dwie z nich, ponieważ sygnał jest 2D) obrazu to odległość, nie unieważnia matematyka lub w jakiś sposób odróżnia ją od sygnałów audio i obrazów. Prawdopodobnie dlatego, że teoria i zastosowania aliasingu i antyaliasingu zostały opracowane dla sygnałów 1D, które były napięciami opartymi na czasie, termin „domena czasu” jest używany w odróżnieniu od „domeny częstotliwości” Na obrazie reprezentacja przestrzeni bez częstotliwości jest technicznie „dziedziną odległości”, ale dla uproszczenia przetwarzania sygnału jest często nazywana „dziedziną czasu”. Nie pozwól, aby to odciągało Cię od tego, co tak naprawdę aliasing jest. I nie, to wcale nie jest dowód na to, że teoria nie ma zastosowania do obrazów, tylko że mylący dobór słów jest czasami używany do opisu rzeczy z powodów historycznych. W rzeczywistości skrót „dziedzina czasu” stosowany do domeny nieczęstotliwościowej obrazów jest w rzeczywistości ponieważ teoria jest taka sama między obrazami a prawdziwymi sygnałami opartymi na czasie. Aliasing to aliasing niezależnie od tego, jaka jest niezależna oś (lub osie).
Ostatecznie, chyba że chcesz zagłębić się w to na poziomie kilku kursów w collegeu z teorii próbkowania i przetwarzania sygnałów. będziesz musiał po prostu zaufać tym, którzy je posiadają. Niektóre z tych rzeczy są nieintuicyjne bez znaczącej wiedzy teoretycznej.
Komentarze
- Wszystkie Moje doświadczenie w próbkowaniu i przetwarzaniu sygnałów cyfrowych dotyczyło dźwięku cyfrowego. Rozumiem, jak działa filtr dolnoprzepustowy, ograniczając dźwięki powyżej określonej częstotliwości przed konwersją AD. Jeśli ' re próbkowanie przy częstotliwości 44 100 Hz stosuje się filtr, który zaczyna opadać przy około 20 kHz, a każda odpowiedź przy częstotliwości 22 kHz prawie zniknęła. Jednak w przypadku obrazowania cyfrowego nie jest to ' tak proste, ponieważ nawet przy filtrach AA niektóre aliasy są przenoszone. ' gdzie indziej czytałem, że filtry nie Nie próbuj blokować wszystkiego powyżej Nyquista, ponieważ zbytnio zmniejszyłoby to rozdzielczość.
- Muszę się zgodzić, że problem z filtrem dolnoprzepustowym w aparacie nie taki sam jak problem, z którym boryka się filtr dolnoprzepustowy w przetwarzaniu dźwięku. Myślę, że najlepiej ująć to w ten sposób, że dolnoprzepustowy filtr audio działa bezpośrednio z sygnałem elektronicznym, podczas gdy jako optyczny filtr dolnoprzepustowy działa na częstotliwości przestrzenne sygnału obrazu wytwarzanego przez obiektyw. Sygnał elektroniczny, z którym pracujesz, ma inny charakter niż sygnał obrazu.
- @Michael: Zobacz dodatek do mojej odpowiedzi.
- ” Wzory mory spowodowane próbkowaniem ciągłego obrazu to aliasy. ” – Olin. Myślę, że jest to kluczowy punkt! Kiedy faktycznie wykonujesz ekspozycję, nie nagrywasz czystej wersji oryginalnego wirtualnego obrazu … rejestrujesz aliasy punktów danych w tym oryginalnym wirtualnym obrazie. Te dane na Twoim komputerze zawierają aliasy. Bardzo ładne, zwięzłe i klarowne sformułowanie. 🙂
- @Michael: To, co mówisz o tym, jak piksele w pełnym kolorze są interpolowane z surowych wartości czujników, jest poprawne, ale nie ma wpływu na dyskusję o aliasowaniu.
Dodaj komentarz