Hvorfor er der stadig brug for et fysisk anti-aliasing-filter på moderne DSLRer?
On februar 15, 2021 by adminJeg forstår formålet med anti-aliasing (AA) filteret er at forhindre moire. Da digitale kameraer først kom frem, var et AA-filter nødvendigt for at skabe nok sløring for at forhindre moiremønstre. På det tidspunkt var styrken i kameraprocessorer meget begrænset. Men hvorfor er det stadig nødvendigt at placere et AA-filter over sensoren i moderne DSLR-kameraer? Kunne ikke dette opnås lige så let ved hjælp af de anvendte algoritmer, når output fra sensoren nedbrydes? Det ser ud til, at den nuværende processorkraft, der er tilgængelig i kameraet, ville tillade dette nu meget mere end endda for et par år siden. Canon ” s nuværende Digic 5+ -processor har over 100 gange processorkraften for Digic III-processoren, hvilket dværger kraften fra de tidligste digitale kameraer. Især ved optagelse af RAW-filer, kunne AA-sløring ikke ske i efterbehandlingsfasen? Er dette den grundlæggende forudsætning for Nikon D800E, selvom den bruger et andet filter til at modvirke det første?
Kommentarer
- Det er det ikke. Der er allerede DSLRer, der ikke har noget anti-alias-filter, inklusive Pentax K-5 IIs, Nikon D800E plus spejlfri modeller som Olympus PEN E -PM2 og alle Fujis (X-E1, X-Pro1). Plus de annoncerede endda faste objektivkameraer uden AA-filter (X20 og X100S).
- Og alle disse kameraer viser til tider farven moire.
- Faktisk, men det vil andre kameraer også gøre. Jeg formoder, at et anti-alias-filter, der undgår al moire, ville være for stærkt, så producenter bruger AA-filtre med mindre styrke. Som et eksempel i min K-5 IIs og K-5 II sammenligning , moire forekommer på begge kameraer, kun meget mere med K-5 IIs.
- IIRC den nye Nikon D7100 har ‘ heller ikke en.
- En d nu har Pentax K-3 intet filter, men har en tilstand til at vibrere sensoren meget, meget let under eksponering for at simulere et. En masse interessant innovation på dette område.
Svar
Aliasing er resultatet af gentagne mønstre af omtrent samme frekvens forstyrrer hinanden på en uønsket måde. I tilfælde af fotografering skaber de højere frekvenser af billedet, der projiceres af linsen, på sensoren og interferensmønster (moiré i dette tilfælde) med pixelgitteret. Denne interferens opstår kun, når disse frekvenser er omtrent de samme, eller når sensorens samplingsfrekvens svarer til billedets bølgefrekvens. Det er Nyquist-grænsen. Bemærk … det er et analogt problem … moiré opstår på grund af interferens, der opstår i realtid i den virkelige verden, før billedet faktisk eksponeres.
Når billedet er eksponeret, “bliver dette interferensmønster” bagt ind “effektivt. Du kan bruge software til en vis grad til at rense moiré-mønstre opad, men det er minimalt effektivt sammenlignet med et fysisk lavpasfilter (AA) foran sensoren. Tabet i detaljer på grund af moiré kan også være større end det, der er tabt af et AA-filter, da moiré faktisk er nonsensdata, hvor let slørede detaljer stadig kan være nyttige.
Et AA-filter er bare designet til at sløre disse frekvenser hos Nyquist, så de ikke skaber interferensmønstre. Årsagen til, at vi stadig har brug for AA-filtre, er, at billedsensorer og linser stadig er i stand til at løse op til den samme frekvens. Når sensorer forbedres til det punkt, hvor samplingsfrekvensen for selve sensoren konstant er højere end selv de bedste linser ved deres optimale blænde, vil behovet for et AA-filter mindskes. Selve linsen ville effektivt håndtere den nødvendige sløring for os, og interferensmønstre ville aldrig dukke op i første omgang.
Kommentarer
- Her er del a kommentar sendt til photo.stackexchange.com/questions/10755/… . Tror du stadig på, at det er nøjagtigt? I bekræftende fald, hvordan bages mønsteret ind, indtil RAW-dataene er blevet demoseret? ” Ironisk nok synes den teoretiske nyquistgrænse i det mindste med RAW ikke altid at være en hård grænse, hvilket sandsynligvis skyldes de forskellige bølgelængder af rødt, grønt og blåt lys og fordelingen af RGB-pixels i en sensor. – jrista ♦ 10. apr. ‘ 11 kl. 18:50 ”
- Jeg tror, jeg talte om opløsning generelt der, og ikke direkte til aliasing i det optagede digitale signal. Nyquist-grænsen er lidt af en hård ting at negle ned i en bayer-sensor på grund af det ujævne mønster af RGRG- og GBGB-rækker. Den rumlige opløsning af grønt er højere end den rumlige opløsning af enten rødt eller blåt, så nyquistgrænsen i rødt eller blåt lys er ved en lavere frekvens end nyquistgrænsen i grønt lys.Nyquist-grænsen i et demosaiceret billede er lidt svært at kalde nøjagtigt, så det bliver lidt af et fuzzy band snarere end en konkret matematisk grænse.
- … dette mønster bliver en del af billedet. Selvom du kendte de nøjagtige wavelet-egenskaber ved det virtuelle billede og kunne producere en fourier-serie af det, ville du være nødt til at ændre billedets retning i forhold til det virtuelle koncept for sensoren for at eliminere moire ” perfekt “. Det er meget overdrevent intenst, stærkt matematisk arbejde … forudsat at du kendte den NÆRME karakter af det originale virtuelle billedsignal og dets forhold til sensoren. Når aliasing er bagt i en RAW, er det stort set gjort, der er virkelig ikke ‘ ingen fortrydelse uden blødgøring af detaljer.
- Jeg ved alt om forskellen i frekvens mellem rød / blå og grøn. Som for alle aktuelle optiske AA-filtre, der kun filtrerer hos nyquist, afhænger det virkelig af kameraet. Ikke alle AA-filtre er designet nøjagtigt ens, og selv for det samme mærke har forskellige modeller og forskellige linjer ofte AA-filtre, der opfører sig anderledes. Jeg ved, at 1D og 5D-linjerne historisk har tilladt SOMME frekvenser lige over nyquist igennem, men jeg synes, det er et spørgsmål om at afbalancere med linseopløsning.
- På sensorer med mindre pixels, såsom Canon 18mp APS- C, D800, D3200, pixels bliver rigtig små. Uden for et lille segment, hvis virkelig nye linser (som Canon ‘ s Mark II L-serie generation, og så kun de, der er frigivet inden for de sidste 2-3 år) kan løse nok detaljer for at afgøre sensoren markant og forårsage aliasing ved frekvenser højere end nyquist. Filtrer omkring nyquist, og selve linsen vil sløre detaljer ud over det. Jeg tror, det er en del af grunden til, at 5D-linjen har haft et alt for stærkt AA-filter … linser løser det lettere.
Svar
Fysikken fungerer simpelthen ikke på den måde. Aliasering omvendt transformerer frekvenser forbi Nyquist-grænsen til at fremstå som frekvenser under grænsen, skønt de “aliaser” er der ikke rigtig. Intet omfang af behandling af et aliaseret signal kan generelt generere det originale signal. De smarte matematiske forklaringer er ret lange at komme ind i, medmindre du har haft en klasse i samplingsteori og digital signalbehandling. Hvis du dog havde det, ville du ikke stille spørgsmålet. Desværre er det bedste svar simpelthen “Sådan” fungerer ikke fysikken. Undskyld, men du bliver nødt til at stole på mig om dette. .
For at prøve at give en grov fornemmelse af, at ovenstående måske er sandt, skal du overveje tilfældet med et billede af en murstens væg. Uden et AA-filter vil der være moire-mønstre (som faktisk er aliaserne), der får murstenene til at se bølgede ud. Du har aldrig set den rigtige bygning, kun billedet med de bølgede linjer.
Hvordan ved du, at de rigtige mursten ikke var lagt i et bølget mønster? Du antager, at de var ikke fra din generelle viden om mursten og menneskelig oplevelse af at se murvægge. Dog kunne nogen bare for at gøre et punkt bevidst lave mur, så det lignede billedet i det virkelige liv (set med dine egne øjne)? Ja det kunne de. Er det derfor muligt matematisk at skelne mellem et aliaset billede af en normal mur og et trofast billede af en bevidst bølget mur? Nej det er ikke. Faktisk kan du heller ikke virkelig se forskellen, bortset fra at din intention om, hvad et billede sandsynligvis repræsenterer, kan give dig det indtryk, du kan. Igen kan du strengt taget ikke fortælle, om bølgerne er moire-mønstergenstande eller er ægte.
Software kan ikke magisk fjerne wavies, fordi den ikke ved, hvad der er reelt, og hvad der ikke er. Matematisk kan det vises, at det ikke kan vide, i det mindste kun ved at se på det bølgede billede.
En mur kan være et indlysende tilfælde, hvor du kan vide, at det aliaserede billede er forkert, men der er mange mere subtile tilfælde, hvor du virkelig ikke ved det og måske ikke engang er opmærksom på, at aliasing foregår.
Tilføjet som svar på kommentarer:
Forskellen mellem aliasing af et lydsignal og et billede er kun, at førstnævnte er 1D og sidstnævnte 2D. Teorien og enhver matematik for at realisere effekter er stadig den samme, bare at den anvendes i 2D, når man beskæftiger sig med billeder. Hvis prøverne er på et regelmæssigt rektangulært gitter, som om de er i et digitalt kamera, så dukker nogle andre interessante problemer op. Eksempelvis er prøvefrekvensen sqrt (2) lavere (ca. 1,4 x lavere) langs de diagonale retninger som angivet til de akselinjerede retninger. Samplingsteori, Nyquist-hastighed og hvad aliaser egentlig er, er imidlertid ikke anderledes i et 2D-signal end i et 1D-signal.Hovedforskellen ser ud til at være, at det kan være sværere for dem, der ikke er vant til at tænke i frekvensområdet, at pakke deres sind rundt og projicere, hvad det hele betyder med hensyn til, hvad du ser på et billede.
Igen, nej du kan “t” demosaikere “et signal efter det faktiske, i det mindste ikke i det generelle tilfælde, hvor du ikke ved hvad originalen skal være. Moire-mønstre forårsaget af prøveudtagning af et kontinuerligt billede er aliaser. Den samme matematik gælder for dem, ligesom det gælder for høje frekvenser, der kaldes en lydstrøm og lyder som baggrundsfløjter. Det er de samme ting, med den samme teori for at forklare det, og den samme løsning til at håndtere det.
Denne løsning er at eliminere frekvenserne over Nyquist-grænsen før sampling. I lyd, der kan laves med et simpelt lavpasfilter, som du muligvis kan lave fra en modstand og kondensator. I billedsampling har du stadig brug for et lavpasfilter, i dette tilfælde tager det noget af det lys, der ville ramme kun en enkelt pixel og sprede den ud til nabopixel. Visuelt ser det ud som en let sløring af billedet før det samples. Højfrekvent indhold ligner fine detaljer eller skarpe kanter i et billede. Omvendt indeholder skarpe kanter og fine detaljer høje frekvenser. Det er netop disse høje frekvenser, der konverteres til aliaser i det samplede billede. Nogle aliasser er, hvad vi kalder moire-mønstre, når originalen havde noget regelmæssigt indhold. Nogle aliaser giver “trappetrin” -effekten til linjer eller kanter, især når de er næsten lodrette eller vandrette. Der er andre visuelle effekter forårsaget af aliasser.
Bare fordi den uafhængige akse i lydsignaler er tid, og de uafhængige akser (to af dem, da signalet er 2D) på et billede, er afstand, annullerer ikke matematik eller på en eller anden måde gør det forskelligt mellem lydsignaler og billeder. Sandsynligvis fordi teorien og anvendelserne af aliasing og anti-aliasing blev udviklet på 1D-signaler, der var tidsbaserede spændinger, bruges udtrykket “tidsdomæne” til kontrast til “frekvensdomæne “. I et billede er ikke-frekvensrumsrepræsentationen teknisk set” afstandsdomænet “, men for enkelhed i signalbehandling kaldes det alligevel ofte” tidsdomænet “. Lad det ikke distrahere dig fra, hvad aliasing egentlig er er. Og nej, det er slet ikke bevis for, at teorien ikke finder anvendelse på billeder, kun at et vildledende ordvalg undertiden bruges til at beskrive ting på grund af historiske årsager. Faktisk er genvejen “tidsdomæne”, der anvendes på billedets ikke-frekvensdomæne, faktisk fordi teorien er den samme mellem billeder og ægte tidsbaserede signaler. Aliasing er aliasing uanset hvad den uafhængige akse (eller akser) tilfældigvis er.
Medmindre du er villig til at dykke ned i dette på niveau med et par college-kurser om samplingsteori og signalbehandling, i sidste ende du bliver bare nødt til at stole på dem, der har. Nogle af disse ting er uintuitive uden en væsentlig teoretisk baggrund.
Kommentarer
- Alle min baggrund inden for sampling og digital signalbehandling har været med hensyn til digital lyd. Jeg forstår, hvordan et lavpasfilter fungerer for at begrænse lyde over en bestemt frekvens fra at komme ind i AD-konverteringen. Hvis du ‘ re sampling ved 44.100Hz, anvender du et filter, der begynder at rulle omkring 20Khz, og ethvert svar med 22Khz er stort set væk. Men med digital billedbehandling er det ikke ‘ t så simpelt, fordi selv med AA-filtre kommer en aliasing igennem. Jeg ‘ har læst andre steder, at filtre ikke Forsøg ikke at blokere alt over Nyquist, fordi det vil reducere opløsningen for meget.
- Jeg bliver enig i, at problemet med et lavpasfilter i et kamera ikke er det samme som problemet, som et lavpasfilter i lydbehandling behandler. Jeg antager, at den bedste måde at udtrykke det på er, at et lyd lavpasfilter fungerer direkte med et elektronisk signal, hvor som et optisk lavpasfilter fungerer på de rumlige frekvenser af et billedsignal produceret af en linse. Det elektroniske signal, du er vant til at arbejde med, er af en anden karakter end et billedsignal.
- @Michael: Se tilføjelse til mit svar.
- ” Moire-mønstre forårsaget af prøveudtagning af et kontinuerligt billede er aliasser. ” – Olin. Jeg tror, det er nøglepunktet lige der! Når du faktisk tager eksponeringen, optager du ikke en ren version af det originale virtuelle billede … du optager aliaser for datapunkter inden for det originale virtuelle billede. Disse data på din computer indeholder aliasser. Meget flot, kortfattet og klar måde at udtrykke det på. 🙂
- @Michael: Det, du siger om, hvordan pixel i fuld farve interpoleres fra rå sensorværdier, er korrekt, men har ingen indflydelse på diskussionen om aliasing.
Skriv et svar