Hvorfor er det fortsatt behov for et fysisk anti-aliasing-filter på moderne DSLR-er?
On februar 15, 2021 by adminJeg forstår hensikten med anti-aliasing (AA) filteret er å forhindre moire. Da digitale kameraer først dukket opp, var det nødvendig med et AA-filter for å skape uskarphet nok til å forhindre moiremønstre. På den tiden var kraften til kamera-prosessorer veldig begrenset. Men hvorfor er det fortsatt nødvendig å plassere et AA-filter over sensoren i moderne DSLR-kameraer? Kunne ikke dette kan oppnås like enkelt med algoritmene som brukes når utgangen fra sensoren blir demosaisert? Det ser ut til at den nåværende prosessorkraften som er tilgjengelig i kameraet, ville tillate dette nå for mye mer enn til og med for noen få år siden. Den nåværende Digic 5+ prosessoren har over 100 ganger prosessorkraften til Digic III-prosessoren, som dverger kraften til de tidligste digitale kameraene. Spesielt når du tar RAW-filer, kunne ikke AA-uskarphet gjøres i etterbehandlingsfasen? Er dette den grunnleggende forutsetningen for Nikon D800E, selv om den bruker et andre filter for å motvirke det første?
Kommentarer
- Det er det ikke. Det er allerede speilreflekskameraer uten anti-alias-filter, inkludert Pentax K-5 II, Nikon D800E, pluss speilløse modeller som Olympus PEN E -PM2 og alle Fujis (X-E1, X-Pro1). I tillegg annonserte de til og med faste objektivkameraer uten AA-filter (X20 og X100S).
- Og alle disse kameraene viser fargemir til tider.
- Faktisk, men det vil også andre kameraer. Jeg mistenker at et anti-alias-filter som unngår all moire, ville være for sterkt, så produsenter bruker AA-filtre med mindre styrke. Som et eksempel, i min K-5 IIs og K-5 II sammenligning , moire forekommer på begge kameraene, bare mye mer med K-5 IIs.
- IIRC den nye Nikon D7100 har ‘ heller ikke en.
- En d nå har Pentax K-3 ikke noe filter, men har en modus for å vibrere sensoren veldig, veldig lett under eksponering for å simulere en. Mye interessant innovasjon på dette området.
Svar
Aliasing er resultatet av gjentatte mønstre på omtrent samme frekvens som forstyrrer hverandre på en uønsket måte. Når det gjelder fotografering, skaper de høyere frekvensene av bildet som projiseres av linsen på sensoren og interferensmønster (moiré i dette tilfellet) med pikselrutenettet. Denne interferensen oppstår bare når disse frekvensene er omtrent de samme, eller når samplingsfrekvensen til sensoren samsvarer med bildets bølgefrekvens. Det er Nyquist-grensen. Merk … det er et analogt problem … moiré oppstår på grunn av forstyrrelser som oppstår i sanntid i den virkelige verden før bildet faktisk blir eksponert.
Når bildet er eksponert, blir dette interferensmønsteret effektivt «bakt inn». Du kan bruke programvare til en viss grad for å rense moiré-mønstre i posten, men det er minimalt effektivt sammenlignet med et fysisk lavpassfilter (AA) foran sensoren. Tapet i detalj på grunn av moiré kan også være større enn det som er tapt for et AA-filter, da moiré faktisk er tulldata, der litt uskarpe detaljer fremdeles kan være nyttige.
Et AA-filter er bare designet for å gjøre disse frekvensene uskarpe på Nyquist, slik at de ikke lager noen interferensmønstre. Grunnen til at vi fortsatt trenger AA-filtre er at bildesensorer og linser fremdeles er i stand til å løse seg opp til samme frekvens. Når sensorer forbedres til det punktet hvor samplingsfrekvensen til selve sensoren konstant er høyere enn til og med de beste linsene i optimal blenderåpning, vil behovet for et AA-filter avta. Selve linsen ville effektivt håndtere den nødvendige uskarpheten for oss, og interferensmønstre ville aldri dukke opp i utgangspunktet.
Kommentarer
- Her er del a kommentar lagt ut til photo.stackexchange.com/questions/10755/… . Tror du fortsatt at det er nøyaktig? I så fall, hvordan blir mønsteret bakt inn til RAW-dataene er blitt demosaisert? » Ironisk nok, i det minste med RAW, ser ikke den teoretiske nyquistgrensen alltid ut til å være en hard grense, noe som sannsynligvis skyldes forskjellige bølgelengder av rødt, grønt og blått lys og fordelingen av RGB-piksler i en sensor. – jrista ♦ 10. apr ‘ 11 kl 18:50 »
- Jeg tror jeg snakket om oppløsning generelt der, og ikke direkte til aliasing i det innspilte digitale signalet. Nyquist-grensen er litt vanskelig å spikre i en bayer-sensor på grunn av det ujevne mønsteret i RGRG- og GBGB-rader. Den romlige oppløsningen av grønt er høyere enn den romlige oppløsningen til enten rødt eller blått, så nyquistgrensen i rødt eller blått lys er med en lavere frekvens enn nyquistgrensen i grønt lys.Nyquistgrensen i et demosaisert bilde er litt vanskelig å ringe nøyaktig, så det blir litt fuzzy band, snarere enn en konkret matematisk grense.
- … det mønsteret blir en del av bildet. Selv om du visste de eksakte wavelet-egenskapene til det virtuelle bildet, og kunne produsere en fourier-serie av det, måtte du endre orienteringen av bildet i forhold til det virtuelle konseptet til sensoren for å eliminere moire » perfekt «. Det er mye altfor intenst, veldig matematisk arbeid … forutsatt at du visste den NØYAKTIGE arten av det originale virtuelle bildesignalet og dets forhold til sensoren. Når aliasing er bakt inn i en RAW, er det ganske mye gjort, det er virkelig ikke ‘ t å angre det uten å myke opp detaljene.
- Jeg vet alt om forskjellen i frekvens mellom rød / blå og grønn. Som for alle nåværende optiske AA-filtre som bare filtreres hos nyquist, avhenger det virkelig av kameraet. Ikke alle AA-filtre er designet nøyaktig likt, og selv for samme merke har forskjellige modeller og forskjellige linjer ofte AA-filtre som oppfører seg annerledes. Jeg vet at historisk har 1D- og 5D-linjene tillatt NOEN frekvenser rett over nyquist, men jeg tror det handler om å balansere med objektivoppløsningen.
- På sensorer med mindre piksler, for eksempel Canon 18mp APS- C, D800, D3200, piksler blir veldig, veldig små. Utenfor et lite segment hvis virkelig nye objektiver (som Canon ‘ s Mark II L-seriegenerasjon, og da, bare de som er utgitt i løpet av de siste to-tre årene) kan løse nok detalj for å oppløse sensoren betydelig og forårsake aliasing ved frekvenser høyere enn nyquist. Filtrer rundt nyquist, og selve linsen vil uskarpe detaljer utover det. Jeg tror det er en del av grunnen til at 5D-linjen har hatt et altfor sterkt AA-filter … linser løser det lettere.
Svar
Fysikken fungerer rett og slett ikke slik. Aliasering omvendt forvandler frekvenser forbi Nyquist-grensen til å fremstå som frekvenser under grensen, selv om de «aliaser» er ikke der. Ingen prosessering av et aliasert signal kan generelt gjenopprette det originale signalet. De fancy matematiske forklaringene er ganske lange å komme inn på, med mindre du har hatt en klasse i prøvetakingsteori og digital signalbehandling. Hvis du hadde gjort det, ville du ikke stilt spørsmålet. Dessverre er det beste svaret ganske enkelt «Det er ikke slik fysikken fungerer. Beklager, men du må stole på meg på dette. .
For å prøve å gi en grov følelse av at det ovennevnte kan være sant, bør du vurdere et bilde av en murvegg. Uten et AA-filter vil det være moire-mønstre (som egentlig er aliasene) som får mursteinene til å se bølgete ut. Du har aldri sett den virkelige bygningen, bare bildet med de bølgede linjene.
Hvordan vet du at de virkelige mursteinene ikke var lagt i et bølget mønster? Du antar de var ikke fra din generelle kunnskap om murstein og menneskelig erfaring med å se murvegger. Imidlertid kan noen bare for å gjøre et poeng bevisst lage murvegg slik at det så ut i det virkelige liv (sett med egne øyne) som bildet? Ja de kunne. Er det derfor mulig å skille et aliasbilde av en vanlig murvegg matematisk og et trofast bilde av en bevisst bølget murvegg? Nei det er ikke. Faktisk kan du ikke virkelig se forskjellen heller, bortsett fra at intensjonen din om hva et bilde sannsynligvis representerer, kan gi deg inntrykk av at du kan. Igjen, strengt tatt kan du ikke fortelle om bølgene er moire-mønstergjenstander eller er ekte.
Programvare kan ikke magisk fjerne wavies fordi den ikke vet hva som er ekte og hva som ikke er. Matematisk kan det vises at den ikke kan vite, i det minste bare ved å se på det bølgede bildet.
En murvegg kan være et åpenbart tilfelle der du kan vite at det aliaserte bildet er feil, men der er mange mer subtile tilfeller der du ikke vet det, og kanskje ikke engang er klar over at aliasing pågår.
Lagt til som svar på kommentarer:
Forskjellen mellom å kalle et lydsignal og et bilde er bare at førstnevnte er 1D og sistnevnte 2D. Teorien og hvilken som helst matematikk for å realisere effekter er fortsatt den samme, bare at den brukes i 2D når du arbeider med bilder. Hvis prøvene er på et vanlig rektangulært rutenett, som om de er i et digitalt kamera, kommer noen andre interessante problemer opp. Eksempelvis er prøvefrekvensen sqrt (2) lavere (ca. 1,4x lavere) langs de diagonale retningene som angitt til de aksejusterte retningene. Samplingsteori, Nyquist-hastighet og hva aliasene egentlig er, er imidlertid ikke annerledes i et 2D-signal enn i et 1D-signal.Hovedforskjellen ser ut til å være at dette kan være vanskeligere for de som ikke er vant til å tenke i frekvensområdet å pakke sinnet rundt og projisere hva det hele betyr når det gjelder det du ser på et bilde.
Igjen, nei du kan «t» demosere «et signal etter det faktum, i det minste ikke i det generelle tilfellet hvor du ikke vet hva originalen skal være. Moire-mønstre forårsaket av prøvetaking av et kontinuerlig er alias. Den samme matematikken gjelder for dem akkurat som den gjelder for høye frekvenser som aliaserer i en lydstrøm og høres ut som bakgrunnsfløyter. Det er de samme tingene, med samme teori for å forklare det, og den samme løsningen for å håndtere det.
Denne løsningen er å eliminere frekvensene over Nyquist-grensen før sampling. I lyd som kan gjøres med et enkelt lavpassfilter du muligens kan lage fra en motstand og kondensator. I bildesampling trenger du fortsatt et lavpassfilter, i dette tilfellet tar det noe av lyset som ville slå bare en enkelt piksel og spre den ut til nabopiksler. Visuelt ser dette ut som en liten uskarphet av bildet før det samples. Høyfrekvent innhold ser ut som fine detaljer eller skarpe kanter i et bilde. Omvendt inneholder skarpe kanter og fine detaljer høye frekvenser. Det er akkurat disse høye frekvensene som blir konvertert til aliaser i det samplede bildet. Noen aliaser er det vi kaller moire-mønstre når originalen hadde noe vanlig innhold. Noen aliaser gir «trappetrinn» -effekten til linjer eller kanter, spesielt når de er nesten vertikale eller horisontale. Det er andre visuelle effekter forårsaket av aliaser.
Bare fordi den uavhengige aksen i lydsignalene er tid og de uavhengige aksene (to av dem siden signalet er 2D) til et bilde, er avstand, ugyldiggjør ikke matematikk eller på en eller annen måte gjøre det forskjellig mellom lydsignaler og bilder. Sannsynligvis fordi teorien og anvendelsene av aliasing og anti-aliasing ble utviklet på 1D-signaler som var tidsbaserte spenninger, brukes begrepet «tidsdomene» i kontrast til «frekvensdomene «. I et bilde er ikke-frekvensplassrepresentasjonen teknisk» avstandsdomenet «, men for enkelhet i signalbehandling blir det likevel referert til som» tidsdomene «. Ikke la det distrahere deg fra det aliasing egentlig er. Og nei, det er ikke bevis i det hele tatt at teorien ikke gjelder bilder, bare at et misvisende ordvalg noen ganger brukes til å beskrive ting på grunn av historiske årsaker. Faktisk er snarveien «tidsdomene» som brukes på ikke-frekvensdomenet til bilder faktisk fordi teorien er den samme mellom bilder og sanne tidsbaserte signaler. Aliasing er aliasing uansett hva den uavhengige aksen (eller aksene) skjer.
Med mindre du er villig til å fordype deg i dette på nivå med et par høyskolekurs om prøvetakingsteori og signalbehandling, til slutt du må bare stole på de som har. Noen av disse tingene er uintuitive uten vesentlig teoretisk bakgrunn.
Kommentarer
- Alle min bakgrunn innen sampling og digital signalbehandling har vært med hensyn til digital lyd. Jeg forstår hvordan et lavpasfilter virker for å begrense lyder over en viss frekvens fra å komme inn i AD-konverteringen. Hvis du ‘ re sampling på 44,100Hz bruker du et filter som begynner å rulle rundt 20Khz, og ethvert svar på 22Khz er ganske mye borte. Men med digital bildebehandling er det ikke ‘ t så enkelt, fordi selv med AA-filtre kommer noen aliasing igjennom. Jeg ‘ har lest andre steder at filtrene ikke Ikke prøv å blokkere alt over Nyquist fordi det ville redusere oppløsningen for mye.
- Jeg må være enig i at problemet et lavpassfilter i et kamera takler ikke er det samme som problemet et lavpasfilter i lydbehandling behandler. Jeg antar at den beste måten å si det på er at et lavpassfilter for lyd fungerer direkte med et elektronisk signal, der et optisk lavpassfilter fungerer på de romlige frekvensene til et bildesignal produsert av en linse. Det elektroniske signalet du er vant til å jobbe med er av en annen karakter enn et bildesignal.
- @Michael: Se tillegg til svaret mitt.
- » Moire-mønstre forårsaket av prøvetaking av et kontinuerlig bilde er aliaser. » – Olin. Jeg tror det er nøkkelpunktet akkurat der! Når du faktisk tar eksponeringen, tar du ikke opp en ren versjon av det originale virtuelle bildet … du tar opp aliaser for datapunkter i det originale virtuelle bildet. Dataene på datamaskinen din inneholder aliaser. Veldig fin, kortfattet og tydelig måte å si det på. 🙂
- @Michael: Det du sier om hvordan fargepiksler er interpolert fra rå sensorverdier, er riktig, men har ingen betydning for aliasdiskusjonen.
Legg igjen en kommentar