Varför behövs fortfarande ett fysiskt utjämningsfilter på moderna DSLR?
On februari 15, 2021 by adminJag förstår syftet med anti-aliasing (AA) -filtret är att förhindra moire. När digitalkameror först dök upp var ett AA-filter nödvändigt för att skapa tillräckligt suddighet för att förhindra moiremönster. Vid den tiden var kraften hos kameraprocessorer mycket begränsad. Men varför är det fortfarande nödvändigt att placera ett AA-filter över sensorn i moderna DSLR-kameror? Kunde inte det här uppnås lika lätt med de algoritmer som tillämpas när utsignalen från sensorn demoseras? Det verkar som att den nuvarande processorkraften som finns tillgänglig i kameran skulle tillåta detta nu mycket mer än till och med för några år sedan. Canon ” s nuvarande Digic 5+-processor har över 100 gånger processorkraften för Digic III-processorn, vilket dvärgar kraften hos de tidigaste digitalkamerorna. Särskilt vid fotografering av RAW-filer, kunde inte AA-suddighet göras i efterbearbetningsfasen? Är detta den grundläggande förutsättningen för Nikon D800E, även om den använder ett andra filter för att motverka det första?
Kommentarer
- Det är det inte. Det finns redan DSLR med inget aliasfilter, inklusive Pentax K-5 II, Nikon D800E, plus spegelfria modeller som Olympus PEN E -PM2 och alla Fujis (X-E1, X-Pro1). Dessutom tillkännagav de till och med fasta objektivkameror utan AA-filter (X20 och X100S).
- Och alla dessa kameror visar ibland färgmoer.
- Faktiskt men så kommer andra kameror att göra. Jag misstänker att ett anti-alias-filter som undviker all moire skulle vara för starkt, så tillverkarna använder AA-filter med mindre styrka. Som ett exempel, i min K-5 IIs och K-5 II jämförelse , moire förekommer på båda kamerorna, bara mycket mer med K-5 IIs.
- IIRC den nya Nikon D7100 har inte heller ’ en.
- En d nu har Pentax K-3 inget filter men har ett läge för att vibrera sensorn mycket, mycket lätt under exponeringen för att simulera ett. Mycket intressant innovation inom detta område.
Svar
Aliasing är resultatet av upprepade mönster av ungefär samma frekvens stör varandra på ett oönskat sätt. När det gäller fotografering skapar de högre frekvenser av bilden som projiceras av linsen på sensorn och interferensmönster (moiré i det här fallet) med pixelnätet. Denna störning inträffar bara när dessa frekvenser är ungefär desamma, eller när sensorns samplingsfrekvens matchar bildens vågfrekvens. Det är Nyquist-gränsen. Observera … det är en analog fråga … moiré uppstår på grund av störningar som sker i realtid i den verkliga världen innan bilden faktiskt exponeras.
När bilden har exponerats ”inbakas” det interferensmönstret effektivt. Du kan använda programvara i viss utsträckning för att rengöra moirémönster i posten, men det är minimalt effektivt jämfört med ett fysiskt lågpassfilter (AA) framför sensorn. Förlusten i detalj på grund av moiré kan också vara större än den som går förlorad för ett AA-filter, eftersom moiré faktiskt är nonsensdata, där lätt suddiga detaljer fortfarande kan vara användbara.
Ett AA-filter är bara utformat för att suddas ut dessa frekvenser hos Nyquist så att de inte skapar några störningsmönster. Anledningen till att vi fortfarande behöver AA-filter är att bildsensorer och linser fortfarande kan lösa sig ner till samma frekvens. När sensorer förbättras till den punkt där samplingsfrekvensen för sensorn i sig är konstant högre än till och med de bästa linserna vid optimal bländare, skulle behovet av ett AA-filter minska. Själva linsen skulle effektivt hantera den suddighet som krävs för oss, och störningsmönster skulle aldrig dyka upp i första hand.
Kommentarer
- Här är del a kommentar publicerad till photo.stackexchange.com/questions/10755/… . Tror du fortfarande att det är korrekt? Om så är fallet, hur bakas mönstret tills RAW-data har avlägsnats? ” Ironiskt nog, åtminstone med RAW, verkar den teoretiska nyquistgränsen inte alltid vara en hård gräns, vilket troligen beror på de olika våglängderna för rött, grönt och blått ljus och fördelningen av RGB-pixlar i en sensor. – jrista ♦ 10 apr ’ 11 kl 18:50 ”
- Jag tror att jag pratade om resolution i allmänhet där, och inte direkt till aliasing i den inspelade digitala signalen. Nyquistgränsen är typ av en svår sak att spika ner i en bayer-sensor på grund av det ojämna mönstret i RGRG- och GBGB-rader. Den rumsliga upplösningen för grönt är högre än den rumsliga upplösningen för antingen rött eller blått, så nyquistgränsen i rött eller blått ljus är vid en lägre frekvens än nyquistgränsen i grönt ljus.Nyquistgränsen i en avbildad bild är ganska svår att ringa exakt, så det blir lite otydligt band snarare än en konkret matematisk gräns.
- … det mönstret blir en del av bilden. Även om du visste de exakta wavelet-egenskaperna hos den virtuella bilden och kunde producera en fyrare serie av då, måste du ändra bildens orientering i förhållande till det virtuella konceptet för sensorn för att eliminera moire ” perfekt ”. Det är mycket överdrivet intensivt, mycket matematiskt arbete … förutsatt att du visste den exakta typen av den ursprungliga virtuella bildsignalen och dess relation till sensorn. När aliasing är bakat i en RAW är det ganska gjort, det finns verkligen ingen ’ utan att ångra den utan att mjuka detaljerna.
- Jag vet allt om skillnaden i frekvens mellan röd / blå och grön. Som för alla nuvarande optiska AA-filter som bara filtreras på nyquist beror det verkligen på kameran. Inte alla AA-filter är utformade exakt samma, och även för samma märke har olika modeller och olika linjer ofta AA-filter som beter sig annorlunda. Jag vet att 1D- och 5D-linjerna historiskt har gjort det möjligt för SOMMA frekvenser strax över nyquist, men jag tycker att det handlar om att balansera med linsupplösning.
- På sensorer med mindre pixlar, som Canon 18mp APS- C, D800, D3200, pixlar blir riktigt små. Utanför ett litet segment om riktigt nya objektiv (som Canon ’ s Mark II L-seriegenerering, och då, bara de som släppts under de senaste två-tre åren) kan lösa tillräckligt detalj för att avsevärt lösa sensorn och orsaka aliasing vid frekvenser högre än nyquist. Filtrera runt nyquist, och linsen i sig kommer att suddiga detaljer utöver det. Jag tror att det är en del av anledningen till att 5D-linjen har haft ett alltför starkt AA-filter … linser löser det lättare.
Svar
Fysiken fungerar helt enkelt inte på det sättet. Aliasering omvändbart omvandlar frekvenser förbi Nyquist-gränsen för att visas som frekvenser under gränsen, även om de ”alias” är inte riktigt där. Ingen bearbetning av en aliasignal kan generellt återställa originalsignalen. De snygga matematiska förklaringarna är ganska långa att gå in på om du inte har haft en klass i samplingsteori och digital signalbehandling. Om du hade gjort det, skulle du inte ställa frågan. Tyvärr är det bästa svaret helt enkelt ”Det är inte hur fysiken fungerar. Tyvärr, men du måste lita på mig om detta. .
För att försöka ge en grov känsla av att ovanstående kan vara sant, överväga fallet med en bild av en tegelvägg. Utan ett AA-filter kommer det att finnas moiremönster (som egentligen är alias) som gör att tegellinjerna ser vågiga ut. Du har aldrig sett den riktiga byggnaden, bara bilden med de vågiga linjerna.
Hur vet du att de riktiga tegelstenarna inte låg i vågigt mönster? Du antar att de var inte från din allmänna kunskap om tegelstenar och mänsklig erfarenhet av att se tegelväggar. Men kunde någon bara för att göra en punkt medvetet göra tegelvägg så att den såg ut i verkligheten (sett med egna ögon) som bilden? Ja de kunde. Är det därför möjligt att matematiskt skilja en aliasbild av en normal tegelvägg och en trogen bild av en medvetet vågig tegelvägg? Nej det är det inte. I själva verket kan du inte riktigt se skillnaden, förutom att din uppfattning om vad en bild förmodligen representerar kan ge dig intrycket att du kan. Återigen, strängt taget kan du inte berätta om vågorna är artefakter av moiremönster eller är verkliga.
Programvara kan inte magiskt ta bort waviesna eftersom den inte vet vad som är riktigt och vad som inte är. Matematiskt kan det visas att det inte kan veta, åtminstone bara genom att titta på den vågiga bilden.
En tegelvägg kan vara ett uppenbart fall där du kan veta att den aliaserade bilden är fel, men där är många mer subtila fall där du verkligen inte vet, och kanske inte ens är medveten om att aliasing pågår.
Tillagd som svar på kommentarer:
Skillnaden mellan att aliasera en ljudsignal och en bild är bara att den förra är 1D och den senare 2D. Teorin och all matematik för att förverkliga effekter är fortfarande densamma, bara att den används i 2D när man hanterar bilder. Om proverna finns på ett vanligt rektangulärt rutnät, som om de är i en digitalkamera, kommer några andra intressanta problem upp. Exempelvis är samplingsfrekvensen sqrt (2) lägre (ungefär 1,4x lägre) längs de diagonala riktningarna som ansluts till de axelinriktade riktningarna. Samplingsteorin, Nyquist-hastigheten och vad alias egentligen är är dock inte annorlunda i en 2D-signal än i en 1D-signal.Huvudskillnaden verkar vara att detta kan vara svårare för dem som inte är vana att tänka i frekvensutrymmet att slå sig runt och projicera vad det hela betyder i termer av vad du ser på en bild.
Återigen, nej du kan ”t” demosaikera ”en signal efter det, åtminstone inte i det allmänna fallet där du inte vet vad originalet ska vara. Moiremönster orsakade av provtagning av en kontinuerlig bild är alias. Samma matematik gäller för dem precis som det gäller höga frekvenser som aliaserar i en ljudström och låter som bakgrundsvisslar. Det är samma saker, med samma teori för att förklara det, och samma lösning för att hantera det.
Den lösningen är att eliminera frekvenserna över Nyquist-gränsen före i ljud som kan göras med ett enkelt lågpassfilter som du eventuellt kan göra från ett motstånd och kondensator. Vid bildsampling behöver du fortfarande ett lågpassfilter, i det här fallet tar det lite av det ljus som skulle träffa bara en enda pixel och sprider den till närliggande pixlar. Visuellt ser det ut som en liten suddighet av bilden innan den samplas. Högfrekvent innehåll ser ut som fina detaljer eller skarpa kanter i en bild. Omvänt innehåller skarpa kanter och fina detaljer höga frekvenser. Det är exakt dessa höga frekvenser som konverteras till alias i den samplade bilden. Vissa alias är vad vi kallar moire-mönster när originalet hade något vanligt innehåll. Vissa alias ger ”trappsteg” -effekten till linjer eller kanter, särskilt när de är nästan vertikala eller horisontella. Det finns andra visuella effekter som orsakas av alias.
Bara för att den oberoende axeln i ljudsignaler är tid och de oberoende axlarna (två av dem eftersom signalen är 2D) för en bild är avstånd, ogiltigförklaras inte matematik eller på något sätt göra det annorlunda mellan ljudsignaler och bilder. Förmodligen för att teorin och tillämpningarna av aliasing och anti-aliasing utvecklades på 1D-signaler som var tidsbaserade spänningar, används termen ”tidsdomän” som kontrast till ”frekvensdomän ”. I en bild är icke-frekvensutrymmet tekniskt sett” avståndsdomänen ”, men för enkelhet i signalbehandling kallas det ändå ofta för” tidsdomänen ”. Låt det inte distrahera dig från vad aliasing egentligen är. Och nej, det är inte alls bevis för att teorin inte gäller för bilder, bara att ett missvisande ordval ibland används för att beskriva saker på grund av historiska skäl. Faktum är att genvägen ”tidsdomän” som tillämpas på bildens icke-frekvensdomän faktiskt är eftersom teorin är densamma mellan bilder och verkliga tidsbaserade signaler. Aliasing är aliasing oavsett vad den oberoende axeln (eller axlarna) råkar vara.
Om du inte är villig att fördjupa dig i detta på nivån för ett par högskolekurser om samplingsteori och signalbehandling, i slutändan du måste bara lita på dem som har. En del av det här är ointuitivt utan en betydande teoretisk bakgrund.
Kommentarer
- Alla min bakgrund inom sampling och digital signalbehandling har varit med avseende på digitalt ljud. Jag förstår hur ett lågpassfilter verkar för att begränsa ljud över en viss frekvens från att komma in i AD-omvandlingen. Om du ’ re sampling vid 44 100 hz applicerar du ett filter som börjar rulla av vid cirka 20 kHz och alla svar med 22 kHz är ganska borta. Men med digital avbildning är det inte ’ t så enkelt, för även med AA-filter kommer en del aliasing igenom. Jag ’ har läst någon annanstans att filtren inte t försök att blockera allt ovanför Nyquist eftersom det skulle minska upplösningen för mycket.
- Jag måste hålla med om att problemet med ett lågpassfilter i en kamera inte är samma problem som ett lågpassfilter i ljudbehandling hanterar. Jag antar att det bästa sättet att uttrycka det är att ett lågpassfilter för ljud fungerar direkt med en elektronisk signal, där som ett optiskt lågpassfilter fungerar på de rumsliga frekvenserna för en bildsignal som produceras av en lins. Den elektroniska signalen som du är van vid att arbeta med är av en annan karaktär än en bildsignal.
- @Michael: Se tillägg till mitt svar.
- ” Moiremönster orsakade av provtagning av en kontinuerlig bild är alias. ” – Olin. Jag tror att det är nyckelpunkten just där! När du faktiskt tar exponeringen spelar du inte in en ren version av den ursprungliga virtuella bilden … du spelar in alias för datapunkter i den ursprungliga virtuella bilden. Uppgifterna på din dator innehåller alias. Mycket trevligt, koncist och tydligt sätt att uttrycka det. 🙂
- @Michael: Det du säger om hur fullfärgspixlar interpoleras från råa sensorvärden är korrekt men har ingen betydelse för aliasdiskussionen.
Lämna ett svar