Perché è ancora necessario un filtro anti-alias fisico sulle moderne DSLR?
Su Febbraio 15, 2021 da adminCapisco che lo scopo del filtro anti-aliasing (AA) sia prevenire leffetto moiré. Quando le fotocamere digitali sono emerse per la prima volta, era necessario un filtro AA per creare una sfocatura sufficiente per evitare leffetto moiré. A quel tempo la potenza dei processori interni alle fotocamere era molto limitata. Ma perché nelle moderne fotocamere DSLR è ancora necessario inserire un filtro AA sul sensore? Impossibile “t questo essere realizzato altrettanto facilmente dagli algoritmi applicati durante la demosaicizzazione delloutput del sensore? Sembrerebbe che lattuale potenza di elaborazione disponibile nella fotocamera lo consentirebbe ora molto più di qualche anno fa. Canon ” Lattuale processore Digic 5+ ha oltre 100 volte la potenza di elaborazione del processore Digic III, che sminuisce la potenza delle prime fotocamere digitali. Soprattutto quando si riprendono file RAW, non è possibile eseguire la sfocatura AA in fase di post-elaborazione? È questa la premessa di base della Nikon D800E, anche se utilizza un secondo filtro per contrastare il primo?
Commenti
- Non lo è. Ci sono già reflex digitali prive di filtro anti-alias, comprese le Pentax K-5 II, la Nikon D800E, oltre a modelli mirrorless come la Olympus PEN E -PM2 e tutte le Fujis (X-E1, X-Pro1). Inoltre hanno anche annunciato fotocamere con obiettivo fisso senza filtro AA (X20 e X100S).
- E tutte quelle fotocamere mostrano leffetto moiré dei colori a volte.
- In effetti, ma lo saranno anche altre fotocamere. Sospetto che un filtro anti-alias che eviti leffetto moiré sarebbe troppo forte, quindi i produttori utilizzano filtri AA di minore potenza. Ad esempio, nel mio Confronto tra K-5 II e K-5 II , leffetto moiré si verifica su entrambe le fotocamere, solo molto di più con la K-5 II.
- IIRC la nuova Nikon D7100 ne ‘ neppure uno.
- Un d ora, la Pentax K-3 non ha filtri ma ha una modalità per far vibrare il sensore molto, molto leggermente durante lesposizione per simularne uno. Molte novità interessanti in questarea.
Risposta
Laliasing è il risultato della ripetizione di schemi di approssimativamente stessa frequenza interferendo tra loro in modo indesiderato. Nel caso della fotografia, le frequenze più alte dellimmagine proiettata dallobiettivo sul sensore creano un pattern di interferenza (moiré in questo caso) con la griglia di pixel. Questa interferenza si verifica solo quando tali frequenze sono più o meno le stesse o quando la frequenza di campionamento del sensore corrisponde alla frequenza wavelet dellimmagine. Questo è il limite di Nyquist. Nota … questo è un problema analogico … il moiré si verifica a causa di uninterferenza che si verifica in tempo reale nel mondo reale prima che limmagine sia effettivamente esposta.
Una volta che limmagine è stata esposta, lo schema di interferenza viene effettivamente “incorporato”. È possibile utilizzare il software in una certa misura per pulire i modelli moiré in post, ma è minimamente efficace se paragonato a un filtro passa basso (AA) fisico davanti al sensore. La perdita di dettagli dovuta al moiré può anche essere maggiore di quella persa a un filtro AA, poiché il moiré è effettivamente un dato senza senso, in cui i dettagli leggermente sfocati potrebbero ancora essere utili.
Un filtro AA è progettato solo per sfocare quelle frequenze a Nyquist in modo che non creino schemi di interferenza. Il motivo per cui abbiamo ancora bisogno di filtri AA è perché i sensori di immagine e gli obiettivi sono ancora in grado di risolvere fino alla stessa frequenza. Quando i sensori migliorano al punto in cui la frequenza di campionamento del sensore stesso è costantemente superiore anche ai migliori obiettivi alla loro apertura ottimale, la necessità di un filtro AA diminuirà. Lobiettivo stesso gestirebbe efficacemente la sfocatura necessaria per noi e gli schemi di interferenza non emergerebbero mai.
Commenti
- Ecco la parte a commento pubblicato su photo.stackexchange.com/questions/10755/… . Credi ancora che sia accurato? In tal caso, come viene inserito il pattern finché i dati RAW non sono stati demosaicizzati? ” Ironia della sorte, almeno con RAW, il limite teorico di Nyquist non sembra sempre essere un limite rigido, probabilmente a causa delle diverse lunghezze donda della luce rossa, verde e blu e la distribuzione dei pixel RGB in un sensore. – jrista ♦ 10 aprile ‘ 11 alle 18:50 ”
- Credo di aver parlato di risoluzione in generale lì, e non direttamente allaliasing nel segnale digitale registrato. Il limite di Nyquist è un po difficile da inchiodare in un sensore bayer a causa del modello irregolare delle righe RGRG e GBGB. La risoluzione spaziale del verde è superiore alla risoluzione spaziale del rosso o del blu, quindi il limite nyquist nella luce rossa o blu è a una frequenza inferiore rispetto al limite nyquist nella luce verde.Il limite di Nyquist in unimmagine demosaicizzata è piuttosto difficile da chiamare esattamente, quindi diventa un po una banda sfocata, piuttosto che un limite matematico concreto.
- … quel modello diventa parte dellimmagine. Anche se conoscessi le caratteristiche wavelet esatte dellimmagine virtuale e potessi produrre una serie di Fourier di allora, dovresti cambiare lorientamento dellimmagine rispetto al concetto virtuale del sensore per eliminare leffetto moiré ” perfettamente “. Questo è un lavoro eccessivamente intenso e altamente matematico … supponendo che tu conoscessi la natura ESATTA del segnale dellimmagine virtuale originale e la sua relazione con il sensore. Una volta che laliasing è stato trasformato in RAW, è praticamente finito, ‘ non può essere annullato senza ammorbidire i dettagli.
- So tutto della differenza in frequenza tra rosso / blu e verde. Come per tutti gli attuali filtri AA ottici che filtrano solo su nyquist, dipende davvero dalla fotocamera. Non tutti i filtri AA sono progettati esattamente allo stesso modo e, anche per la stessa marca, modelli diversi e linee diverse hanno spesso filtri AA che si comportano in modo diverso. So che storicamente le linee 1D e 5D hanno consentito il passaggio di ALCUNE frequenze appena sopra Nyquist, tuttavia penso che sia una questione di bilanciamento con la risoluzione dellobiettivo.
- Sui sensori con pixel più piccoli, come il Canon 18mp APS- C, la D800, la D3200, i pixel stanno diventando davvero, davvero piccoli. Al di fuori di un piccolo segmento se gli obiettivi veramente nuovi (come la generazione della serie L Mark II di Canon ‘ e quindi, solo quelli rilasciati negli ultimi due o tre anni) possono risolvere abbastanza dettaglio per superare in modo significativo il sensore e causare laliasing a frequenze superiori a nyquist. Filtra intorno a Nyquist e lobiettivo stesso sfocerà i dettagli oltre. Penso che sia uno dei motivi per cui la linea 5D ha avuto un filtro AA troppo potente … gli obiettivi lo superano più facilmente.
Risposta
La fisica semplicemente non funziona in questo modo. Laliasing irreversibilmente trasforma le frequenze oltre il limite di Nyquist in modo che appaiano come frequenze al di sotto del limite, sebbene quelle Gli “alias” non sono realmente presenti. Nessuna quantità di elaborazione di un segnale con alias può recuperare il segnale originale nel caso generale. Le fantasiose spiegazioni matematiche sono piuttosto lunghe per entrare a meno che tu non abbia un corso di teoria del campionamento e elaborazione del segnale digitale. Se lo avessi fatto, però, non staresti facendo la domanda. Sfortunatamente, la risposta migliore è semplicemente “Non è così che funziona la fisica. Spiacenti, ma su questo dovrai fidarti di me. .
Per provare a dare unidea approssimativa che quanto sopra potrebbe essere vero, considera il caso di unimmagine di un muro di mattoni. Senza un filtro AA, ci saranno modelli moiré (che in realtà sono gli alias) che faranno sembrare ondulate le linee dei mattoni. Non hai mai visto ledificio reale, solo limmagine con le linee ondulate.
Come fai a sapere che i mattoni veri non sono stati disposti in uno schema ondulato? Presumi che non provenivano dalla tua conoscenza generale dei mattoni e dallesperienza umana nel vedere i muri di mattoni. Tuttavia, qualcuno potrebbe solo fare un punto deliberatamente fare un muro di mattoni in modo che sembrasse nella vita reale (se visto con i tuoi occhi) come limmagine? Sì, potrebbero. Pertanto, è possibile distinguere matematicamente unimmagine alias di un normale muro di mattoni e unimmagine fedele di un muro di mattoni deliberatamente ondulato? No non lo è. In effetti non puoi nemmeno dire la differenza, tranne per il fatto che la tua intuizione su ciò che unimmagine probabilmente rappresenta può darti limpressione di poterlo fare. Di nuovo, a rigor di termini non puoi dire se le onde sono artefatti moiré o sono reali.
Il software non può rimuovere magicamente le ondulazioni perché non sa cosa è reale e cosa non lo è. Matematicamente si può dimostrare che non può “sapere, almeno guardando solo limmagine ondulata.
Un muro di mattoni può essere un caso ovvio in cui puoi sapere che limmagine con alias è sbagliata, ma lì ci sono molti casi più sottili in cui davvero non lo sai e potresti non essere nemmeno a conoscenza del fatto che è in corso laliasing.
Aggiunto in risposta ai commenti:
La differenza tra laliasing di un segnale audio e unimmagine è solo che il primo è 1D e il secondo 2D. La teoria e qualsiasi matematica per realizzare gli effetti è sempre la stessa, solo che viene applicata in 2D quando si tratta di immagini. Se i campioni si trovano su una griglia rettangolare regolare, come in una fotocamera digitale, emergono altri problemi interessanti. Ad esempio, la frequenza di campionamento è sqrt (2) inferiore (circa 1,4 volte inferiore) lungo le direzioni diagonali rispetto alle direzioni allineate con lasse. Tuttavia, la teoria del campionamento, la velocità di Nyquist e ciò che gli alias sono realmente non sono diversi in un segnale 2D rispetto a un segnale 1D.La differenza principale sembra essere che questo può essere più difficile per coloro che non sono abituati a pensare nello spazio delle frequenze per comprendere meglio la loro mente e proiettare ciò che significa tutto ciò in termini di ciò che si vede in unimmagine.
Di nuovo, no, non puoi “t” demosaicizzare “un segnale dopo il fatto, almeno non nel caso generale in cui non sai quale dovrebbe essere loriginale. Moiré causati dal campionamento di unimmagine continua alias. La stessa matematica si applica a loro proprio come si applica alle alte frequenze alias in un flusso audio e che suonano come fischietti di sottofondo. È la stessa cosa, con la stessa teoria per spiegarlo e la stessa soluzione per affrontarlo.
Quella soluzione è eliminare le frequenze al di sopra del limite di Nyquist prima campionamento. Nellaudio che può essere fatto con un semplice filtro passa-basso potresti eventualmente ricavare da un resistore e un condensatore. Nel campionamento dellimmagine, hai ancora bisogno di un filtro passa-basso, in questo caso sta prendendo parte della luce che colpirebbe solo un singolo pixel e diffondendolo ai pixel vicini. Visivamente, sembra una leggera sfocatura dellimmagine prima che venga campionata. I contenuti ad alta frequenza sembrano piccoli dettagli o bordi nitidi in unimmagine. Al contrario, bordi nitidi e dettagli precisi contengono alte frequenze. Sono esattamente queste alte frequenze che vengono convertite in alias nellimmagine campionata. Alcuni alias sono ciò che chiamiamo modelli moiré quando loriginale aveva un contenuto regolare. Alcuni alias danno leffetto “gradino” a linee o bordi, specialmente quando sono quasi verticali o orizzontali. Ci sono altri effetti visivi causati dagli alias.
Solo perché lasse indipendente nei segnali audio è il tempo e gli assi indipendenti (due dei quali poiché il segnale è 2D) di unimmagine sono la distanza non invalida la matematica o in qualche modo lo rendono diverso tra segnali audio e immagini. Probabilmente perché la teoria e le applicazioni di aliasing e anti-aliasing sono state sviluppate su segnali 1D che erano tensioni basate sul tempo, il termine “dominio del tempo” è usato in contrasto con “dominio della frequenza “. In unimmagine, la rappresentazione dello spazio non in frequenza è tecnicamente il” dominio della distanza “, ma per semplicità nellelaborazione del segnale viene spesso definita comunque” dominio del tempo “. Non lasciare che questo ti distragga da ciò è. E no, non è affatto una prova che la teoria non si applichi alle immagini, ma solo che una scelta di parole fuorviante è talvolta usata per descrivere le cose per ragioni storiche. In effetti, la scorciatoia “dominio del tempo” applicata al dominio della non frequenza delle immagini è in realtà perché la teoria è la stessa tra immagini e segnali basati sul tempo reale. Laliasing è laliasing indipendentemente da quale sia lasse (o gli assi) indipendenti.
A meno che tu non sia disposto ad approfondire questo aspetto a livello di un paio di corsi universitari sulla teoria del campionamento e lelaborazione del segnale, alla fine dovrai solo fidarti di quelli che hanno. Alcune di queste cose non sono intuitive senza un background teorico significativo.
Commenti
- Tutti il mio background nel campionamento e nellelaborazione del segnale digitale è stato per quanto riguarda laudio digitale. Capisco come un filtro passa basso agisca per limitare i suoni al di sopra di una certa frequenza che non entrano nella conversione AD. Se ‘ campionando a 44.100 Hz si applica un filtro che inizia a rotolare a circa 20 Khz e qualsiasi risposta di 22 Khz è praticamente sparita. Ma con limaging digitale non è ‘ così semplice, perché anche con i filtri AA passa alcuni alias. ‘ ho letto altrove che i filtri non t provare a bloccare tutto al di sopra di Nyquist perché ciò ridurrebbe troppo la risoluzione.
- Dovrei essere daccordo sul fatto che il problema affrontato da un filtro passa basso in una fotocamera non è lo stesso problema affrontato da un filtro passa-basso nellelaborazione audio. Immagino che il modo migliore per dirlo sia che un filtro passa basso audio funziona direttamente con un segnale elettronico, dove come un filtro passa basso ottico lavora sulle frequenze spaziali di un segnale di immagine prodotto da una lente. Il segnale elettronico con cui sei abituato a lavorare è di natura diversa da un segnale di immagine.
- @Michael: vedi laggiunta alla mia risposta.
- ” Gli schemi moiré causati dal campionamento di unimmagine continua sono alias. ” – Olin. Penso che questo sia il punto chiave proprio lì! Quando effettui effettivamente lesposizione, non stai registrando una versione pura dellimmagine virtuale originale … stai registrando alias di punti dati allinterno di quellimmagine virtuale originale. Quei dati sul tuo computer contengono alias. Modo molto carino, conciso e chiaro per dirlo. 🙂
- @Michael: Quello che dici su come i pixel a colori vengono interpolati dai valori grezzi del sensore è corretto, ma non ha alcuna relazione con la discussione sullaliasing.
Lascia un commento