De ce este încă nevoie de un filtru anti-aliasing fizic pentru DSLR-urile moderne?
On februarie 15, 2021 by adminÎnțeleg că scopul filtrului anti-aliasing (AA) este de a preveni moire. Când aparatele digitale au apărut pentru prima dată, a fost necesar un filtru AA pentru a crea suficientă neclaritate pentru a preveni modelele de moare. La acea vreme, puterea procesorelor de cameră era foarte limitată. Dar de ce este încă necesar să plasați un filtru AA peste senzor în camerele DSLR moderne? Nu a putut să fie realizat la fel de ușor de algoritmii aplicați atunci când ieșirea de la senzor este demozaiată? S-ar părea că puterea de procesare actuală disponibilă în cameră ar permite acest lucru acum mult mai mult decât chiar acum câțiva ani. Canon ” Procesorul actual Digic 5+ are de peste 100 de ori puterea de procesare a procesorului Digic III, ceea ce reduce puterea celor mai vechi camere digitale. Mai ales atunci când filmați fișiere RAW, nu se poate face estomparea AA în etapa de post-procesare? Aceasta este premisa de bază a Nikon D800E, chiar dacă folosește un al doilea filtru pentru a contracara primul?
Comentarii
- Nu este. Există deja DSLR-uri fără filtru anti-alias, inclusiv Pentax K-5 II, Nikon D800E, plus modele fără oglindă, cum ar fi Olympus PEN E -PM2 și toate Fujis (X-E1, X-Pro1). În plus, au anunțat chiar camere cu obiectiv fix fără filtru AA (X20 și X100S).
- Și toate aceste camere prezintă câteodată moire color.
- Într-adevăr, dar la fel vor face și alte camere. Bănuiesc că un filtru anti-alias care evită toate moirele ar fi prea puternic, astfel încât producătorii folosesc filtre AA de rezistență mai mică. De exemplu, în K-5 II și K-5 II comparație , moire apare pe ambele camere, doar mult mai mult cu K-5 II.
- IIRC noul Nikon D7100 Nici ‘ nu are unul.
- Un d acum, Pentax K-3 nu are filtru, dar are un mod de a vibra senzorul foarte, foarte ușor în timpul expunerii pentru a simula unul. O mulțime de inovații interesante în acest domeniu.
Răspuns
Aliasarea este rezultatul repetării modelelor de aproximativ aceeași frecvență interferând reciproc într-o manieră nedorită. În cazul fotografiei, frecvențele mai ridicate ale imaginii proiectate de obiectiv pe senzor creează și un model de interferență (moiré în acest caz) cu grila de pixeli. Această interferență apare numai atunci când aceste frecvențe sunt aproximativ aceleași sau când frecvența de eșantionare a senzorului se potrivește cu frecvența de undă a imaginii. Aceasta este limita Nyquist. Rețineți … aceasta este o problemă analogică … moiré apare din cauza interferenței care apare în timp real în lumea reală înainte ca imaginea să fie de fapt expusă.
Odată ce imaginea este expusă, acel tip de interferență este efectiv „copt”. Puteți utiliza software-ul într-o oarecare măsură pentru a curăța modelele moiré în post, dar este minim eficient în comparație cu un filtru fizic low-pass (AA) din fața senzorului. Pierderea în detaliu datorată moiré poate fi, de asemenea, mai mare decât cea pierdută la un filtru AA, deoarece moiré este efectiv date fără sens, unde detaliile ușor neclare ar putea fi în continuare utile.
Un filtru AA este conceput doar pentru a estompa acele frecvențe la Nyquist, astfel încât să nu creeze niciun model de interferență. Motivul pentru care avem încă nevoie de filtre AA este că senzorii de imagine și obiectivele sunt încă capabili să se rezolve la aceeași frecvență. Când senzorii se îmbunătățesc până la punctul în care frecvența de eșantionare a senzorului în sine este constant mai mare decât chiar și cele mai bune lentile la diafragma lor optimă, atunci necesitatea unui filtru AA ar scădea. Obiectivul în sine ar rezolva efectiv estomparea necesară pentru noi, iar modelele de interferență nu ar apărea niciodată în primul rând.
Comentarii
- Iată partea a comentariu postat pe photo.stackexchange.com/questions/10755/… . Mai crezi că este corect? Dacă da, cum se coace modelul până când datele RAW nu au fost detașate? ” În mod ironic, cel puțin cu RAW, limita teoretică nyquist nu pare întotdeauna a fi o limită dură, care se datorează probabil diferitelor lungimi de undă ale luminii roșii, verzi și albastre și distribuția pixelilor RGB într-un senzor. – jrista ♦ 10 aprilie ‘ 11 la 18:50 ”
- Cred că vorbeam despre rezoluție în general acolo și nu direct la aliasarea semnalului digital înregistrat. Limita nyquist este un lucru greu de fixat într-un senzor bayer datorită modelului inegal al rândurilor RGRG și GBGB. rezoluția spațială de verde este mai mare decât rezoluția spațială de roșu sau albastru, astfel încât limita nyquist în lumină roșie sau albastră este la o frecvență mai mică decât limita nyquist în lumină verde.Limita de nyquist într-o imagine demozaicată este destul de greu de numit exact, așa că devine un pic o bandă neclară, mai degrabă decât o limită matematică concretă.
- … acel model devine parte a imaginii. Chiar dacă ați cunoaște caracteristicile exacte ale ondulării imaginii virtuale și ați putea produce o serie fourier de atunci, ar trebui să schimbați orientarea imaginii în raport cu conceptul virtual al senzorului pentru a elimina moira ” perfect „. Aceasta este o mulțime de muncă extrem de intensă, extrem de matematică … presupunând că știați natura EXACTĂ a semnalului original al imaginii virtuale și relația acestuia cu senzorul. Odată ce aliasing-ul este transformat într-un RAW, este destul de mult realizat, nu există într-adevăr o divizie care să-l anuleze fără a atenua detaliile.
- Știu totul despre diferență. în frecvență între roșu / albastru și verde. În ceea ce privește toate filtrele optice AA curente care filtrează numai la nyquist, depinde într-adevăr de cameră. Nu toate filtrele AA sunt concepute exact la fel și chiar și pentru aceeași marcă, modele diferite și linii diferite au adesea filtre AA care se comportă diferit. Știu că, din punct de vedere istoric, liniile 1D și 5D au permis UNELE frecvențe chiar deasupra lui nyquist, totuși cred că este o chestiune de echilibrare cu rezoluția obiectivului. C, D800, D3200, pixelii devin foarte mici. În afara unui segment mic, dacă lentilele cu adevărat noi (cum ar fi Canon ‘ generația din seria Mark II L, și apoi, numai cele lansate în ultimii doi-trei ani) pot rezolva suficient detaliu pentru a rezolva semnificativ senzorul și a provoca aliasing la frecvențe mai mari decât nyquist. Filtrați în jurul valorii de nyquist, iar obiectivul în sine va estompa detaliile dincolo de asta. Cred că acesta face parte din motivul pentru care linia 5D a avut un filtru AA prea puternic … lentilele îl rezolvă mai ușor.
Răspunde
Fizica pur și simplu nu funcționează așa. Aliasarea irreversibil transformă frecvențele trecute de limita Nyquist pentru a apărea ca frecvențe sub limită, deși cele „pseudonimele” nu sunt chiar acolo. Nicio cantitate de procesare a unui semnal aliasat nu poate recupera semnalul original în general. Explicațiile matematice fanteziste sunt destul de lungi pentru a intra, cu excepția cazului în care ați avut o clasă în teoria eșantionării și procesarea semnalului digital. Dacă ați avea, totuși, nu ați pune întrebarea. Din păcate, atunci cel mai bun răspuns este pur și simplu „Nu” așa funcționează fizica. Ne pare rău, dar va trebui să aveți încredere în mine în acest sens. .
Pentru a încerca să dați o impresie dură că cele de mai sus ar putea fi adevărate, luați în considerare cazul unei imagini a unui zid de cărămidă. Fără un filtru AA, vor exista modele moire (care sunt de fapt pseudonimele) care fac ca liniile de cărămidă să pară ondulate. Nu ați văzut niciodată clădirea reală, ci doar imaginea cu liniile ondulate.
De unde știți că cărămizile reale nu au fost așezate într-un model ondulat? Presupuneți Nu erau din cunoștințele dvs. generale despre cărămizi și din experiența umană de a vedea pereții de cărămidă. Cu toate acestea, ar putea cineva să facă un punct în mod deliberat să facă zid de cărămidă astfel încât să arate în viața reală (atunci când este privit cu ochii tăi), ca imaginea? Da, ar putea. Prin urmare, este posibil să distingem matematic o imagine aliasată a unui perete normal de cărămidă și o imagine fidelă a unui perete de cărămidă ondulat deliberat? Nu Nu este. De fapt, nici nu poți face diferența, cu excepția faptului că intenția ta despre ceea ce reprezintă o imagine probabil îți poate da impresia că poți. Din nou, strict vorbind, nu poți spune dacă undele ondulate sunt artefacte cu model moire sau sunt reale.
Software-ul nu poate „înlătura în mod magic undele, deoarece nu știe ce este real și ce nu. Din punct de vedere matematic, se poate demonstra că nu poate ști, măcar uitându-se doar la imaginea ondulată.
Un zid de cărămidă poate fi un caz evident în care puteți ști că imaginea aliasată este greșită, dar există sunt multe cazuri mai subtile în care chiar nu știți și este posibil să nu fiți conștienți de faptul că aliasarea se întâmplă.
Adăugat ca răspuns la comentarii:
Diferența dintre aliasarea unui semnal audio și a unei imagini este doar că prima este 1D și cea din urmă 2D. Teoria și orice matematică pentru realizarea efectelor sunt în continuare aceleași, doar că sunt aplicate în 2D atunci când se ocupă de imagini. Dacă mostrele sunt pe o rețea dreptunghiulară obișnuită, ca și cum ar fi într-o cameră digitală, atunci apar alte probleme interesante. De exemplu, frecvența eșantionului este sqrt (2) mai mică (aproximativ 1,4x mai mică) de-a lungul direcțiilor diagonale, așa cum se aplică direcțiilor aliniate la axă. Cu toate acestea, teoria eșantionării, rata Nyquist și ce aliasuri sunt cu adevărat nu sunt diferite într-un semnal 2D decât într-un semnal 1D.Principala diferență pare să fie că acest lucru poate fi mai greu pentru cei care nu sunt obișnuiți să gândească în spațiul de frecvență pentru a-și înfășura mintea și a proiecta ce înseamnă totul în ceea ce privește ceea ce vedeți într-o imagine.
Din nou, nu, nu poți „demozaica” un semnal după fapt, cel puțin nu în cazul general în care nu știi ce ar trebui să fie originalul. Modelele moire cauzate de eșantionarea unei imagini continue are aliasuri. Aceeași matematică se aplică la fel cum se aplică frecvențelor înalte aliasing într-un flux audio și care sună ca fluierele de fundal. Este același lucru, cu aceeași teorie pentru a o explica, și aceeași soluție pentru a face față ei.
Această soluție este de a elimina frecvențele peste limita Nyquist înainte eșantionare. În sunetul care se poate face cu un filtru simplu de trecere jos, puteți face dintr-un rezistor și condensator. În eșantionarea imaginilor, aveți nevoie în continuare de un filtru de trecere joasă, în acest caz va lua o parte din lumina care ar lovi doar un singur pixel și răspândirea acestuia la pixelii vecini. Din punct de vedere vizual, aceasta arată ca o ușoară estompare a imaginii înainte ca să fie eșantionată. Conținutul de înaltă frecvență arată ca detalii fine sau margini ascuțite într-o imagine. În schimb, marginile ascuțite și detaliile fine conțin frecvențe înalte. Tocmai aceste frecvențe înalte sunt convertite în aliasuri în imaginea eșantionată. Unele aliasuri sunt ceea ce numim modele moire când originalul avea un conținut regulat. Unele pseudonime dau efectul „treapta scării” liniilor sau marginilor, mai ales atunci când sunt aproape verticale sau orizontale. Există și alte efecte vizuale cauzate de pseudonime.
Doar pentru că axa independentă din semnalele audio este timpul și axele independente (două dintre ele deoarece semnalul este 2D) ale unei imagini sunt distanța nu invalidează matematică sau într-un fel o diferențiază între semnale audio și imagini. Probabil pentru că teoria și aplicațiile aliasing-ului și anti-aliasing-ului au fost dezvoltate pe semnale 1D care erau tensiuni bazate pe timp, termenul „domeniu de timp” este folosit pentru a contrasta cu „domeniul de frecvență” „. Într-o imagine, reprezentarea spațiului fără frecvență este tehnic” domeniul distanței „, dar pentru simplitate în procesarea semnalului este adesea denumită” domeniul timpului „, totuși. Nu lăsați acest lucru să vă distragă atenția de la ceea ce aliasează cu adevărat este. Și nu, nu este deloc dovadă că teoria nu se aplică imaginilor, ci doar că o alegere înșelătoare a cuvintelor este uneori folosită pentru a descrie lucrurile din motive istorice. De fapt, scurtătura „domeniu de timp” aplicată domeniului fără frecvență al imaginilor este de fapt deoarece teoria este aceeași între imagini și semnale bazate pe timp adevărat. Aliasing este aliasing indiferent de ceea ce se întâmplă axa (sau axele) independente.
Cu excepția cazului în care sunteți dispus să aprofundați acest lucru la nivelul a două cursuri de facultate despre teoria eșantionării și procesarea semnalului, la final va trebui doar să aveți încredere în cei care au. Unele dintre aceste lucruri nu sunt intuitive, fără un fundal teoretic semnificativ.
Comentarii
- Toate background-ul meu în eșantionare și procesarea semnalului digital a fost în ceea ce privește sunetul digital. Înțeleg cum acționează un filtru trece jos pentru a limita sunetele peste o anumită frecvență de la intrarea în conversia AD. Dacă ‘ re eșantionare la 44.100hz aplicați un filtru care începe să ruleze la aproximativ 20Khz și orice răspuns de 22Khz este aproape dispărut. Dar cu imagistica digitală nu este atât de simplu ‘ pentru că, chiar și cu filtrele AA, se realizează o anumită aliasare. Am ‘ am citit în altă parte că filtrele nu nu încercați să blocați totul deasupra Nyquist, deoarece aceasta ar reduce rezoluția prea mult.
- Ar trebui să fiu de acord că problema cu care se ocupă un filtru low-pass într-o cameră nu este la fel ca problema cu care se ocupă un filtru low-pass în procesarea audio. Cred că cel mai bun mod de a-l pune este că un filtru audio low-pass funcționează direct cu un semnal electronic, unde un filtru optic low-pass funcționează pe frecvențele spațiale ale unui semnal de imagine produs de un obiectiv. Semnalul electronic cu care sunteți obișnuit să lucrați este de o natură diferită de un semnal de imagine.
- @Michael: Consultați adăugarea la răspunsul meu.
- ” Modelele moire cauzate de eșantionarea unei imagini continue sunt pseudonime. ” – Olin. Cred că acesta este punctul cheie chiar acolo! Când efectiv faceți expunerea, nu înregistrați o versiune pură a imaginii virtuale originale … înregistrați pseudonimele punctelor de date din acea imagine virtuală originală. Datele de pe computerul dvs. conțin aliasuri. Un mod foarte frumos, concis și clar de exprimat. 🙂
- @Michael: Ce spuneți despre modul în care pixelii color sunt interpolați din valorile senzorului brut este corect, dar nu are nicio influență asupra discuției de aliasing.
Lasă un răspuns