最新のDSLRで物理的なアンチエイリアシングフィルターが依然として必要なのはなぜですか?
On 2月 15, 2021 by adminアンチエイリアシング(AA)フィルターの目的は、モアレを防ぐことだと理解しています。デジタルカメラが最初に登場したとき、モアレパターンを防ぐのに十分なぼかしを作成するためにAAフィルターが必要でした。当時、カメラプロセッサの能力は非常に限られていました。 しかし、最近のデジタル一眼レフカメラのセンサーにAAフィルターを配置する必要があるのはなぜですか? これはできませんでしたセンサーからの出力がデモザイクされているときに適用されるアルゴリズムによって同じように簡単に達成できますか?カメラ内で利用可能な現在の処理能力により、数年前よりもはるかに多くのことが可能になるようです。キャノン」 ■現在のDigic5 +プロセッサは、Digic IIIプロセッサの100倍を超える処理能力を備えており、初期のデジタルカメラの能力をはるかに下回っています。特にRAWファイルを撮影する場合、後処理段階でAAブレを行うことができませんでしたか?2つ目のフィルターを使って最初のフィルターを打ち消しているのに、これがニコンD800Eの基本的な前提ですか?
コメント
- そうではありません。PentaxK-5II、Nikon D800E、Olympus PEN Eなどのミラーレスモデルなど、アンチエイリアスフィルターのないDSLRはすでに存在します。 -PM2とすべての富士フイルム(X-E1、X-Pro1)。さらに、AAフィルターなしの固定レンズカメラ(X20とX100S)も発表しました。
- これらのカメラはすべてカラーモアレスを示すことがあります。
- 確かに、他のカメラもそうです。すべてのモアレを回避するアンチエイリアスフィルターは強すぎると思われるので、メーカーは強度の低いAAフィルターを使用します。例として、私の K-5IIとK-5IIの比較、両方のカメラでモアレが発生しますが、K-5IIではさらに多く発生します。
- IIRC新しいNikonD7100 ‘どちらもありません。
- d現在、Pentax K-3にはフィルターがありませんが、露出中にセンサーを非常にわずかに振動させてセンサーをシミュレートするモードがあります。この分野における多くの興味深い革新。
回答
エイリアシングは、おおよそのパターンを繰り返した結果です。同じ周波数が望ましくない方法で互いに干渉します。写真撮影の場合、レンズによってセンサーに投影された画像のより高い周波数が、ピクセルグリッドとの干渉パターン(この場合はモアレ)を作成します。この干渉は、これらの周波数がほぼ同じである場合、またはセンサーのサンプリング周波数が画像のウェーブレット周波数と一致する場合にのみ発生します。それがナイキスト限界です。注…これはアナログの問題です…モアレは、画像が実際に露光される前に実世界でリアルタイムに発生する干渉が原因で発生します。
画像が露光されると、その干渉パターンは効果的に「焼き付け」られます。ソフトウェアをある程度使用して、ポストでモアレパターンをクリーンアップできますが、センサーの前にある物理的なローパス(AA)フィルターと比較すると、効果は最小限です。モアレは事実上ナンセンスなデータであり、わずかにぼやけた詳細が依然として役立つ可能性があるため、モアレによる詳細の損失は、AAフィルターで失われる損失よりも大きくなる可能性があります。
AAフィルターは、ナイキストでこれらの周波数をぼかすように設計されているため、干渉パターンは作成されません。まだAAフィルターが必要な理由は、イメージセンサーとレンズが同じ周波数まで分解できるためです。センサー自体のサンプリング周波数が最適な絞りで最高のレンズよりも一貫して高くなるまでセンサーが改善されると、AAフィルターの必要性は減少します。レンズ自体が必要なぼかしを効果的に処理し、干渉パターンが最初から現れることはありません。
コメント
- ここに一部があります photo.stackexchange.com/questions/10755/ … に投稿されたコメント。あなたはまだそれが正確であると信じていますか?もしそうなら、RAWデータがデモザイクされるまでパターンはどのように焼き付けられますか? “皮肉なことに、少なくともRAWでは、理論上のナイキスト制限は必ずしも厳しい制限ではないようです。これはおそらく、赤、緑、青の光の波長が異なるためです。センサー内のRGBピクセルの分布。 –jrista♦4月10日’ 11時18:50 ”
- 解決策全般について話していたと思いますそこにあり、記録されたデジタル信号のエイリアシングに直接ではありません。ナイキスト制限は、RGRGとGBGBの行のパターンが不均一であるため、ベイヤーセンサーに固定するのが難しいものです。緑の空間分解能は、赤または青の空間分解能よりも高いため、赤または青の光のナイキスト限界は、緑の光のナイキスト限界よりも低い周波数になります。デモザイックされた画像のナイキスト限界は、正確に呼び出すのが難しいため、具体的な数学的限界ではなく、少しあいまいなバンドになります。
- …そのパターンは画像の一部になります。仮想画像の正確なウェーブレット特性を知っていて、フーリエ級数を生成できる場合でも、モアレを排除するには、センサーの仮想概念に対する画像の方向を変更する必要があります”完全に”。これは、非常に激しい、非常に数学的な作業です…元の仮想イメージ信号の正確な性質とセンサーとの関係を知っていると仮定します。エイリアシングがRAWにベイクされると、ほぼ完了します。詳細を柔らかくせずにエイリアシングを元に戻すことは実際にはありません。
- 違いについてはすべて知っています。赤/青と緑の間の頻度で。現在のすべての光学AAフィルターはナイキストでのみフィルタリングするため、実際にはカメラに依存します。すべてのAAフィルターが完全に同じように設計されているわけではなく、同じブランドであっても、モデルやラインが異なれば、動作が異なるAAフィルターが使用されることがよくあります。歴史的に、1Dおよび5Dラインはナイキストのすぐ上のいくつかの周波数を通過させてきたことを知っていますが、それはレンズ解像度とのバランスの問題だと思います。
- Canon 18mpAPSなどのより小さなピクセルのセンサーでは- C、D800、D3200、ピクセルは本当に、本当に小さくなっています。本当に新しいレンズ(Canon ‘のMarkII Lシリーズ世代、そして過去2〜3年以内にリリースされたレンズのみ)が十分に解決できる場合は、小さなセグメントの外センサーを大幅に分解し、ナイキストよりも高い周波数でエイリアシングを引き起こす詳細。ナイキスト周辺でフィルターをかけると、レンズ自体がそれ以上のディテールをぼかします。これが、5Dラインに過度に強力なAAフィルターがあった理由の一部だと思います…レンズはそれをより簡単に解決します。
回答
物理学は単純にそのようには機能しません。 不可逆的に エイリアシングすると、ナイキスト制限を超えた周波数が制限を下回る周波数として表示されますが、 「エイリアス」は実際にはありません。一般的な場合、エイリアス信号を処理しても元の信号を復元することはできません。サンプリング理論とデジタル信号処理のクラスがない限り、派手な数学的説明はかなり長くなります。ただし、持っていたとしても、質問することはありません。残念ながら、最良の答えは単に「それ」ではなく、物理学がどのように機能するかです。申し訳ありませんが、「これについては私を信頼する必要があります。」。
上記が当てはまる可能性があることを大まかに感じさせるために、写真の場合を考えてみましょう。れんが壁。 AAフィルターがないと、モアレパターン(実際にはエイリアス)が発生し、レンガの線が波打っているように見えます。実際の建物を見たことがなく、波線のある写真だけです。
実際のレンガが波状のパターンで配置されていないことをどうやって知ることができますか?仮定レンガに関する一般的な知識や、レンガの壁を見た人間の経験からではありませんでした。しかし、誰かが意図的にレンガの壁を作って、実際の生活(自分の目で見たとき)が写真のように見えるようにすることはできますか?はい、できます。したがって、通常のレンガの壁のエイリアス画像と意図的に波打ったレンガの壁の忠実な画像を数学的に区別することは可能ですか?いいえそうではありません。実際、おそらくの写真が何を表しているのかについての直感があなたにできる印象を与えることを除いて、実際には違いもわかりません。繰り返しになりますが、厳密に言えば、波が波打つかどうかはわかりません。モアレパターンのアーティファクトであるか、本物です。
ソフトウェアは、何が本物で何がそうでないかを知らないため、魔法のように波を取り除くことはできません。数学的には、少なくとも波状の画像を見るだけではわからないことを示すことができます。
レンガの壁は、エイリアシングされた画像が間違っていることを知ることができる明らかなケースかもしれませんが、そこには本当にわからない、さらに多くの微妙なケースがあり、エイリアシングが発生していることに気付かない場合もあります。
コメントへの返信として追加:
オーディオ信号と画像のエイリアシングの違いは、前者が1Dで、後者が2Dであるということだけです。効果を実現するための理論と数学は同じですが、画像を扱うときに2Dで適用されるだけです。サンプルがデジタルカメラのように通常の長方形のグリッド上にある場合、他のいくつかの興味深い問題が発生します。たとえば、サンプル周波数は、軸に沿った方向とは対照的に、対角線方向に沿ってsqrt(2)低くなります(約1.4倍低くなります)。ただし、サンプリング理論、ナイキストレート、およびエイリアスが実際に何であるかは、2D信号と1D信号で違いはありません。主な違いは、周波数空間で考えることに慣れていない人にとって、これは心を包み込み、写真に表示されるものの観点からすべてが何を意味するのかを予測するのが難しいことです。
繰り返しますが、いいえ、少なくともオリジナルが何であるかわからない一般的なケースでは、事後に信号を「デモザイク」することはできません。連続画像のサンプリングによって引き起こされるモアレパターンは、 エイリアスです。オーディオストリームにエイリアシングし、バックグラウンドホイッスルのように聞こえる高周波に適用されるのと同じ数学がそれらに適用されます。それは同じものであり、それを説明するための同じ理論と、それに対処するための同じ解決策です。
その解決策は、ナイキスト限界を超える周波数を前に排除することです。サンプリング。単純なローパスフィルターで実行できるオーディオでは、抵抗とコンデンサーから作成できる可能性があります。画像サンプリングでは、ローパスフィルターが必要です。この場合、当たる光の一部を取ります。単一のピクセルのみで、それを隣接するピクセルに広げます。視覚的には、これはサンプリングされる前の画像のわずかなぼやけのように見えます。高周波コンテンツは、画像の細部やシャープなエッジのように見えます。逆に、鋭いエッジと細かいディテールには高周波が含まれています。サンプリングされた画像でエイリアスに変換されるのは、まさにこれらの高周波です。一部のエイリアスは、オリジナルに通常のコンテンツが含まれている場合にモアレパターンと呼ばれるものです。一部のエイリアスは、特に垂直または水平に近い場合に、線またはエッジに「階段状」効果を与えます。エイリアスによって引き起こされる他の視覚効果があります。
オーディオ信号の独立軸が時間であり、画像の独立軸(信号が2Dであるため2つ)が距離であるからといって、数学またはどういうわけか、オーディオ信号と画像の間で違いがあります。おそらく、エイリアスとアンチエイリアスの理論とアプリケーションが時間ベースの電圧である1D信号で開発されたため、「時間ドメイン」という用語は「周波数ドメイン」と対比するために使用されます”。画像では、非周波数空間表現は技術的には「距離ドメイン」ですが、信号処理を簡単にするために、それでも「時間ドメイン」と呼ばれることがよくあります。それでも、実際のエイリアスの邪魔にならないようにしてください。です。いいえ、それは理論が画像に適用されないという証拠ではなく、歴史的な理由から、誤解を招くような言葉の選択が時々物事を説明するために使用されるということだけです。実際、画像の非周波数領域に適用されるショートカット「時間領域」は、実際にはなぜなら理論は画像と真の時間ベースの信号の間で同じだからです。エイリアシングとは、独立した軸が何であるかに関係なくエイリアシングです。
サンプリング理論と信号処理に関するいくつかの大学のコースのレベルでこれを掘り下げても構わないと思っている場合を除き、最終的にはあなたは「持っている人を信頼する必要があります。このようなもののいくつかは、重要な理論的背景がないと直感的ではありません。
コメント
- すべてサンプリングとデジタル信号処理の私のバックグラウンドはデジタルオーディオに関するものです。ローパスフィルターがどのように機能して、特定の周波数を超えるサウンドがAD変換に入るのを制限するかを理解しています。’ 44,100hzでサンプリングすると、約20Khzでロールオフを開始するフィルターを適用すると、22Khzによる応答はほとんどなくなります。ただし、デジタルイメージングでは、’それほど単純ではありません。 AAフィルタを使用しても、エイリアシングが発生するためです。’他の場所で、フィルタがないことを読みました解像度が下がりすぎるため、ナイキストより上のすべてをブロックしようとしないでください。
- カメラのローパスフィルターが扱う問題はそうではないことに同意する必要があります。オーディオ処理のローパスフィルターが扱う問題と同じです。最良の言い方は、オーディオローパスフィルターが電子信号と直接連動するのに対し、光学ローパスフィルターはレンズによって生成される画像信号の空間周波数に対して機能することだと思います。作業に慣れている電子信号は、画像信号とは性質が異なります。
- @Michael:私の回答への追加を参照してください。
- “連続画像のサンプリングによって発生するモアレパターンはエイリアスです。” -Olin。それがポイントだと思います!実際に露出を行うときは、元の仮想画像の純粋なバージョンを記録していません…その元の仮想画像内のデータポイントのエイリアスを記録しています。コンピューター上のそのデータにはエイリアスが含まれています。それを置くための非常に素晴らしく、簡潔で、明確な方法。 🙂
- @Michael:フルカラーピクセルが生のセンサー値からどのように補間されるかについてあなたが言うことは正しいですが、エイリアシングの議論とは関係ありません。
コメントを残す