最新のデジタル一眼レフでは、なぜ物理的なアンチエイリアシングフィルターが依然として必要なのですか?


13

アンチエイリアシング(AA)フィルターの目的はモアレを防ぐことだと理解しています。デジタルカメラが最初に登場したとき、モアレパターンを防ぐのに十分なぼかしを作成するためにAAフィルターが必要でした。当時、カメラプロセッサのパワーは非常に限られていた。しかし、なぜ最新のデジタル一眼レフカメラのセンサーにAAフィルターを配置する必要があるのでしょうか? これは、センサーからの出力がデモザイキングされているときに適用されるアルゴリズムによって、同じくらい簡単に達成できませんか?カメラで利用可能な現在の処理能力により、数年前よりもはるかに多くのことが可能になりました。キヤノンの現在のDigic 5+プロセッサの処理能力はDigic IIIプロセッサの100倍を超えています。特にRAWファイルを撮影する場合、後処理段階でAAブラーを行うことはできませんか?これは、ニコンD800Eの基本的な前提ですが、最初のフィルターに対抗するために2番目のフィルターを使用していますか?


そうではない。Pentax K-5 II、Nikon D800E、およびOlympus PEN E-PM2やすべてのFujis(X-E1、X-Pro1)などのミラーレスモデルを含む、アンチエイリアスフィルターのないDSLRがすでにあります。さらに、AAフィルター(X20およびX100S)のない固定レンズカメラも発表しました。
イタイ

1
そして、これらのカメラはすべて、時々カラーモアレを示します。
ケンドールヘルムステッターゲルナー

3
実際、他のカメラもそうです。すべてのモアレを回避するアンチエイリアスフィルターは強すぎると思われるため、メーカーは強度の低いAAフィルターを使用します。例として、私のK-5 IIとK-5 IIの比較では、両方のカメラでモアレが発生しますが、K-5 IIの方がはるかに多くなります。
板井

1
IIRCは、新しいNikon D7100にも搭載されていません。
ジェームズスネル

1
そして現在、Pentax K-3にはフィルターはありませんが、露出中にセンサーを非常にわずかに振動させてセンサーをシミュレートするモードがあります。この分野での多くの興味深い革新。
プロファイルを読んでください

回答:


12

エイリアシングは、望ましくない方法で互いに干渉するほぼ同じ周波数のパターンを繰り返した結果です。写真の場合、レンズによってセンサーに投影される画像のより高い周波数は、ピクセルグリッドとの干渉パターン(この場合はモアレ)を作成します。この干渉は、それらの周波数がほぼ同じ場合、またはセンサーのサンプリング周波数が画像のウェーブレット周波数と一致する場合にのみ発生します。それがナイキスト制限です。注...それはアナログの問題です...モアレは、画像が実際に露出される前に実世界でリアルタイムに発生する干渉のために発生します。

画像が露出されると、その干渉パターンは事実上「焼き付き」ます。ポストでモアレパターンをクリーンアップするためにソフトウェアをある程度使用できますが、センサーの前にある物理的なローパス(AA)フィルターと比較すると、最小限の効果しか得られません。モアレは事実上ナンセンスなデータであるため、モアレによる詳細の損失はAAフィルターでの損失よりも大きくなる可能性があります。

AAフィルターは、ナイキストでそれらの周波数をぼかすように設計されているため、干渉パターンを作成しません。まだAAフィルターが必要な理由は、イメージセンサーとレンズが同じ周波数に分解できるためです。センサー自体のサンプリング周波数が、最適な開口部にある最高のレンズよりも一貫して高いポイントまでセンサーが改善されると、AAフィルターの必要性は減少します。レンズ自体が必要なぼけを効果的に処理し、干渉パターンが最初に現れることはありません。


これはphoto.stackexchange.com/questions/10755/…に投稿されたコメントの一部です。あなたはまだそれが正確であると信じていますか?もしそうなら、RAWデータがデモザイクされるまでパターンはどのように焼き付けられますか?「皮肉なことに、少なくともRAWでは、理論上のナイキスト制限は常に厳しい制限ではないようです。これはおそらく、赤、緑、青の光の異なる波長とセンサーのRGBピクセルの分布によるものです。– jrista ♦11年4月10日18:50 "
マイケルC

1
記録されたデジタル信号のエイリアシングに直接ではなく、そこで一般的に解像度について話していたと思います。ナイキスト制限は、RGRG行とGBGB行の不均一なパターンのために、ベイヤーセンサーで特定するのが難しいものです。空間分解能赤色又は青色の光でナイキスト限界は緑色光でナイキスト限界よりも低い周波数であるように、緑色のは、赤または青のいずれかの空間分解能よりも高いです。デモザイク後の画像のナイキスト制限は正確に呼び出すのが難しいため、具体的な数学的制限ではなく、少しあいまいなバンドになります。
jrista

1
...そのパターンは画像の一部になります。仮想画像の正確なウェーブレット特性を知っていて、その一連のフーリエ変換を生成できたとしても、モアレを「完全に」除去するために、センサーの仮想概念に対する画像の向きを変更する必要があります。これは、非常に強烈で非常に数学的な作業です。元の仮想画像信号の正確な性質とセンサーとの関係を知っていると仮定します。エイリアシングがRAWに焼き付けられると、ほとんど完了です。詳細を弱めることなく、元に戻すことはできません。
jrista

1
赤/青と緑の周波数の違いについてはすべて知っています。現在のすべての光学AAフィルターはナイキストでのフィルタリングのみであるため、実際にはカメラに依存します。すべてのAAフィルターがまったく同じように設計されているわけではありません。また、同じブランドであっても、異なるモデルや異なるラインに異なる動作をするAAフィルターが含まれていることがよくあります。歴史的に、1Dと5Dのラインはナイキストのすぐ上の一部の周波数を通過させていましたが、レンズの解像度とのバランスの問題だと思います。
jrista

1
Canon 18mp APS-C、D800、D3200などのピクセルが小さいセンサーでは、ピクセルが非常に小さくなっています。本当に新しいレンズ(キヤノンのMark II Lシリーズ世代、そして過去2、3年以内にリリースされたレンズのみ)がセンサーを大幅に解決し、より高い周波数でエイリアシングを引き起こすほど十分な詳細を解決できる場合、小さなセグメントの外側ナイキスト。ナイキスト付近でフィルタリングすると、レンズ自体がそれ以上のディテールをぼかします。これが、5Dラインに非常に強力なAAフィルターがあった理由の一部だと思います...レンズはそれをより簡単に解決します。
jrista

11

物理学はそのようには機能しません。エイリアシングは、ナイキスト制限を超える周波数を不可逆的に変換して、制限を下回る周波数として表示されますが、これらの「エイリアス」は実際には存在しません。一般的な場合、エイリアス信号を処理しても元の信号を復元することはできません。あなたがサンプリング理論とデジタル信号処理のクラスを持っていなかったら、派手な数学的説明は入るのにかなり長いです。しかし、もしあれば、あなたは質問をすることはないでしょう。残念ながら、最良の答えは、「それは物理学の仕組みではありません。申し訳ありませんが、これについて私を信頼しなければなりません。」です。

上記が真実であるかもしれないという多少の荒い感じを与えようとするために、レンガの壁の絵の場合を考慮してください。AAフィルターがないと、モアレパターン(実際にはエイリアス)が発生し、レンガの線が波打って見えます。あなたは実際の建物を見たことがなく、波線の絵だけを見ました。

本物のレンガが波状に敷かれていなかったことをどのように知っていますか?あなたは、仮定、彼らはあなたのレンガの一般的な知識やレンガの壁を見ての人間の経験からではなかったです。ただし、誰かが意図的にレンガの壁を作って、写真のように実際の生活(自分の目で見たとき)に見えるようにすることはできますか?はい、できました。したがって、通常のレンガの壁のエイリアス画像と意図的に波状のレンガ壁の忠実な画像を数学的に区別することは可能ですか?いいえそうではありません。実際、違いを実際に伝えることはできませんが、画像がおそらく何を表しているのかについての直感が、あなたにできる印象を与えるかもしれないことを除いて。繰り返しますが、厳密に言えば、波がモアレパターンのアーティファクトであるか、本物であるかはわかりません。

ソフトウェアは、何が本当で何がそうでないかわからないため、魔法のように波を取り除くことはできません。数学的には、少なくとも波状の画像を見ただけでは、それを知ることができないことが示されます。

レンガの壁は、エイリアスされた画像が間違っていることを知ることができる明白なケースかもしれませんが、あなたが本当に知らない、エイリアスが起こっていることに気付かないかもしれない微妙なケースがもっとたくさんあります。

コメントへの応答で追加:

オーディオ信号と画像のエイリアスの違いは、前者が1Dで、後者が2Dであることだけです。効果を実現するための理論と数学は、画像を処理するときに2Dで適用されるという点で同じです。サンプルがデジタルカメラのように規則的な長方形のグリッド上にある場合、他の興味深い問題がいくつか発生します。たとえば、サンプル周波数は、軸に沿った方向に並ぶ対角線方向に沿ってsqrt(2)低い(約1.4倍低い)です。ただし、サンプリング理論、ナイキストレート、および実際のエイリアスは、2D信号と1D信号で違いはありません。主な違いは、周波数空間で考えるのに慣れていない人にとって、心を包み込み、それが意味するものを写真で見るという意味で投影するのが難しい場合があるようです。

繰り返しになりますが、少なくとも、元の内容がわからない一般的な場合を除いて、事実の後に信号を「デモザイク」することはできません。連続画像のサンプリングによって生じるモアレパターンエイリアスです。オーディオストリームにエイリアシングし、背景のホイッスルのように聞こえる高周波に適用されるのと同じ数学がそれらに適用されます。それは同じもの、それを説明するための同じ理論、そしてそれを扱うための同じ解決策です。

その解決策は、サンプリングの前にナイキスト制限を超える周波数を除去することです。単純なローパスフィルターで行うことができるオーディオでは、おそらく抵抗とコンデンサで作成できます。画像サンプリングでは、ローパスフィルターが必要です。この場合、単一のピクセルにのみ当たる光の一部を取り、それを隣接するピクセルに広げます。視覚的には、これはの画像のわずかなぼかしのように見えますサンプリングされます。高周波コンテンツは、画像の細部または鋭いエッジのように見えます。逆に、シャープなエッジと細かいディテールには高周波が含まれます。サンプリングされた画像でエイリアスに変換されるのは、まさにこれらの高周波数です。一部のエイリアスは、元のコンテンツに通常のコンテンツがある場合にモアレパターンと呼ばれるものです。一部のエイリアスは、特に垂直または水平に近い場合に、ラインまたはエッジに「階段」効果を与えます。エイリアスによって引き起こされる他の視覚効果があります。

オーディオ信号の独立軸が時間であり、画像の独立軸(信号が2Dであるため2つ)が距離であるという理由だけで、数学を無効にしたり、オーディオ信号と画像の間で何らかの違いを生じたりしません。おそらく、エイリアシングとアンチエイリアシングの理論と応用が時間ベースの電圧である1D信号で開発されたため、「時間領域」という用語は「周波数領域」と対照的に使用されます。画像では、非周波数空間表現は技術的には「距離領域」ですが、信号処理を簡単にするため、それでも「時間領域」と呼ばれます。エイリアシングが実際に何であるかについて気を散らさないでください。いいえ、理論が画像に適用されないという証拠はまったくありません。誤解を招くような単語の選択が、歴史的な理由から物事を説明するために時々使用されることだけです。実際、画像の非周波数領域に適用されるショートカット「時間領域」は実際にはなぜなら、理論は画像と真の時間ベースの信号の間で同じだからです。エイリアシングは、独立した軸が何であるかに関係なく、エイリアシングです。

あなたがサンプリング理論と信号処理に関するいくつかの大学のコースのレベルでこれを掘り下げて喜んでいない限り、最終的にはあなたが持っているものを信頼しなければなりません。このようなもののいくつかは、重要な理論的背景なしで直感的ではありません。


サンプリングとデジタル信号処理の私の背景はすべて、デジタルオーディオに関するものです。ローパスフィルターが特定の周波数を超えるサウンドをAD変換に制限する方法を理解しています。44,100hzでサンプリングしている場合、約20Khzでロールオフを開始するフィルターを適用すると、22Khzでの応答はほとんどなくなります。しかし、デジタルイメージングでは、AAフィルターを使用しても一部のエイリアスが通過するため、それほど単純ではありません。私は、フィルターがナイキストより上のすべてをブロックしようとしないことを別の場所で読んだことがあります。
マイケルC

1
カメラのローパスフィルターが処理する問題は、オーディオ処理のローパスフィルターが処理する問題と同じではないことに同意する必要があります。最適な方法は、オーディオローパスフィルターが電子信号で直接動作することであると思います。光学ローパスフィルターは、レンズで生成された画像信号の空間周波数で動作します。作業に慣れている電子信号は、画像信号とは性質が異なります。
jrista

1
@マイケル:私の答えへの追加を参照してください。
オリンラスロップ

1
「連続画像のサンプリングによって生じるモアレパターンはエイリアスです。」-オーリン。それがそこのキーポイントだと思います!実際に露出するとき、元の仮想イメージの純粋なバージョンを記録するのではなく、その元の仮想イメージ内のデータポイントのエイリアスを記録しています。コンピューター上のそのデータにはエイリアスが含まれています。とても素晴らしく、簡潔で、明確な方法です。:)
jrista

1
@Michael:生のセンサー値からフルカラーピクセルが補間される方法についてあなたが言うことは正しいですが、エイリアシングの議論には関係ありません。最終的に、実際の連続画像はまだ離散点でサンプリングされているため、エイリアスを回避するには、サンプリング前のアンチエイリアスフィルターが必要です。代数についてのコメントに関しては、まったく意味がありません。もちろん、代数は高次の多項式と2D方程式に適用されますが、独立変数が多いために複雑になります。
オリンラスロップ

6

ソフトウェアで同じ効果を得ることはできません。特定の仮定を考えると、近くのどこかに行くことができます。ただし、AAフィルターは光を拡散するため、複数の異なる色のピクセルに衝突し、AAなしフィルターセンサーにはない情報を提供します。

Nikon D800Eは、AAフィルターを複製しようとしても何もしません。画像に高周波パターンがある場合、モアレが発生します。それが問題です。対処する必要があります。

画像の細部の周波数がサンプリング周波数に非常に近い場合、エイリアシングはさらに悪化します。低解像度センサー(したがって低周波数サンプリング)を備えた古いカメラの場合、モアレは多くの種類の画像のディテールで深刻な問題であったため、AAフィルターは強力でした(処理能力が制限されることはありません)。これで、サンプリング周波数がはるかに高くなり、モアレが現れるのにはるかに高い周波数の画像の詳細が必要になります。

最終的にサンプリング周波数が非常に高くなり、必要な高周波オブジェクトの詳細がレンズの収差や回折効果を超えないため、AAフィルターが冗長になります。これは、一部のMFバックにAAフィルター、超高解像度、さらに照明を証明する巨大なProfotoパワーパックでf / 32で撮影したいファッション写真家がいない理由の一部です。


デモザイク処理で行われた補間は、隣接するピクセルの平均化がそこで行われるので、まったく同じことを達成するために修正できると思われます。Nikon D800Eには、他のカメラと同様に2つのAAフィルターコンポーネントがありますが、1つは水平に偏光し、もう1つは垂直に偏光する代わりに、2つ目は1つ目から180度であり、1つ目から偏光光線を取得して1つのストリームに戻します。photo.stackexchange.com/questions/22720/を
マイケルC

2
@MichaelClarkいいえ、デモザイキングプロセスで同じ効果は得られません。D800Eセンサーに当たる一点の光は、1つのフォトサイトでのみ電荷を生成します。隣接するピクセルを見るだけでは、その光がどの色であったかを知る方法はありません。情報は永遠に失われています。(AAフィルターを使用して)D800センサーに当たる同じポイントの光は、1つのピクセルに強く当たり、周囲のピクセルにはそれほど強く当たりません。隣接するピクセルは、その強度を調べることで異なるカラーフィルターを持つため、デモザイキングアルゴリズムで光の色を推定することができます。
マットグラム

1
@MichaelClark D800Eにこの配置がある唯一の理由は、製造プロセスを簡素化するためです。2つのフィルターを透明なガラス要素に交換するよりも、入力段階でフィルターの1つの方向を変更する方がはるかに簡単です。スタックは屈折効果があるため、同じ高さである必要があり、最新のレンズ設計ではこれを考慮しています。D800Eにフィルターを取り付けないだけでは、画像にわずかな収差が生じます。
マットグラム

しかし、単一の光点が1つのセンサーサイトに当たると同時に、対応する光点が隣接するすべてのセンサーサイトに当たっており、AAフィルターがすべての光を互いに漏れさせています。ほとんどのデモザイキングアルゴリズムは、補間を使用して、直接のピクセルウェルだけでなく、同じ色感度を持つ他の近くのピクセルウェルの輝度レベルを比較しませんか?事実上、あなたがやっていることを数学的に隣接するピクセルを互いにぼかしていないのですか?
マイケルC

1
@MichaelClarkエイリアスは不鮮明ではありません。互いに非常に離れたピクセル影響します。たとえば、50ピクセルごとにビートを取得し、10を超えるフェードイン/フェードアウトをします。そのストライプは本当ですか、それともピクセルより小さいストライプが原因ですか。わかりません。
JDługosz

2

これらはすべて良い答えと良い情報です。私は非常に簡単な説明をしています。2Dから1Dに移行しましょう(同じ概念が適用されます)。

「最大許容周波数」より高い周波数がセンサーに到達すると、実際にはミラー周波数が側に作成されます。画像がサンプリングされると、この低い信号が表示されますが、カメラまたはコンピューターは、これが実際に存在する実際の低い信号であるか、高すぎる信号から作成されたエイリアスであるかを知りません。この情報は失われます。それが「最大許容周波数」またはナイキスト周波数の理由です。これは、サンプリング可能な最高の周波数であり、それを超えると情報が失われます。

オーディオからアナログへ:0hzから1000hzの周波数範囲が必要な場所にシステムをセットアップしたとします。3000hzでサンプリングするために少し余分なスペースを残すため、1500hzのナイキが得られます。ここにaaフィルターが入ります。1500hzを超えるものは入りたくありません。実際には、1000hzの直後にカットオフが開始されますが、1500hzに達するまでに何も残らないようにします。

aaフィルターを忘れて、センサーに2500 Hzのトーンを入力できると仮定しましょう。サンプルレート(3000hz)を中心にミラーリングされるため、センサーは500hz(3000hz-2500hz)でトーンを拾います。信号がサンプリングされたので、500hzが実際にそこにあったのか、それがエイリアスなのかわかりません。

ところで。鏡像はすべての周波数で発生しますが、ナイキストを超えていなければ問題はありません。後で簡単にフィルタリングできます。入力トーンの例は300 Hzです。エイリアスは(3000-300 = 2700hz [そして、正確には3000 + 300 = 3300hz])になります。ただし、1000 Hzまでしか考慮していないことがわかっているため、これらは簡単に削除されます。ミラーイメージが実際に必要なスペクトルに入ってくると、問題が発生します。違いがわからないため、「焼き付け」という意味です。

お役に立てれば


1
写真の文脈での「エイリアシング」は、センサーに投影される画像内の繰り返しパターンに基づいた「空間的」であることを除き、単一ピクセルによく当たる特定の周波数ではありません。ほとんどのカメラセンサーの光学ローパスフィルターは、ナイキスト制限を超える「すべての」周波数をフィルターせず、ナイキスト制限および関連する倍数で「最も」繰り返されるパターンのみをフィルターします。
マイケルC

コメントありがとうございます。私はまた、光の周波数ではなく、あるピクセルから次のピクセルへの強度の変化率について言及していました。色を無視していました。私はそれを3つの個別の白黒画像として見ていたと思います。後でそれぞれが1つの色を取得し、それらをすべて重ね合わせてすべての色を構成します。画像の周波数に頭を包むのはまだ難しいです。黒いピクセルのすぐ隣に白いピクセルがある場合、変化の速度が速いために高い周波数を表し、暗い灰色のピクセルの隣の明るい灰色のピクセルは低い周波数を表します。
ギボン

これは、バイエルマスクセンサーのデモザイキングが正確に機能する方法ではなく、最初に質問した理由の1つです。
マイケルC

これに関連して周波数が高くなると、繰り返しパターンが繰り返され、各繰り返し間のセンサー上の距離が短くなります。周波数が低いほど、パターンの繰り返し間隔が長くなります。センサーのピクセルピッチが6µmの場合、3µmごとに繰り返されるパターンはナイキスト周波数になります。4µmごとに繰り返すパターンはNFを下回り、2µmごとに繰り返すパターンはNFを上回ります。
マイケルC
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.