写真のすべての部分に適切な露出を備えた高ダイナミックレンジセンサーがまだないのはなぜですか?
写真のすべての部分に適切な露出を備えた高ダイナミックレンジセンサーがまだないのはなぜですか?
回答:
即時および全体の両方で、人間の目よりも大きいDRを備えたカメラが既に存在します。人間の目のダイナミックレンジは、ほとんどの人が考えるほど大きくありません。私が思い出すように、それはおよそ12から16 EVのどこかであり、これは現代のDSLRのレベルのすぐ近くです。
主な違いは、画像のさまざまな部分に合わせて調整する非常に自然な絞り制御があることです。事実上、私たちの脳は画像スタックを自動的に行います。シーンの明るい部分を見ると、瞳孔が縮小し、明るい部分の細部が見えます。私たちが暗い部分に焦点を合わせると、生徒は急速に開き、暗い部分の詳細が見えます。私たちの脳は前の部分がどのように見えるかを知っているので、私たちは周辺視野の変化に気づきませんが、私たちはもはや焦点が合っていない場所ほど多くの詳細を見ていません。
同様に、人間の視覚の全体的な範囲であっても、私たちよりもはるかに暗くなり、特に色を見ることができる特殊なカメラがあります。ノイズフロアを非常に低くします。また、見るのが苦痛になるような非常に明るい物体を見ることができるセンサーもあります。
大きな問題は、目で見ることは画像をキャプチャすることとは非常に異なることです-画像には、見る人が見るかもしれないすべての情報を含める必要がありますが、通常の視覚は、目の動き、リフォーカス、瞳孔の拡大を伴うアクティブなプロセスです私たちが見ているオブジェクトに。したがって、必要な「目が見ているもの」をキャプチャする場合は、本質的に、目が使用する可能性のあるすべての設定の視点をキャプチャします。
あなたの質問はダイナミックレンジに関するものですが、視覚的な詳細と焦点に関して同じ問題が発生します。目の解像度は非常に不均等であり、網膜の高解像度の中央で小さなスポットを1つだけ見ているため、「人生と同等」の画像には実際にキャプチャできるピクセルよりもはるかに多くのピクセルが必要です目を動かすので、詳細を確認できます。映画は単一の焦点を選択する必要がありますが、人間は目をすばやくリフォーカスしたり、さまざまな意図した範囲で適切な両眼視のためにそれらを移動したりすることで、より深い「単一画像」を見ることができます(たとえば、窓の表面またはそれを通して見る) )など
ソリューションの一部はまさにそれです-単一のカメラをすばやく複数回(または複数のカメラ)使用してさまざまな設定でさまざまな画像をキャプチャし、後でそれらをマージする、HDRは最も露骨な例です-私たちの目と同じように、それは積極的に見えますさまざまな「設定」を持つさまざまな場所で、その後、あなたの脳がすべてをまとまりのある画像または映画にマージします。私たちの目で撮られた実際の「画像」は、良いカメラよりもすでに悪く、単にそれらの精神的な組み合わせがいいです。
あなたの精神的イメージは、網膜だけでなく、瞳孔やもちろんあなたの脳を含む視覚に関係する他のすべての要素との相互作用の産物です。「一枚の絵」と思われるのは、実際には、単一のスナップショットではなく、高速な調整と情報処理の結果です。
このトピックの詳細については、こちらをご覧ください。
対数特性を持つ光センサーを作成することは完全に可能です-そのようなセンサーは、特定の露出に対して限られた解像度を犠牲にして信じられないほどのダイナミックレンジを持ちます。両方を取得するには、高分解能ADCが必要です。CTイメージングでは、通常24ビットの線形が使用されます。その後、オフセット調整後に対数が取られ、CTイメージが作成されます。
露出制御(積分時間-シャッタースピードを考える)の両方を行うセンサーはより良い結果が得られ、集光効率の変更を許可する(f値を考える)と、さらに大きな柔軟性が得られます。
最終的なダイナミックレンジは通常、読み出しノイズによって制限されます-蓄積された電荷を読み取ると、電子機器がサポートできる最大の信号に対していくらかの誤差が生じます。私が言ったように、24ビットは医療画像で一般的であり、1000万分の1よりも優れています。それは、与えられた露出に対する網膜よりもはるかに高いダイナミックレンジです。しかし、目は画像の細部を理解できなかったため、従来のカメラでは一般的に使用されていません-解像度は速度を犠牲にします。