私たちの目がそうであるように、なぜカメラはダイナミックレンジをキャプチャしないのですか?


29

照明のない部屋に座って窓の外を見ると、外の木に焦点を合わせても、部屋の内部が簡単に見えます。

カメラで目が見えるものと同じような画像をキャプチャできないのはなぜですか?新しいカメラは、このようなダイナミックレンジを簡単にキャプチャできるはずだと思います。このくらいのダイナミックレンジがキャプチャされる場合、正規化できるため、表示が問題になるとは思わない。デジタルカメラでは、露出を設定する必要があります。露出は、外側のシーンまたは内側のシーンのみを正しくキャプチャします。

これはデジタルカメラの問題ですか、それともフィルムカメラの問題ですか?

同様の質問がすでにここで説明されています。私の目が見える通りにシーンを正確にキャプチャする方法は?。私は解像度、焦点、詳細について話していません。私は、単一のシーンに目を固定するときと同様の露出またはダイナミックレンジに興味があります。


2
「新しいカメラでこのようなダイナミックレンジを簡単にキャプチャできるはずだ」と言う理由がわかりません。彼らは私たちの目とはまったく異なる技術に基づいているので、なぜあなたはそれらが同様の特性を持つと期待するのか本当にわかりません。
フィリップケンドール

それで、問題のほとんどを引き起こすのはすべてダイナミックレンジですか?
LifeH2O

私は実験を考えており、レンズを使って紙の上にシーンを作り、カメラでそれをキャプチャします。ダイナミックレンジを正規化する必要があります。
LifeH2O

4
訪問jvsc.jst.go.jp/find/mindlab/english/index.htmlは、あなたが脳にだまされる方法を対話的に確認してください;)
Stormenet

1
@Stormenet:それはリンクの地獄です!
チンマイカンチ

回答:


45

このように大きなダイナミックレンジを見ることができる理由は、光学デバイスとしての目が実際にそのような範囲をキャプチャできるからではありません。その理由は、脳が目からの多くの「露出」と目の前のシーンのHDRパノラマを作成します。

目は、画質の観点からはかなり貧弱ですが、非常に高い「フレームレート」を持ち、感度、方向、焦点を非常にすばやく変更できます。

脳はこれらすべての画像を目から取り出して、あなたが見ていると思う画像を作成します。これには、異なる感度の画像からの詳細や、見たいものに基づいて完全に構成される詳細も含まれます。(これは、錯覚がある理由の1つです。脳は、実際には存在しないものを「見る」ようにされる可能性があります)。

そのため、カメラを目と同じように見ることができ、さまざまな設定で大量の露出を撮影し、すべてをPhotoshopに読み込み、HDRパノラマを作成し、「コンテンツ認識フィル」を使用してギャップを埋めます。

ところで、なぜカメラはその範囲を「キャプチャ」できるはずなのに、モニターはそれを再現できないはずなのでしょうか?存在しないテクノロジーが存在する場合、モニターは表示可能なものをすべて再現できる必要があります(また、月の低重力ホテルで休暇を取ることができるはずです)


1
ほぼ同じ答えで約4分倒してくれました!
マットグラム

22

カメラよりもセンサーのダイナミックレンジがわずかに優れている場合もありますが、違いを生むのは、洗練された自動露出システム、サッカード、HDR処理、および複数の露出にわたって持続するシーン認識システムを持つことです。人間の脳は目と同じくらい視覚システムにとって少なくとも重要です

非常に高いダイナミックレンジを持つシーンを提示すると、人間の視覚システムが適応するのに時間がかかります。これは、ダイナミックレンジ設定を調整する必要があるからではなく、シーンの非常に明るい部分と非常に暗い部分を別々に分析してから、画像の重要な部分を接着する必要があるためです。私たちが「見る」ものの多くは、実際に何がそこにあるかをすでに知っていることに依存しています。空白を埋めるために実際の詳細の非常に少数の指示を使用できます(そして、十分な実際の情報がない場合、補間することができますが、常に正しくはありません)。

カメラ(あらゆるカメラ)をそのレベルで動作させることは、見ているものを「知っている」システムを設計することを意味します。さまざまなHDRテクニックを使用して、その「ダム」バージョンを既に実行できます(具体的な例では、通常、戸口が暗闇の露出から切り取られる単純なマスキングと、その場所に挿入された明るい露出からのバージョンによって)。現在の自動化されたプロセスは明るさのみに基づいており(意味や重要性を分析できないため)、明らかなアーティファクトを生成する傾向があります。そして、まだトーンマップされていない生の32ビットHDR合成画像を見たことがある場合(これは本質的にセンサーのダイナミックレンジを増やすだけで得られるようなものです)、おそらく気づくでしょう画像は非常に「フラット」であり、ローカルとグローバルの両方のコントラストが不足している。コントラストが局所的に重要である場所を決定するために、マッピングを行うことができるシーンが何であるかを知っています。カメラが同じ種類の決定を下せるようになるまで、カメラはあなたの脳が見ているものに似た画像を生成することはできません。


9

それは、脳が目から提供された情報を解釈する方法に関係しています(または、別の言い方をすれば、ハードウェアではなくソフトウェアです)。

ビジョンの中心にある非常に狭いフィールド内でのみ、色とディテールが見えます。私たちが知覚する詳細なカラフルな画像を構築するために、脳は私たちが知らずにこの中心スポットを動き回っています。

私は神経生物学者ではありませんが、脳が多くの小さなスナップショットからこのより広い画像を構成しているので、いくつかの領域が大きくても、どこでもほぼ同じ明るさの画像を生成する明るさの正規化も行いますより現実的に。基本的に、暗いものと明るいものを同時に見る能力は幻想です。

この動作をデジタルカメラで模倣できない理由はありません。また、1回の露出でセンサーのダイナミックレンジを大幅に拡大できない理由もありません。実際、富士山は特別な低感度フォトサイトを備えたセンサーを製造して、特別なハイライトの詳細をキャプチャしました。

問題は、高ダイナミックレンジ画像を表示できないことです。このような画像を標準の低ダイナミックレンジモニターに表示するには、トーンマッピングと呼ばれる特別な処理を行う必要がありますが、これには独自の欠点があります。ほとんどの消費者にとって、高ダイナミックレンジカメラは単純に面倒です。


3

概要:

  • 神は私たちの目を作りました。

  • カメラを作ります。

  • 私たちはまだ神に追いついていません。

  • しかし、利用可能な最高のカメラは、あなたが説明する要件までです。

  • あなたが望むものを達成する方法があります。あなたは単にあなたが望むものではないものとしてそれらを定義することに決めました。それはあなたの選択です。

外のシーンに窓が開いている暗い部屋の光のレベルは、約0.1ルクス(1平方メートルあたり0.1ルーメン)程度です。外のシーンの光のレベルは、説明する状況で数十ルクスから数千ルクスの範囲です。

外部100ルクスと内部0.1ルクスでは、比率は1000:1または10ビットのダイナミックレンジをわずかに下回ります。最新のカメラの多くは、この範囲の両端で音色の違いを区別することができますが、正しく設定されています。木の光のレベルがセンサーを飽和させているだけであれば、部屋の中で利用可能なレベルの約4ビット= 16レベルの照明があります。そのため、光のレベルが非常に低く、目で問題が発生する場合を除き、最も明るいレベルである程度の詳細を見ることができます。

ツリーの光のレベルが1000ルクス(=日光の1%)だった場合、約13ビットのダイナミックレンジが必要になります。利用可能な最高の35mmフルフレームカメラがこれを処理します。カメラの調整はスポットオンである必要があり、部屋内の音情報はほぼゼロになります。外部照明のこのレベルは、夜間の洪水照明以外の状況で得られるレベルよりも高くなっています。

現代の多くの中型からトップエンドのDSLRには、複数の画像を組み合わせることではるかに大きなダイナミックレンジを得ることができるHDR処理が組み込まれています。2画像のHDR写真でも簡単にシーンに対応できます。私のSony A77は、最大+/- 6 EV 3フレームHDRを提供します。これにより、20ビットをはるかに超えるダイナミックレンジが得られ、サンプルの上端と下端で非常に適切な音の変化が可能になります。


11
あるいは、進化がエンジニアに5億年の
有利

4
それはタッチだ神学...
ローランドショー

2
私はこれが質問に答えるとは思わない-それは単に「目が良いから」と言う。はい。彼らはどのようにそれを達成しますか?
mattdm

1
@ naught101-「キャッチアップ」はかなり微妙な微妙な尺度です:-)。私たちが管理できる限りでは、目自体はいくつかの点でやや劣っています。しかし、それでもいくつかの驚くべき偉業を管理しています。例えば、暗い順応した目は、単一の光子を検出できます!しかし、偽装者にとって人生を恐ろしく困難にしているのは、目が統合された多臓器系の一部にすぎないことです。
ラッセルマクマホン

1
@RowlandShaw-そのようにしたい場合のみ。他の人は、それについて独自の世界観の適切な翻訳を提供しました。そのような声明は、あなたが望むあらゆるもの(Cthulu、FSM、Ever-looshin、...)のメタファーになる可能性があります。
ラッセルマクマホン

2

デジタルカメラだけの問題ですか、それともフィルムカメラの問題ですか?

少なくともこれに直接触れた答えはまだありません...はい、それは映画の問題でもあります。たとえば、有名なFuji Velviaカラー透明フィルムは、本当に腐敗したダイナミックレンジを持っています(ただし、素晴らしい色です!)。一般に、透明フィルムにはこの問題があります。一方、ネガフィルムのダイナミックレンジは非常に良好で、現在の最高のデジタルカメラとほぼ同等です。ただし、デジタルは光に対して線形に反応しますが、フィルムには顕著な「S」コントラスト曲線が組み込まれている傾向があります。黒とほぼ黒、および白とほぼ白は、中間色よりも多く集まっています。

フィルム写真は一般的に白い紙の背景にインクで印刷されるため、最初にキャプチャしたいダイナミックレンジの制限はあまり大きくないことに注意してください!たとえば、30ストップのダイナミックレンジをキャプチャし、それを出力します...とにかく写真プリントの球体DRとは何ですか?5ストップ?六?...出力媒体は...奇妙に見えますが、控えめに言っても。写真フィルムのダイナミックレンジが制限されているのは、化学の乗り越えられないハードルよりもこの要因であると思われます。私たちができることはそんなに多くはありません。積極的にやりたくないということです。


2

本を埋めるのに十分なもの-しかし、それの簡単な要点は、人間の目が対数的に明るさを見るのに対して、カメラは明るさを直線的に「見る」ことです。

したがって、輝度が1から10000(ランダムに選択された数)になる条件を想定すると、10を底とする対数では、人間の目は輝度を0から5と見なし、カメラは線形で1から10000と見なします。このような広い範囲をカバーできるセンサーは、ノイズが低い測定値に干渉し、スピルが高い輝度測定値に干渉するため、困難です。そうは言っても、ダイナミックレンジの18ストップを記録できるREDカメラがあると思います-それがプロトタイプか生産モデルかどうかはわかりません。

ちなみに、対数と線形の差は、輝度が1ストップの差で2倍または半分になる理由でもあります。

しかし、これは研究トピックとしては十分です。したがって、これは簡単なポインターです。


人間の目でのこの対数効果は、ダイナミックレンジを平坦化し、脳はそれを処理します。なぜなら、それは一生涯そのようになってきたからです。カメラがダイナミックレンジも平坦化する場合、結果を表示すると、二重の平坦化が行われ、脳は単一の平坦化にのみ慣れています。これを行ったデバイスで世界を表示し、数日間表示を続けた場合、通常どおりに慣れることになります。その後、デバイスを取り外すと、世界は厳しく、過度に対照的に見えます。
スカペレン

@Skaperenダイナミックレンジを平坦化する対数を必ずしも呼び出すとは思わない。明るさを横に並べて対数的および線形的にスケーリングする場合、対数的なものはよりフラットに見えるかもしれませんが、問題は小数点以下の桁数です。技術的には、両方の画像には異なるスケールで同じ情報が含まれていますが、丸めエラーが発生しない限り、スケーリングによって含まれる情報は変更されません。
DetlevCM

2

目はダイナミックレンジをキャプチャしません。ダイナミックレンジを圧縮し、脳内の「後処理」がダイナミックレンジの錯覚を作り出します。圧縮されたダイナミックレンジは、影と明るい領域を同時に見ることができる理由です。いわば「ゲイン」は、影を感知している網膜の部分で自動的に上げられ、影を明るくし、網膜が照らされている領域を見ている場所で減少します。脳はまだ影をのぞいていることを知っているので、そこが暗いという感覚を作り出します。圧縮されたデータを介して一種の拡張が行われている、いわば、ダイナミックレンジが圧縮されていることに気付かないように。

デジタルカメラのセンサーは、生のダイナミックレンジで網膜を簡単に上回る可能性があります。問題は、エリアごとに露出を制御しないことです。カメラには、グローバルなゲイン設定(通常、フィルム用語ではISO設定として表示されます)があります。

目がすることは、いわば、明るい領域に「ISO 100」を使用し、暗い領域に「ISO 800」を同時に使用するようなものです。

カメラが明るさに基づいてピクセルの特定の領域のゲインを調整できる場合、それは間違いなく有用ですが、後処理でこのようなゲインレベル効果を適用することで、脳が実際にだまされないことがわかります。自然に見えません。あなたの目があなた自身の脳と協調してそれをしているときだけ、それは自然に見えます。


2

これは、カメラがすでに作られた方法ですでに作られている明白な理由を持ち出すのではなく、チャンスを与えた場合、一種の興味深い質問です。

最も近いオプションを考えてみましょう。トーンマッピングは、RGBe画像の指数値にローパスフィルターを適用する方法です。それは目が何かを見る方法に大きな役割を果たします。しかし、私たちの目は長い画像の流れを取り入れていると考えてみましょう。写真カメラよりもビデオカメラのように機能します。

トーンマッピングは、HDR画像の一定のストリームをキャプチャできる専用のビデオカメラでリアルタイムに実行されるGLSLシェーダーのように構築された場合、大幅に改善される可能性があります。

もっと簡単な例では、iPhoneの「HDR」写真は、トーンマッピングプロセスを介してプッシュされた低露出画像と高露出画像の合成であり、試していない場合はかなりうまく機能します。他の多くの民生用カメラも同様のことを行います。

また、時間の流れに沿ってあなたの目がどのように調整されているか、直感/意図/自由意志がどのように影響するかという魅力的な主題もあります。暗い壁を見て、頭を明るく照らされた窓に向けることを考えている場合、脳は先に進んで生徒を閉じ始めるように目を向けることができます。自動露出を備えたカメラでも同じことができますが、入射光が多すぎる場合のみです。映画館で働く人々は、複雑なショットで自然に感じるように、映画カメラの設定のタイミングがスムーズに流れるように多くの時間を費やします(または、カメラの設定を実際に調整する必要がないようにシーンを照明する)しかし、これらの種類の機能が動作する唯一の理由は、ディレクターがカメラに何が起こるかをそれが起こる前に知っているからです。


0

最大の問題は、キャプチャした画像を再現することです。

単一の画像で非常に広範囲の輝度レベルをキャプチャする画像センサーと構成を作成することは、技術の領域外ではありません。最終的には、必要なレベルまでスケーリングするテクノロジーである、フォトンカウントの問題です。現在のカメラは主に露出設定を使用してセンサーが見る明るさの量を調整しますが、この作業の多くはセンサーで行うことでき、おそらくより大きなエラーノイズが発生しますが、フォトセンサーからより広い範囲を確実に得ることができます現在市販されているもの。

しかし、問題はこれです。その写真を手に入れたら、それをどうしますか?ハイエンドディスプレイでも24ビットカラーが使用されます。つまり、カラーチャネルごとに256シェードしか使用できません。現在のプリンターは、それ以上ではないにしても、同様に制限されています。何も実際にすることができるよう行われないいくつかの処理をせずに、そのようなイメージで、最初に既存のカメラが生成するものまで範囲を低減します。

この問題はおそらく以前に見たことがあります。現在のほとんどのRAW形式には、再現可能な範囲よりも広い範囲が既に保存されています。RAW出力にさらに多くの範囲を追加しても、同じ結果になります。カメラはおそらく劇的に高価になりますが、写真を見る前に範囲を24ビットカラーに切り詰める必要があるため、写真はそれほど良くありません。

それでも、おそらく適切なソフトウェアと適切な種類のユーザーで、あなたはそれから素晴らしい何かを得ることができるかもしれません。おそらく、現在のHDR写真とそれほど違いはありませんが、複数の画像をスナップする必要はありません。


2
問題は色ごとのビットではなく、明確な色相の数を定義しますが、全体的な範囲については何も言いません。
mattdm

@mattdm true; ただし、全体の範囲は、画像データ自体無関係の出力デバイスの関数です。ディスプレイの輝度とコントラスト比は、ディスプレイの機能であり、ディスプレイにのみ知られています。写真を撮るのに使用したカメラの影響を受けません。繰り返しますが、出力デバイスはカメラではなく制限要因です。しかし、色ごとのビットがない範囲内のレベルの数を増加させることなく、あなたの範囲を大きくすると、ちょうどあなたがその中に多くのものを見ることができるようにすることなく、あなたに明るい/暗い画像を与えるという意味での範囲に影響を与えます。
タイラー
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.