デジタルカメラセンサーが各フォトサイトを個別に露光できないのはなぜですか?


14

カメラセンサーが人間の目ができるように機能することが不可能なのはなぜですか?つまり、写真を撮り、絞りとシャッター速度の設定を決定するときに暗い部分と明るい部分をそれぞれ補正する場合、画像の特定の部分を露出オーバー/アンダー露出にする必要があるのはなぜですか。

入る光は絞りとシャッター速度に依存することを理解していますが、デジタル一眼レフはデジタルであるため、各センサーセルが独自の測光を使用できるようにする技術はありません。光量に依存しますが、測光に応じて、カメラのCPUは特定のセルを過度に露出しないように遮断します。

私はナンセンスを言っていないことを願っています。もっともらしい考えのように思えます。


センサーに無制限のダイナミックレンジを設定できない理由を尋ねているようですね。または、別のパスは「カメラセンサーの仕組み」です。興味深い質問に関係なく。
-dpollitt

ええ、あなたは質問が無制限のダイナミックレンジについてであると言うでしょうが、各センサーセルは「記録」する能力を持っているため、実際にはかなり奇妙に思えます、なぜ単一のセルベースでそれを行うことはできませんが、代わりにセンサー全体で同じ量をキャプチャできますか?おそらく、それはもう少しCPUのパワーとその他を要求するでしょうが、それがどのDSLRメーカーによっても考慮されたかどうかに興味があります

2
配線が多すぎると思います。フォトサイトごとに重要な追加回路が必要になります。最も最近のカメラは、露出の途中で半分のピクセルを読み取るカメラです。
板井

記事へのリンクはありますか?元の質問に対する唯一の答えは、実際には、DSLR技術の歴史のこの時点では複雑すぎるということですか?

1
これは、ちょっとした問題です。それを聞くことは非常に賢明です。いつかはあなたの提案と非常によく似た方法でカメラが動作するはずです。...個人的にはですが、技術的な制限が芸術性を養うと感じています。
AJフィンチ

回答:


19

どのピクセルがどのくらいのゲインを得るかは誰が決めるのですか?人間の視覚システムで起こっていることの多くは、目ではなく皮質で起こり、知的決定と自己保存の(ややオーバーライド可能な)本能的なドライブの組み合わせに基づいて見ることが重要であると考えるものに依存します。私たちがそこにあるものを見るということはある意味では真実ですが、私たちが見たい(または必要とする)ものを見るということは別の意味でも同様に真実です。

それはほとんどだろう巨大なダイナミックレンジを可能にする大きなフォトサイトを備えた比較的低ピクセル密度のセンサーを作成するのは簡単です(現在のCMOSセンサー技術ではこの方法が機能しないため、CCDタイプの技術を想定しています)メカニカルシャッター。それであなたは何を得ますか?多くのビット深度と非常に低いローカルコントラスト(表示または印刷のためにビット深度全体がそのまま変換される場合)に加えて、センサーの彩度によってほぼ完全にクリップされるピクセル(完全ではない)実際、それらは飽和点の直前の電子シャッターの制限動作によってクリップされています)。しかし、議論のために、このセンサーとその関連コンピューターがクリッピングデータを記録できるとしましょう(その感覚で記録を停止した理由、そのサイトでの実際の露出時間を記録するのと同じくらい簡単かもしれません)。これにより、カメラの電子機器は、フォトサイトが最後のホイッスルまでゲーム内にとどまることができた場合、数字がどのようになっていたかを再構築できます。これで、ビット深度が大きくなり、さらにフラットな画像ができました。そして、どこで線を引きますか?32ビット?64?

ここで難しいのは、このフラットで高ダイナミックレンジの画像データを魅力的な写真に変えることです。最も単純なアプローチは、プライマリメーター画像を表す8ビット(または出力ビット深度が何であれ)を取得し、残りを破棄することです。データをSカーブに合わせて極端なシャドウやハイライトを圧縮することは、おそらくそれほど難しいことではありません。これは、新しいカメラの拡張ダイナミックレンジ設定が既に行っていることとほぼ同じです。ただし、ピクセルごとに使用できる出力ビットは非常に多く、拡張ハイライト値のほとんどは白に切り上げられます(少なくとも254と255の混合)。したがって、システムを劇的に複雑化することによって得られるものはほとんどありません。

ただし、まだ1つの選択肢があります。選択的領域マッピングです。前景の望ましいコントラストを維持しながら、空、たとえば、空またはその空の雲の価値を下げて、細部を保持できるのはなぜですか?これは難しい問題が存在する場所です。何が重要ですか?カメラはあなたのために決めるべきですか?カメラが決定すれば、マシンビジョンと人工知能に大きな進歩があり、先に進むことができます。そうでない場合は、撮影するすべての写真について、このレベルのキャプチャ後の決定を本当にしたいですか?はい、実際にそのようになりたいフォトテクノウィニーがいることは知っていますが、それは病的な状態であり、ターンアラウンドタイムと大多数の消費者に興味がある専門家は受け入れることができます好きじゃない?

そのため、最も廃棄されるデータを収集するには、新しいセンサー、センサー周辺の非常に複雑な電子機器、投影された生データ用の膨大な画像ファイル(より大きなカードと長い書き込み時間/遅いフレームレートが必要)が必要です。ポストで多くの人間の介入を必要とするワンショットHDR画像を時折撮影できるように(またはMV / AIで大きな飛躍)。おそらくこれらのいくつかを販売することができますが、市場は既存の35mm / APS-C市場よりも中判市場に酷似していると思われます。つまり、プロフェッショナルな理由で機能を必要とするか、美術のビジョンを実現するために能力を実際に必要とし、後処理で十分な収入を得てお金を払う少数の優秀な写真家のグループに販売します。技術税。


1
これは素晴らしい分析です(そして、そのように投票しています)。しかし、最終的には結論が納得できないと思います。結局のところ、センサーの「ダム」マトリックスを作成するのは難しくありません。その一部は、たとえば6ストップNDフィルターによってマスクされます。(たとえば、これにはBayerフィルターのGの1つを使用します。)エレクトロニクスの大幅な変更は必要ありません。カメラ、レンズなどについては何も変わりません。しかし、感度のわずかな損失と引き換えに、白とびしたピクセル内の(粗い)グラデーションを区別する機能が得られます。それはOPが求めるものに近いです。
whuber

2
FujiのEXRセンサーには、より優れたシンプルなアプローチがすでに存在します。サイズの異なるセンサーがあります。小さなセンサーと大きなセンサーがセンサー上の各ソースピクセルサイトでペアになっています。それはより広いキャプチャ範囲を提供することができますが、それができることにはまだ制限があります-あなたはまだあなたがすべての影を取得したい場合はハイライトを吹き飛ばすことができます。(そして、富士の現在の実装は、小さすぎるセンサーで多すぎるピクセルを使用します。)複数のセンサーサイズで完全な実装を想定します。処理の問題が残ります。

EXRリファレンスをありがとう。それは私の提案がもっともらしいだけでなく、本物であることを示しています。HDRソフトウェアは処理の問題に対処していませんか?統合されたセンサーを使用して広いダイナミックレンジをキャプチャできた場合、実際にはすでに完全に登録されたHDRスタックがあります。確かに、このテクノロジーの制限はHDRの制限になります。
whuber

繰り返しになりますが、ソースがHDRの場合、ストレートプロセッシングでは画像が粗悪になります。制限はキャプチャではなく、処理にあります。HDR処理が単純ではないという結論に達するまでに、いくつのハロー画像を見る必要がありますか?善意の人々は王室でそれを台無しにし、彼らはイメージに「言いたい」ことを知っています。その後、ストレージと書き込み速度の問題も依然として存在し、別の使用上の妥協があります。カメラすべての人にとってすべてのものになりますが、価格と人間工学の両方のコストはどのくらいですか?14ビットキャプチャとDR圧縮がここにあります。16ビットはそれほど遅れることはありません。

1
...そして、それらの両方がまだハイライトを吹きます。この問題を完全に回避するために、大幅にさらに拡張する必要があり、少なくとも大衆市場レベルでは、ある時点で実用性が崩れます。スタジオ撮影者はそれを必要としません。ほとんどの消費者はそれを必要としません。私は主に環境のポートレート写真を撮っており、それを必要とすることは何回も考えられません(露出過剰は私の画像の多くを作りました)。オーバーヘッドはほとんどの人にとっては価値がないため、高価なニッチ製品を作成します。

3

少数の人々が言及していることと、それは、異なるエリアが他のエリアに異なって露出している場合、シーンは同じようには見えないということです。シーンはバリエーションがあるため、そのように見えます。はい、ハイライトを保存してシャドウをブーストする方法かもしれませんが、最終的には、1つの露出設定を使用してシーンのダイナミックレンジをキャプチャできる、より大きなダイナミックレンジ必要です。

私たちの目は、現在の民生用カメラ技術よりもはるかに大きなダイナミックレンジを提供することに優れています。すぐに周りを見回して、影のある領域と明るい太陽に照らされた領域の正確なディテールを同時に認識できます。

カメラメーカーがこの問題を回避する方法の1つは、1つのセンサーで高感度ピクセルと低感度ピクセルの両方を使用し、ピクセルごとの結果を組み合わせることです。REDの新しいデジタルシネマカメラには、HDRxと呼ばれる通常の低感度センサーピクセルのマトリックスがあります。小さくて感度の低いセンサーピクセルは、明るいピクセルのハイライトに結合されて、ダイナミックレンジを拡大します。


あなたは正しい、それは当たり障りのない写真になりますが、明らかにそれはいくつかの制限を持っている必要があります。どの領域を明るくするか、暗くするかをカメラに決定させるのは多すぎると思います。私は正しく考えていなかった

3

まず、人間の目のダイナミックレンジはそれほど大きくありません。私たちの脳は異なる露出設定を使用して撮影された「スナップショット」を絶えずマージするため、現在のハイエンドカメラよりも優れているように見えます。私たちの目は、非常に明るい物体と非常に暗い物体を同時に登録することはできません(脳ができても)。画像処理の真の驚異、しかし平凡な光学/画像処理装置のみ。

イメージセンサーのダイナミックレンジを大幅に改善する方法を示すいくつかの提案/プロトタイプがあります。

  • MITによるモジュロカメラ

    各フォトダイオードは、最大電荷に達するとその状態をリセットし、発生回数を記憶します

  • Eric FossumによるQuanta Image Sensor

    「アナログ」電荷コンテナ+ A / Dコンバーターの代わりに、はるかに小さくて高速な光子カウントピクセルを使用します。


2

ここにいくつかの基本的な物理学がありません。主な問題は、実際のシーンのコントラスト比が大きいことです。私たちの目は、光のレベルを線形ではなく対数的に知覚することにより、それに対処するために進化しました。残念ながら、現在のセンサー技術は本質的に光を直線的に測定します。または、より正確に言えば、ノイズは線形ライトスケールで固定されます。

現在の技術では、最大コントラスト制限は基本的にノイズレベルの関数です。議論のために、0-1000ライトスケールを使用してみましょう。つまり、センサーは0から1000までのライトレベルを示すことができます。したがって、測定できる最高の比率はどれですか。ノイズレベルに依存します。ノイズレベルは、基本的に真の黒ではなく、この例では0になります。大体、ノイズレベルが2の場合、約1000:2 = 500:1の輝度比になります。シーンがそれを超えない限り(ほとんどすべての場合、実際には500:1はそれほど多くありません)、後で必要な対数マッピングを行うことができます。

そのため、現在のセンサーは本質的に線形であるため、現在の戦略は、信号対雑音比を増加させ、量子化ノイズが固有のランダムノイズを下回るように十分なビットを提供することです。センサーのノイズが低いほど、ハイライトをクリップしたり、シャドウを消したりせずにキャプチャできるダイナミックレンジシーンが広くなります。

本質的に明るさのログを測定する全く異なるセンサー技術があります。これらはふたを外したCMOSダイナミックRAMによく似ているため、「CMOS」センサーと呼ばれることもあります(単純化しますが、ラボの最初のテストは実際にこの方法で行われました)。光の対数に比例した電圧が得られますが、現在、これらの信号対雑音比ははるかに低くなっています。これらのセンサーを商品化したのは三菱が最初でしたが、ハイエンドカメラにはまだ十分に適していません。

複数の分野で進歩が見られることは間違いありません。今後数年間、着実な進歩が見られると確信しています。しかし、だれもより良いものを想像できないという理由だけでなく、物事が今のようになっているのには正当な理由があります。誰かが広いダイナミックレンジを正確に測定できるテクノロジーを持っていて、人々が喜んで支払う価格で、彼らは金持ちになるでしょう。


1

複雑すぎると思います。

基本的には2つのアプローチが考えられます。各フォトセンサーが時間を追跡してそれ自体をオフにするか、CPUがフォトセンサーからのデータを追跡してオフにすることができます。

最初のアプローチでは、各フォトセンサーがクロック信号とカウンターを必要とし、それ自体がオフになるまでにかかった時間を追跡できます。これは、チップに収まるより多くの回路であり、それを実行するためにより多くの電気が必要であり、信号ノイズが増加します。おそらくあまりにも多くのことで、ダイナミックレンジの増加は意味がありません。

2番目のアプローチでは、CPUはセンサーからすべてのデータを約1/10000秒に1回読み取る必要があります。これは、現在の技術が達成できる速度の約1000倍の速さであるため、可能な限り数十年先の未来です。

また、このようなソリューションには、各ピクセルが異なる露光時間を取得するなど、他の問題もあります。動くものを撮影すると、かなり奇妙なアーティファクトが得られます。


1
「選択的なモーションブラー」が大きな問題になるとは思いません。動いている被写体を撮影する場合、最も長く露出されるピクセルは、常に暗闇にとどまるピクセルです。これらは、ほとんど均一に暗い領域内にあり、ぼかしはあまり目立ちません。被写体が動いている場合、暗い領域と明るい領域の間のエッジのピクセルは、露出が高くなり、シャットダウンが速くなり、ぼやけが少なくなります。
ヤンHlavacek

0

デジタル一眼レフがデジタルであることは事実ですが、レンズはそうではありません。レンズに絞りが設定されているため、DSLR本体がどれだけスマートになっても、すべてのセルセンサーは同じ絞りになります。したがって、少なくとも現在のレンズ技術では、センサーセルごとに開口を変えることは不可能だと思います。

シャッタースピードに関しては、カメラによって制御されますが、露出を制御するために画像のさまざまな部分でシャッタースピードを変更できるカメラを想像すると、モーションブラーが不均一になります。シーンの暗い部分はより長く露出する必要があり、明るい部分よりもぼやけます。この理由から、シャッター速度を変更するソリューションは機能しないと思います。

したがって、残っているのはISOだけです。ISOを変更すると、画像のさまざまな部分でさまざまなノイズレベルが発生します。これは、見返りにダイナミックレンジを大幅に拡大できることを考えると、それほど悪くはありません。センサーがどのように機能するかについてはあまり知りませんが、ISO設定は、輝度スケールの特定のサブセットに対する一種の「調整」としてセンサーに実装されると思います。センサーセルごとに独立した計測とISO制御を行うのは法外に費用がかかるように思えますが、画像をエリアに分割して、各エリアを個別に計測することもできます。次に、カメラには、露出が異なる領域をブレンドするための何らかのアルゴリズムが必要になります。これは、各写真の露出が異なるパノラマを組み立てるときに「ブレンド」するようなものです。これは私には実行可能です。

別のオプションは、それぞれが異なるISOに設定された複数のセンサーを備えたカメラを持つことです。ビデオ技術には3つのCCDカメラがあり、各CCDは赤、緑、青のいずれかを記録します。複数のセンサーが異なるISOレベルで写真を撮影し、HDR画像を生成するDSLRに同様の概念が存在しなかった理由はわかりません。


0

現時点では情報を見つけることができませんが、同様の技術の説明を読んだことを思い出すようです。アイデアはだいたいこれでした。世話をする必要があるのは、誇張されたハイライトだけです。それらを防ぐことができれば、画像全体への露出を増やすことにより、暗い領域に注意を払うことができます。したがって、オーバーハイライトを防ぐために、各センサーは蓄積された光を追跡し、それが最大値に近づくとセンサーをシャットオフします。それ自体では何も改善されず、実際には事態が悪化し、明るい白のオーバーハイライトがほとんどない代わりに、さらにわずかに暗いハイライトになります。そのため、セルは単に停止するのではなく、近隣のセルも停止します。これにより、明るい領域の一部の詳細が保持されます。

私が書いたように、私は今テキストを見つけることができませんが、どういうわけかそれはHPデジタルカメラに関連する私の心の中にあります。


見つかった場合は、記事にリンクしてください。興味深いアイデアです。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.