この質問に対するコメントで、カメラセンサーは通常12〜14ビットのデータしか出力しないと誰かが提案しました。24ビットのカラーは写真の操作にのみ役立つことを意味するので、私は驚いていました(追加されたビットは、複数の操作を繰り返し実行する中間値の補間から拾うノイズを低減します)。
誰もが12-14ビットの主張に正式に回答できるほどカメラセンサーについて十分に知っていますか?もしそうなら、典型的なエンコーディングは何ですか?
この質問に対するコメントで、カメラセンサーは通常12〜14ビットのデータしか出力しないと誰かが提案しました。24ビットのカラーは写真の操作にのみ役立つことを意味するので、私は驚いていました(追加されたビットは、複数の操作を繰り返し実行する中間値の補間から拾うノイズを低減します)。
誰もが12-14ビットの主張に正式に回答できるほどカメラセンサーについて十分に知っていますか?もしそうなら、典型的なエンコーディングは何ですか?
回答:
デジタルセンサーのフォトサイトは、実際にはアナログデバイスです。彼らは実際には少し深さを持っていません。ただし、デジタル画像を形成するために、A / Dコンバーター(A / Dコンバーター)は、所定のビット深度でアナログ信号をサンプリングします。これは通常、カメラの仕様で宣伝されています。たとえば、Nikon D300には14ビットA / Dコンバーターがあります。
ただし、これはチャネルごとであることに注意してください。24ビットカラーは通常、チャネルごとに8ビットを意味します。一部のファイル形式(および作業領域)では、代わりにチャネルごとに16ビットを使用します(合計48ビット)。
これは、一部の理由により、追加の精度によって(丸め誤差が累積する)を減らすことができます(質問で指摘したとおり)が、これは人間の視覚が線形ではないため、使用する色空間もそうではない傾向があるためです。線形から「ガンマ圧縮」曲線への切り替えは損失の多い操作です(生ファイルに関するいくつかの質問の1つを参照してください)。したがって、ビット数が多いほど、損失が少なくなるだけであり、露出/曲線について考えを変えて、ドンRAWファイルにアクセスできなくなりました。
ほとんどのセンサーチップは、ピクセルごとに1つの色成分のみを記録するため、1つのピクセルには、たとえば緑の強度の14ビットのデータを含めることができます。
ピクセルはグリッドに配置され、ピクセルの50%が緑のデータ、25%が赤、25%が青のデータを記録します。
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
GBGBGBGBGBGBGBG
RGRGRGRGRGRGRGR
このデータをRGBに変換すると、周囲のピクセルの情報から、ピクセルごとに2つの色成分が補間されます。たとえば、緑の情報を保持するピクセルには、赤のデータを保持する2つの隣接するピクセルと青のデータを保持する2つのピクセルがあり、RGB値の作成に使用されます。
したがって、RAWデータのピクセルあたり14ビットは、RGBデータのピクセルあたり42ビットを生成します。もちろん、補間されたデータはそれほど正確ではありませんが、通常はとにかく24ビットRGBまで処理します。
ピクセルごとのビット深度とコンポーネントごとのビット深度を混同しないように注意してください。
デジタルセンサーの出力は、ほとんどの場合、線形スケールでコンポーネントあたり10〜14ビットです。ピクセルあたり30ビットカラー(10億)から42ビット(4兆)のカラーになります。
サイトDXOMarkは、正規化されたスケール(ホワイトペーパーで説明)を使用してこれを測定し、下位ビットを破壊する傾向があるノイズを考慮したピクセルごとのビット深度を公開しています。フルフレームの調査結果に基づいて、DSLRは24.7ビット/ピクセルに到達でき、中判カメラは26ビットに到達します。トリミングされたセンサーカメラの場合、23.8ビットが現在の最大値です。
現在のDSLRカメラは、14ビット出力で最高です。一部の中判カメラは16ビット出力を要求しますが、14ビットと16ビットの間のビット深度の増加は実際により良い画像を生成するとさまざまな人々(ASMPのdpBestflowサイトなど)が主張しています。