14ビットRAWは12ビットRAWよりも優れていますか?


13

通常のJPEG画像には、各ピクセルのトーンに関する情報を保存するための8ビットしかありません。画像をRAW形式(DNGなど)で保存する場合、ピクセルあたりのビット数を増やしてトーンを保存できます。これにより、コンピューターでの処理の範囲が広がり、オプションが増えます。

私の現在のカメラは写真を12ビットDNGとして記録でき、通常はRAWを使用します。DSLRの新しいモデルでは、ピクセルあたり14ビットを保存できることに気付きました。私には、これらの2ビットを取得することは大きな利点のように見えますが、実際には大きな違いはありますか?後処理に違いはありますか?違いは、画像の暗い部分(露出不足)またはハイライト(露出過度)部分でより大きくなりますか?


8
小さいが重要な補正:JPEG は、ピクセルあたりチャネルごとに8ビットを保存します:赤8ビット、緑8ビット、青8ビット、合計24ビット。同様に、RAWはピクセルあたりチャネルあたり12/14ビットを保存します。合計でピクセルあたり36/42ビットです。8ビット/ピクセルは、GIF形式(または8ビットPNG)で得られるものです。256色の最大パレットは写真には適していません。
マーク・ウィテカー

3
+1を修正しますが、生のファイルは実際にはピクセルあたりのビット数だけを保存し、各ピクセル、つまり各フォトサイトは特定の色にフィルターされることに注意してください。RAWからの変換にはデモザイキングが必要です。デモザイキングでは、フルカラー情報が近隣から巧妙に推定されます。したがって、RAWは実際にはピクセルあたり36/42ビットを格納していません。(シグマのFoveonカメラを除くすべてのカメラで通常の標準的なBayerまたは同様のカラーフィルターアレイを想定しています。)
プロファイルをお読みください

@MarkWhitaker-さらなる補正(さらに小さい;-):RAW(ほとんどのカメラで)は、3つの原色のうちの1つについて、ピクセルあたり12/14ビットを保存します。他の2色は、バイエル(または他のパターン)のデモザイキングによる後処理で追加されます。例外は、ピクセルあたり3色がセンサーによってキャプチャされるFoveonタイプのセンサーです。
ysap

ほとんどのJPEG画像は、画像をYCC(en.wikipedia.org/wiki/YCbCr)形式で保存します。各チャネルのビット数(輝度、デルタブルー、デルタレッド)は、画像の圧縮時に決定されます。通常、画像のレンダリングはRGB888で行われます。これにより、情報の損失(圧縮以上)がわずかに増えます。彼らはより稀であるがCMYKとYCCK JPEGファイルもあり、そしてRGB [12] [12] [12]の代わりにRGB [8]にレンダリング'12ビット」JPEGファイルがある[8] [8]
rsaxvc

回答:


14

それは作るいくつかの測定可能な差異がなく、全体の話をしていません。DxOMarkのポートレートスコアは、さまざまなカメラの出力を特に色深度に関して技術的に評価したものであり、色の実際のニュアンスである色感度と「相関」があると注意深く説明しています。

あなたが見れば、そのメトリックの結果、あなたはトップスコアのカメラはピクセルあたり14ビットとのそれらに続く、ピクセルあたり16ビットを持っていることがわかります。高価なミディアムフォーマットのデジタルバックは、24〜26程度のDxOMarkスコアを獲得し、それに続いて23〜25の範囲の最上位のSLRを獲得します。次に、12ビット/ピクセルのカメラが次に登場します。一番上のカメラは22ポイントの何かだと思います。

ただし、DxOMarkはこのスコアの差1を「ほとんど目立たない」と説明していることに注意してください。あなたがかろうじて非常に慎重に気づいている場合です。ほとんどの人にとって、スコアのはるかに大きな違いは、実際の結果でも顕著ではありません。

現実世界への影響と最終的な認識は、それが大したことではない理由の1つです。しかし、もっとあります!リストをさらに下に移動すると、新しい12ビットカメラよりも深さが14ビットでスコア低い古いカメラが見つかります。そのため、その数値だけでは技術的な話全体を語ることはできません。新しいセンサーと処理技術は、他の方法で実際の結果を改善します。現在の世代を比較している場合は、深さが多いほど良いですが、それがすべてであると想定しないでください。

これにより、シャドウまたはハイライトのスペースが増えるかどうかについては、実際にはどちらかの端にビットが追加されるわけではなく、代わりにグラデーションが追加されます。ある新聞が1つから4つの星を映画に与え、別の新聞が1〜10の尺度を使用していると想像してください。2番目の新聞の「10」は、最初の新聞の4つ星のレビューよりも必ずしも優れているとは限りませんが、「ビット」を追加するとニュアンスが増えます。これは同じ考えです。

これらのセンサーは依然としてハイライトの厳しいカットオフに悩まされているため、デジタルでは常に露出するのが最善であり、それらは保持され、影からディテールを引き出します。そして、より良い深さはある程度それを助けます(理論上)引き伸ばすためにより多くのニュアンスがあるので、暗い領域を明るくするプロセス。

認識すべき重要なことは、JPEGが人間の知覚に適合するガンマ曲線を使用する一方で、センサーからの12または14ビットであることです。これは、JPEGがデータを圧縮するための単なる方法ではありません。画像を正しく表示するには曲線を適用する必要があります。この曲線はビットを「つぶす」ので、それは人が予想するよりも知覚的な違いが少ない理由の一部です。(ただし、その線形データを非曲線形式にすることは、RAWに柔軟性を与えるものの一部です。別の曲線を選択するのは簡単です。)

私の全体的なポイントは、しかし、私は2つのカメラの間で決定を下すために根本的な数字を見ないだろうということです。代わりに、最終結果を見てください。


米国メディア写真家協会の「デジタル写真のベストプラクティスとワークフロー」Webサイトのセンサーに関するセクションからの同じ視点を示す別の外部参照:

これを書いている時点で[ NB 2009またはそれ以前 ]、14ビットのキャプチャ能力を持っている何の35ミリメートルのデジタル一眼レフカメラは明らかに、12ビットのキャプチャを超える画質の優位性を示しません

一部の中型センサーメーカーは、16ビットキャプチャの利点を主張しています。ただし、ビット深度が高いほど、16ビットキャプチャのみに基づいた高画質に変換されることを示す研究(製造元以外)を見たことはありません。一般に、14ビットキャプチャと16ビットキャプチャの違いは、画像に非常に急なトーンカーブ(6〜7ストップのオーダー)が適用されない限り、人間には見えません。

(Emphasisが追加されました。ポインターについてアーロン・ホックリーからの以前の回答に感謝します。)


素晴らしい答えです!ただし、ハイライト、ミッドトーン、シャドウの間でビットが分割される方法を考慮する必要があると思います。「両端にビットが追加されるのではなく、グラデーションの余地があるだけだ」とおっしゃいました。私の理解では、ハイライトがより多くなるようにレベルが割り当てられ、中間調、シャドウ、ダークの順になります。ビット深度を12(4096レベル)から14(16384レベル)に上げると、ハイライトに影響があります...ピーク時のハイライトのロールオフに大きな影響があります。12ビットを超える追加の12,288の控えめな輝度レベルがあります。
jrista

12ビットでのハイライト、ライト、ミッドトーン、シェード、シャドウの上部のレベルのバイナリ分布を想定:2048、1024、512、256、256。14ビットの場合:8192、4096、2048、1024、1024(少し工夫されていますが、それはポイントを示しています)その違いは、特にRAWでハイライトに表示されるはずです(ほとんどのrawツールはインポート時にトーンカーブを適用します)。
jrista

1
@jrista —その考えを逆さまにします。吹き飛ばされたハイライトの問題は、フォトサイトのフルウェル容量に関係する避けられないハードストップです。ビット深度が高いということは、ウェルが大きくなるということではありません。井戸がより細かくサンプリングされるということです。より明るいデータには既により多くのビットがあるので、より多くのサンプリングを追加することは、よりまばらに表現された暗い領域にさらに追加するほど多くは買いません。
プロファイルを読んでください

あなたの例では、2048から8192に行くと4倍になり、256から1024になります。しかし、最上位にはすでに数千のレベルのニュアンスがあります。暗い色の16の可能なレベルから64に移行する可能性のある、さらに下を検討してください。これは、後の方が明らかに多いにもかかわらず、4096から16384よりもはるかに意味のある変更です。
プロファイルを読んでください

1
吹き飛ばされたハイライトは難しい問題であることはわかっていますが、減衰するレベルが増えれば問題はなくなると思います。私はあなたに完全に同意します。シャドウのビット数を増やすと、フォトンカウントについて心配する必要がなくなります。
jrista

12

通常、ビット数が増えても範囲は増えませんが、精度は上がります。つまり、スケールの端、つまり最も黒い黒と最も白い白は、現在の位置(0および最大値)にとどまりますが、ビット数が増えると、それらの間の値の数は多くなります。

ここでの精度はそれほど必要ないので、ここですぐに収益が減少します。カメラセンサーは、その精度に解決することさえできないことがよくあります。


うん。:)これは、私の答えと同じことを言う、より簡潔な方法です。+1とStack Exchangeへようこそ!
プロファイルを読んでください

4

ダイナミックレンジへの影響に関しては、12ビットRAWと14ビットRAWの違いに関連する混乱があると思います。

私の理解では、14ビットRAWはダイナミックレンジを拡大しません。ハイライトもシャドウも拡大しません。センサーがキャプチャできる最も暗い部分と最も明るい部分の間のより緩やかな情報を提供します(4倍のグレーの濃淡を取得するようなものです)。同じセンサーでキャプチャされた12ビットまたは14ビットの生画像の違いに気付かないと確信しています。

楽しみのために、このColor IQ Testを見てください。12ビット未満の段階性であると確信しています。


1
この色覚テストは素晴らしいです!それは(再び)良いモニターの重要性に関する私の主張を(私自身に)証明した。平均的な明るい画面(トゥルーカラーまたはこのひどい技術と呼ばれるもの)を備えたHPラップトップに接続された素晴らしいDell U2410があります。私のブラウザーはラップトップのデスクトップで開いており、最初にそのモニターでそのテストを受けました。40歳のとき、私は12点を得ました。これはまったく悪くありません。それから、今度はDellモニターでもう一度やり直すことにしました。優れたモニターでの私のスコアは、今では完全な0です!
ysap

とにかく、中間レベルの色を増やすことは間違いなくダイナミックレンジの定義の一部です。基本的に、これは測定可能な最小単位に対する最大値の比率です。
ysap

...もう1つ-モニターでこのカラーテストを表示します。最適な場合はおそらく10ビットで、ブラウザーではおそらく8ビットまたは10ビット以上をレンダリングできないため、テストはそうです。 12ビット未満です。
ysap

それが質問に正接的に関連する以上のものであるかどうかはわかりませんが、そのテストは非常に興味深いので、いずれにせよ私から+1を得ます。:)
プロファイルをお読みください
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.