14ビット画像をキャプチャし、8ビットモニターで編集する意味は何ですか?


37

私は少し混乱しています。RAWの撮影中にDSLRが14ビット画像をキャプチャしている場合。RAWでのキャプチャを最大限に活用するには、14ビットモニターも必要ではありませんか?14ビットで画像をキャプチャし、8ビット深度モニターのみを開いて編集するポイントは何ですか?



1
キャプチャはリニアであるため、sRGBが必要とするガンマカーブを適用するには、少なくとも10ビットのRAWが必要です。
マークランサム

回答:


52

古いCRT白黒モニターで写真を編集することもできますが、それでも同じ問題があります:追加のビット数です。

これは、14ビットのヒストグラム(A)と8ビットのヒストグラム(B)のシミュレーションです。両方とも、8ビット表示または8ビットファイル形式をシミュレートする青いグリッド上にあります。

Bでは、すべての線が一致します。(8ビット形式は、私たちの目がさまざまなグレーレベルで知覚できるものに近いため、十分です)


今。より明るく幸せな写真が欲しいので、ヒストグラムを移動する必要があると想像してください。

左側の異なるレベルは、右にスライドします。

生ファイルには、同じ青い線を埋めるのに十分な「サブレベル」があります。(C)。

しかし、8ビットイメージのデータは「ギャップ」(レッドゾーン)の形成を開始します。これにより、バンディングの問題、ノイズの増加などが発生します。

ここに画像の説明を入力してください

したがって、重要な違いは、画像を操作または制御するときと、追加データがあるときです。これはあなたに自由を与えます。


10
+1の良い例を示しますが、文字どおりに受け取らないでください-実際には、14ビットのrawは線形ですが、8ビットの出力はそうではありません(ガンマのため)。画像処理がヒストグラムに対してできることを視覚化する良い方法です!
szulat

7
はい、文字通り。ガンマは、実際には12または14ビットを必要とする主要な問題です。ガンマは本質的にこのような最大の音調シフトであり、初期には8ビットでは不十分で不十分でした。そのため、イメージクリエーターデバイス(ガンマを実行する必要のあるスキャナー、カメラ)は、10ビット、12ビット、そして14ビットに改善する必要がありました。少なくとも最近までハードウェアに使用できるすべてのビット。もちろん、私たちの目にはガンマデータは表示されません(ヒストグラムグラフを除く)。続く..
WayneF

3
@WayneFこれはよくある誤解です。ガンマは、アナログCRT時代に戻ったように、デジタル時代でも同じように有益です。ディスプレイはオリジナルと同じレベルを表示する必要があります、本当です!しかし、私たちの知覚は非線形です。そのため、ガンマを使用して明るさを8ビットとしてエンコードし、11〜12ビットで線形にエンコードするのと同様の結果を得ることができます。より多くのビットは、より多くのメモリ、より多くの帯域幅、より多くの電力を意味します-目に見える効果なしに浪費されます。それがガンマが言うべき理由です。ここでまた、例えば勾配を参照してください。cambridgeincolour.com/tutorials/gamma-correction.htmを
szulat

2
正しい。ガンマは、コード値を有効に活用するため、デジタルイメージングとビデオの分野で依然として活躍しています。輝度範囲の下限では、ガンマ付きの8ビットは10ビットの線形に相当します(ガンマ勾配が4に近いため)。映画のワークフローでは、ログエンコーディングはガンマエンコーディングよりも一般的ですが、まったく同じ理由で、コード値の節約です。
ディザーマスター

3
ショートバージョン:デジタル写真の編集は数学的に適用され、ディスプレイのビット深度は数学のビット深度とは無関係です(ごみの画像編集ソフトウェアを使用していない場合)。編集は完全なビット深度を使用して計算されるため、追加の精度を利用できるという利点があります。
アロス

41

ビット深度を高くすると、データを失うことなく編集するためのオプションが増えます。

画像の表現とそれがどのようにレンダリングされるかを結ぶ間違いをしないでください。基になるデータの解像度が最も高いリプレゼンテーションで操作すると、編集により最高品質の結果が得られます。モニターが画像の低解像度ビューを提供するのはたまたま起こりますが、これは基礎となる表現の品質とは関係ありません。

学校の数学を思い出すと、常に経験則があります。結果を計算するときに中間計算を丸めないでください。常に数学を実行し、結果を表示するときに最後で丸めます。まったく同じことがここに適用されます。あなたのモニターはあなたにそれを提示するときに「丸め」が行われる終わりです。プリンタは異なる方法で「丸める」場合があります。しかし、すべての中間ステップで、最も正確な結果を得るために生データを使用し、元の高解像度の表現をディスクに保存して、その情報を維持し、後で正確な編集を続行できるようにします。

これを考慮してください:5760 x 3840のソースイメージがあるとします。そのサイズで画像を編集し、そのサイズのままにすることで、編集とレンダリングの柔軟性を最大限に維持できます。たまたま1440 x 900のモニターでそれを表示している場合は、エディターでズームアウトするだけで、実際にデータをリサイズしてリサンプリングすることはできません。同じことがカラー解像度にも当てはまります。

オーディオも同様です。おそらく、コンピューターのサウンドカードには、12ビットの出力機能しかありません。あなたは、ストアを記録し、16ビットまたは24ビットのオーディオを操作する場合しかし、あなたは低音量信号16Xまたは4096x大声で(それぞれ)を作成し、可能性があり、まだそのコンピュータ上で、出力品質の最小限の損失を達成します。最終結果を表示しようとしているときに最後にのみ変換します。視覚的には、最小限のバンディングで非常に暗い画像を明るくします。

モニターの機能に関係なく、編集操作を実行する場合、たとえば輝度を2倍する場合、元の高解像度の画像でそれを実行する必要があります。


これはシミュレートされた例です。本当に暗い写真を撮ったとしましょう。この暗い画像は下の一番上の行で、チャネルごとに4、8、14ビットの内部ストレージ形式がシミュレートされています。下の行は、各画像を明るくした結果です。明るさは倍数で、倍率は12倍でした。

ここに画像の説明を入力してください ソース、Andrea Canestrari撮影)

永久的な情報損失に注意してください。4ビットバージョンは、極端な例です。8ビットバージョンでは、特に空にいくつかのバンディングが見られます(拡大表示するには画像をクリックします)。ここで注意すべき最も重要なことは、最終出力形式が保存した8ビットPNGであるという事実と、これを表示する可能性が高いという事実とは無関係に、14ビットバージョンが最高品質でスケーリングされたことです8ビット以下のディスプレイ


1
または、6ビットディスプレイでも。すべてのLCDモニターがチャネルごとに完全な8ビット深度を実際に表示するわけではありません。
Random832 18

@ Random832は、LCDの能力を知るための信頼できるテストがありますか?コンピューターで生成されたバンディングを示すグラデーション画像がありますが、それが私の目が1レベルの違いを見ることができるためなのか、モニターが歪んでいるのかはわかりません。
マークランサム

@Markこの件に関する素敵な記事をご覧ください:avsforum.com/forum / ...-難しいかもしれません。ビデオ出力から画面から出てくる光までのシグナルチェーンには多くのボトルネックがあります。 、仕様の多くの誤った情報(たとえば、ランダムな回路基板上の6ビットデコーダーのためにBSであると宣伝された深さ)やedid記述子など。複雑なシステムであり、実際の深さを知ることは一般的なユースケースではない、 がんばろう!メーリングリストへ
ジェイソンC

1
@MarkRansomが明らかにしたのは、4レベルごとに明確に定義された境界でバンディングが見られることでした。一部のディスプレイではディザリングが行われますが、識別がやや
難しい

^また、一部のディスプレイは空間ディザリングではなく一時的なディザリングを行うことに注意してください。これは適切に行われた場合に気付くことはほぼ不可能ですが、目が鋭い場合は暗い領域で見つけることができます。
ジェイソンC

4

14bit Rawは、モニターのビット深度とは関係ありません。Rawは、最小限の処理が行われる形式です。Raw Image Formatを参照してください。

Raw形式を使用すると、LightroomやPhotoshopなどの後処理ソフトウェアで、JPEGファイルでは不可能な画像を微調整できます。

モニターに関しては、広色域モニターは通常10ビットであり、X-RiteやSpyderなどのキャリブレーターからのキャリブレーション情報を保存する内部LUTを持っています。ビデオカードも10ビットをサポートできる必要があります。

Nvidiaチップの場合、ワークステーションクラスカードは10ビットをサポートします。すべてではないにしても、ほとんどのゲームクラスのカードは私の経験からではありません。AMDチップセットでも同様です。

画像を後処理しない場合は、JPEGに簡単に切り替えることができます。


それの(ポスタリゼーションがノイズに隠されている自然騒々しい写真とは対照的に、ほとんどの合成)ほとんどの場合、人間の目はまれな滑らかなグラデーションを除いて、いずれにしても8ビット以上を見ていないということは注目に値する
szulat

8ビットは実際には256色のみであり、ディザリングなしで滑らかなグラデーションを表示するには不十分です。
Gmck

2
真が、ほとんどノイズのため、実際の生活の写真では見られないことができないようにグラデーション
szulat

1
@Gmck:0.39%の明るさと0.78%の明るさとの間には大きな違いがあります。256レベルの対数曲線は滑らかなグラデーションに十分ですが、多くのフィルタリング効果は本質的に値を輝度に線形マッピングする必要があります(したがって、2つのピクセル値を平均で置き換えると全体の輝度は影響を受けません)。
supercat

1

最初にこの質問を読んでください。

人間の目のダイナミックレンジは、デジタルカメラのダイナミックレンジと比較してどうですか?

基本的に、紙のダイナミックレンジは8ビット未満であり、人間のダイナミックレンジは類似していません。

RAW画像の高ダイナミックレンジの利点は、表示デバイスが表すことができる範囲内に関心のあるビットをもたらすために後処理できることです。これは、人間の目が見ることができるものに関連しています。

そのため、古典的な例は、外の日光のある室内です。人間の目が内部から外部を見ることになると、虹彩が収縮して入る光の量が減り、内部の詳細だけでなく外部の詳細も見ることができます。

カメラはそれをしませんので、通常は部屋の内部(およびブローハイライトを取得する)、または外部(露出不足の内部を取得する)のいずれかを露出するか、2つのショットを撮ってHDRコンポジットを作成する必要があります。

Rawのより高いダイナミックレンジにより、シングルショットを撮影し、特定のエリアを選択的に「プッシュ」または「プル」して、露出オーバー/アンダー露出エリアの詳細を明らかにすることができます。

ここのショットは、この種のシナリオを示しています。https://www.camerastuffreview.com/camera-guide/review-dynamic-range-of-60-camera-s


3
...is that you can post-process them to bring the bits you're interested in within the rnage that the human eye can see.モニターが表示できる 範囲に必要なビットを押し込めると言った方が正確です。人間の目は、14ビットのRAW画像よりもさらにダイナミックレンジがあります。目に見えるものではなく、そのダイナミックレンジをすべてキャプチャして、後で標準ビデオデバイスのディスプレイダイナミックレンジに圧縮できるようにすることです。
J ...

2
いいえ、ディスプレイのダイナミックレンジは、それを改善するのが技術的に困難で費用がかかるためです。14ビットのディスプレイは素晴らしいでしょう。ダイナミックレンジが広いほど、色空間が広くなり、より鮮やかで、カラフルで、正確な画像が得られます。たとえば、私のプライマリディスプレイは、内部的には12ビット(ルックアップ経由でも)のパネルで、AdobeRGB色域の99%を生成できます。これと通常の8ビット(通常は約6ビットが有効)sRGBパネルとの違いは信じられないほどです。ダイナミックレンジが大きいほど常に優れています。
J ...

1
ダイナミックレンジではなく、よりカラフルな画像を表示するため、精度のためにここにある色空間とsRGBのカバレッジ、較正及び「ビット」とは無関係である
szulat

1
@J ... en.wikipedia.org/wiki/Adaptation_(eye)「どんな瞬間でも、目は千のコントラスト比しか感知できません。」= 10ビット。
ロディ

1
@Roddyはい、しかし、方程式には絶対的な明るさと暗さ以上のものがあります。上記のように、色の解像度も重要です。
J ...

-3

'Wikisperts'は、処理するビット深度に関係なく、結果が8ビットでしか表示されないことを忘れています。8ビットシステムに3ビットファイル(8レベル)を貼り付けると、ディスプレイは8レベル(256/7 = 0〜7)0〜255を36ステップで表示します。4ビットは16(0〜15)を表示します。10、12、または14ビットのファイルを挿入すると、256レベルが表示されます。ビデオカードは1024、4096、または16,384レベルを256に変換します。これが、ロードするすべてのRAWファイルがビデオプロセッサに提供されるとすぐに8ビット(256)レベルになる理由です。私は医学物理学で働いていましたが、ほとんどの画像部門は現在、乳房スクリーニングなどのために12ビットの画像を持っています。ただし、人間の目では900を超えるレベルを検出できないため、組織密度のわずかな変化を検出するためにソフトウェアが使用されるため、10、14、または14ビットシステムを持っている人に会ったら、彼らは借金が多く、がっかりするでしょう。偶然にも、色の変化を検出するのに苦労しており、バンディングに気付く同様の色相のわずかな変化がない限り、ビジョンは1600万色未満にロールオフします。私たちのカメラは約4兆色に対応していますが、多くのことと同様に、理論的に可能なことと実際に可能なことは2種類の非常に異なる動物です。


1
8ビットモニターで見るものは、14ビットファイルにあるものではありません。前の回答で述べたように、より多くの情報が常に優れているようです
オリビエ

シンプルにしましょう。写真を生で取り、生のファイルからjpgを作成します。利点を確認するには、jpgをカメラで生成されたjpgと比較してください。それはプロレンズとゴミレンズの違いです。
Bob_S

レンズについての議論を説明できますか?私にとっては、この議論とは関係ありません。12ビットのダイナミックレンジを持ち、後処理後に保持するものを選択することは、レンズの品質とはまったく関係ありません。はい、8ビットの画面で12ビットのダイナミックレンジを見ることができ、EV補正で遊ぶだけです!
オリビエ

いいえ、あなたがすることはできません。8ビットよりも小さいまたは大きいファイルを提供するかどうかに応じて、8ビットディスプレイにはn / 256または256 / nレベルが表示されます。PSの調整により、これらのビットが選択されるポイントを調整できますが、表示されるビットは制御できません。つまり、ビット間のギャップが同じになるため、データが失われます。持っていれば、私たち(1人のNHS)は、8ビット画像以下の12ビット画像機器に46,000ポンドを費やすことはありません。
Bob_S

目に見えないダイナミックレンジを活用して画像を作成できることについて、あなたは何を理解していないのでしょうか。12ビットのダイナミックレンジを持つファイルがある場合、必要な8ビットの範囲を表示することを選択できます。これは簡単です。あなたが写真家であれば、これがどれほど重要かを理解するでしょう。ハイライトと影にディテールを持つことが誰にとっても夢です。このテーマについてはこれ以上詳しく説明しません。以前の回答を読んでください。
オリビエ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.