拡張色空間の1つと通常のsRGBを使用すると、どれくらいの違いが生じますか?そして、それはどのような違いをもたらしますか?
それが重要ではない状況があり、逆に拡張色空間の使用が不可欠な状況はありますか?
拡張色空間の1つと通常のsRGBを使用すると、どれくらいの違いが生じますか?そして、それはどのような違いをもたらしますか?
それが重要ではない状況があり、逆に拡張色空間の使用が不可欠な状況はありますか?
回答:
ysapが述べたように、色空間は紛らわしい問題になる可能性があります。この質問に対する正しい答えは1つではありません。画像の「最終コピー」で何をしようとするかによって、使用する色空間と、ある色空間から別の色空間に変換するタイミングが決まります。
少し時代遅れになっていると思いますが、sRGBは今でも「最も安全な」色空間です。多くのプロフェッショナルな印刷サービスでは、印刷にsRGBが必要です(ただし、最近では多くのプロフェッショナルな印刷サービスがAdobeRGBまたはProPhoto RGBをサポートしているため、変化しています)。Webに画像を公開する場合、多くのWebブラウザーは適切なICMをサポートしていないため、sRGBは最終画像を変換する最も安全な色空間でもあり、画像に埋め込まれたプロファイルに関係なくsRGB空間でのレンダリングがデフォルトです。
一方、処理ワークフローで使用する色空間は、より複雑な話です。まず、コンピューターやプリンターが通常レンダリングできるよりも、カメラは緑の領域をはるかによく見ます。RAWで作業し、ワークフロー全体で元の色の精度をできるだけ維持したい場合は、画像を可能な限り広い範囲に保つのが最善です。ミュートされたシーン、または色が制限されたシーン、特に彩度が低いシーンで作業している場合、より狭い色域が理想的です。LightroomやApertureのようなツールを使用する場合、RAW画像はかなりの量のProPhoto RGB色域を使用するというデフォルトの仮定を行うため、通常、RAW処理時の広い色域の使用は自動的に行われます...人間の色知覚を表すLABスペースのほぼ全体をカバーします。RAWからTIFFへの変換は、デフォルトでは、特に指定しない限り、ProPhoto RGBでTIFF画像を保存します。(RAWで直接作業する場合、RAW画像は一般に色域でまったくタグ付けされていないため、色域は実際には考慮されません。)
コンピューターの画面とプリンターの両方の最新のプロの写真ハードウェアはすべて、ベースまたはリファレンスの色域としてAdobeRGBに移行しています。Apple Cinema Display、NEC、Eizo ColorEdge、またはLaCie 700 RGB-LEDシリーズモニターのような最高級のLCDスクリーンは、すべてAdobeRGB色域の98〜123%をサポートしています。エプソンとキヤノンの最新のプリンター、特にプロシューマーモデルだけでなく、現在はプロフェッショナル/商用ラインも、AdobeRGB色域の98%以上をサポートしています。エプソンのプリンターはsRGBとAdobeRGBの領域を超えてより多くの青と紫をカバーする傾向がありますが、キヤノンはsRGBとAdobeRGBの領域を超えてより多くの赤と緑をカバーします。したがって、プログレードの広色域LCDスクリーンで写真を処理し、プロシューマーエプソンまたはキヤノンプリンターで写真を印刷することが目的の場合、
広い色域から小さな色域に変換することは、ワークフローの重要なステップです。さまざまなレンダリングインテントがあります色空間間で変換するとき。最も一般的な2つは、知覚精度を犠牲にして元の色値の精度を維持することを目的とする相対比色意図と、元の色値の精度を犠牲にして知覚の精度を保持することを目的とする知覚意図です。ある色域から別の色域への変換は、できる限り頻繁に行う必要があります。理想的には、特定のメディアの「最終コピー」イメージを生成するまでRAWで作業し、その時点でその最終コピーを適切な色域に変換します。Web用に保存する場合、最適な色域はsRGBです。印刷用に保存する場合は、印刷のために印刷ラボに送り、sRGBを必要としない限り、AdobeRGBを選択します。
変換するときは、白と黒のポイント、曲線、コントラストを正しく設定することが重要です。Webで表示するためにsRGBに変換する場合、白と黒のポイントはそれほど重要ではありません。印刷の場合は、最終色域に変換する前に、まず画像をソフトプルーフし、白と黒のポイントを微調整することをお勧めします。元の画像と変換後の画像を変換して比較し、重要な領域で鮮やかさや彩度を失っていないことを確認してください。広い色域から狭い色域に変換する場合、色を失う可能性のある重要な領域は緑と濃い青になります。ソースの色域と宛先の色域の色の違いが大きい場合、特にその特定の色がグラデーションで見つかった場合、ポスタリゼーションまたはクリッピングが発生する可能性があります。そのような場合、彩度を調整したい場合があります。白と黒のポイントを使用して、元の画像で使用している色の範囲を減らします。これにより、目的の色空間への色の圧縮量が減り、ポスタリゼーションとクリッピングが軽減または排除されます。
いくつかの一般的な経験則について:
それは、出力メディア、より正確には、オブジェクト、ストレージ形式、出力メディアの関係に依存すると思います。問題は、拡張スペースで作業する場合、メディアがソースよりも制限されている画像を実際に印刷または表示する最後の段階で、何らかの再マッピングを行う必要があることです。このプロセスでは、アーティファクトが発生する可能性があります-極端なトーンの飽和、または色空間の再スケーリングによるバンディング。
とはいえ、ソースが十分に豊富で極端な場合にこれらのアーティファクトに本当に気付くと思います。
編集:上記を明確にするために-実際のシーンの色範囲が狭い場合、広い色域を使用すると、実際に画質が低下します。シーンをデジタル化するプロセスでは、使用可能なスペースから実際に使用される色が少なくなるためです。この場合、より狭い色空間を使用することをお勧めします。そのため、サンプリングされたシーンの色解像度はより細かくなります。
同様の質問に関するImreの回答を読むことをお勧めします。https://photo.stackexchange.com/a/17495/4859
異なる色空間の効果を視覚的に示します。とても助かりました。