タグ付けされた質問 「raw」

RAWは、センサーによってキャプチャされた完全なデータを含むいくつかのネイティブデータ形式のいずれかを指します。通常、これらは独自の形式であり、各企業は独自の形式を使用しています。

9
今日の画面でのガンマ補正の目的は何ですか?また、グラフィックスや写真とどのように関係していますか?
私は、ガンマ補正の目的と、グラフィックと写真の観点からガンマ補正された画像と補正されていない画像の関係、および一般的な色管理(リニアRGBからガンマ補正されたRGBスペースへの変換と、画面)。 多くの情報源、主からhttp://www.guillermoluijk.com/article/gamma/index.htmと質問のStackOverflowで#23026151(ドIの必要性ガンマに現代のコンピュータ/モニター上の最終的なカラー出力を補正?)、I」次の結論に達しました。 ガンマ補正はもともと、CRTモニターの入力信号に対する非線形応答を補正するために設計されました。CRTは入力信号自体を増幅することができなかったため、PCからの出力信号を調整して(今日の時点で)標準のガンマ2.2補正とsRGB色空間を生成する必要がありました。 ただし、最新の画面は、CRTのように信号損失の影響を受けません。それらもいくつかの非線形性を示す可能性がありますが、入力信号はほとんどの場合チャネルあたり8ビット(256シェード)だけで運ばれるため、可能であればおそらく色再現自体の非線形性を補正できるはずです。 1つのチャネルで256を超えるシェードを再現する。これは、ガンマ補正とsRGBおよびすべてのガンマ補正された色空間がCRT時代の遺産であり、その唯一の目的は入力信号を線形に表示することであったことを意味します。 また、人間の視覚の非線形性を補正するためにガンマ補正がここにあると主張する記事があります(CambridgeInColour.com-ガンマ補正を理解する)これは、暗い色合いの小さな違いを見つけることができるので、ガンマ曲線にほぼ対応する必要がありますが、明るい色合いではうまくいきません(点の明るさは指数関数的に増加する必要があります明るく見える)。これは、カメラセンサーがシーンを記録する方法ではありません。センサーからの生データはリニアRGBで取得され、ガンマ補正されたRGB色空間に展開されます(影が上がり、ライトが暗くなります)。ただし、ガンマ補正は出力信号の損失を補正するためのものであるため、最新の画面では、CRTの動作をシミュレートしてガンマ補正をキャンセルし、カメラでキャプチャされたようにシーンを表示します-大まかに言えば、カメラのマッピングスクリーンのものと1:1の濃淡。上手、 それは、RGBカラースペースのすべてのシェードが、リニアRGBを含む他のすべてのRGBスペースでまったく同じRGB値を持つ必要があることを意味しますか(たとえば、sRGBの#010A1Fは、 8bpc)そして、色の転送を調整する方法と、画像を目的の色空間に変換するためにいずれかの側が追加の再計算を実行する必要があるかどうかは、画面とグラフィックアダプター次第ですか?つまり、グラフィックエディターで色空間を変更しても、実際にはRGB値自体とは関係がなく、画像メタデータの新しい色空間のみに注意しますか?デジタルグラフィックアダプター/画面インターフェイスが使用されている場合、カラーマネジメント自体は役に立たないため、これは当てはまらないと考えています-グラフィックアダプターは、アナログゲイン(ガンマ)が使用されないため、使用される色空間に関係なく単純なRGBデータを送信できます0から255までの線形スケールでの値に適用されます。また、丸め誤差が発生しない場合、異なるカラープロファイルの色域は同じになりますか? 私の最後の混乱は、おそらくhttp://www.guillermoluijk.com/article/superhdr/index.htmのカラープロファイル変換と露出レベルのテーブル(最初のレベル)の誤解に由来しています(グーグル翻訳)。線形関数は指数関数(または逆ガンマ)を使用して変換され、階調範囲を影に向かって縮小し、画像を暗くすることを正しく理解していますか?これは、線形RGBを保存し、ガンマ補正された画像としてコンピューター画面に表示するとどうなりますか? このような複雑な質問をしたことをおpoびしますが、発生するすべての不確実性を説明する本当に良い情報源を見つけることは非常に困難です。私の誤解を修正するのに役立つかもしれない答えを事前にありがとうございます。

4
RAWで撮影するとき、カメラが露出オーバーを許容するのはなぜですか?
私のカメラ(Sony A99)は、RAWでの撮影時の露出過剰という点で非常に寛容です。つまり、停止などで露出オーバーになる可能性があり、後処理のために家に帰ると、露出を下げてすべての詳細を戻すことができます。 もちろん、これはjpegでは機能しません。ヒストグラムの最も右側の領域を超えるデータはありません。ただし、RAWとは異なり、データは魔法のようにヒストグラムに戻ります。どうして?カメラは、間違えた場合に備えてヒストグラムの領域を予約していますか?もしそうなら、これは私が正しく撮影した場合(完全に露出した場合)、ある程度の緯度が失われることを意味しませんか? また、なぜこれは露出過剰にしか利用できないのですか?しかし、露出不足ではありませんか?押しつぶされた黒い領域から詳細を引き出すことができるとは思わない。

4
カメラ内部の後処理を再現するにはどうすればよいですか?
生の画像をいじり始めました。Raw Therapeeで生画像を開くと、カメラによって生成されたJPEGとは完全に異なって見えます。 (左は生、右はJPEG) カメラ内部のポストプロセッシングを再現できれば、カメラの機能とプロセスで失われる情報をよりよく理解できると思いました。問題は、JPEGに近づくことさえできないことです! だからここに私の質問があります: Raw Therapeeのどの設定が(大まかに)カメラによって行われる自動後処理に対応するかを把握する方法はありますか?または、個々の手順についてより良い感覚を得るまで、試行錯誤を繰り返していますか?


5
Windows 7でRAW、DNG、PSD、TIFF、およびその他のファイルのサムネイルを表示する
Windows 7でデフォルトのファイルタイプ(GIF、JPG、BMP、PNG)以外のサムネイルを表示する方法があるかどうか興味があります。DNG、CRW、CR2、TIFFなどの他の形式を使用する傾向があります。悲しいことに、Windowsはこれらの画像のサムネイルプレビューをデフォルトでサポートしていません。 以前のバージョンのWindowsではいくつかのレジストリハックを使用していましたが、Vista / 7では動作しなくなったようです。現在、Windows 7 64ビットを実行しています。

3
14ビットRAWは12ビットRAWよりも優れていますか?
通常のJPEG画像には、各ピクセルのトーンに関する情報を保存するための8ビットしかありません。画像をRAW形式(DNGなど)で保存する場合、ピクセルあたりのビット数を増やしてトーンを保存できます。これにより、コンピューターでの処理の範囲が広がり、オプションが増えます。 私の現在のカメラは写真を12ビットDNGとして記録でき、通常はRAWを使用します。DSLRの新しいモデルでは、ピクセルあたり14ビットを保存できることに気付きました。私には、これらの2ビットを取得することは大きな利点のように見えますが、実際には大きな違いはありますか?後処理に違いはありますか?違いは、画像の暗い部分(露出不足)またはハイライト(露出過度)部分でより大きくなりますか?

6
異なるRAWコンバータープログラムはどのように異なる結果をもたらすことができますか?
PhotoShop、Lightroom、Picasa、PaintShopProなどの有名なプログラムではなく、さまざまなRAWコンバーターが存在することをいくつかの場所(写真雑誌、ウェブサイトなど)で読んだことがあります。 RAWコンバーターごとに違いはありますか?なぜ使用するのでしょうか?つまり、RAWファイルは基本的に各ピクセルを記録するだけではなく、RAWコンバーターはフォトエディターで使用できる形式のファイルを開くだけではありませんか?

2
なぜ画像のヒストグラムがそれを開いたソフトウェアに依存するのですか?
PhotoshopとPaintshop proで生の画像を開くと、ヒストグラムと外観が異なります。ただし、両方のソフトウェアでJpegイメージを開くと、ヒストグラムと外観は同じです。何が原因ですか?私は写真に精通していませんが、理解したように、生の画像には色を適用するための何らかのアルゴリズムが必要です。それは違いの起源ですか?Painshop pro 2018でさまざまなアルゴリズムを適用するにはどうすればよいですか?以下は、ここから撮影した画像の例です。

5
RAW専用モードで撮影したときに、カメラ内で生成されたJPEGプレビュー画像を保存できますか?
(RAW + JPGではなく)RAWのみのモードで撮影する場合、ほとんどの(すべて?)カメラも現在のスタイル設定を使用してJPEGプレビューを生成します。これは、最初にイメージをLightroomにインポートしたときに瞬間的に表示されるものであり、カメラのLCDに表示されるものでもあります。(画像スタイルを白黒に切り替えると、これが非常にはっきりとわかります。カラー画像で上書きされる前に、カメラのLCDとLightroomで白黒が表示されます。) 私の質問は、カメラからのプレビューを別のJPEGファイルとして保存する方法はありますか? もしそうなら、どのように? (RAW + JPGを最初に撮影することがこれを達成するための最良の方法であることを知っていますが、この質問で提起される問題について特に考えていました。)
12 dslr  raw  preview 

2
なぜ元のRAWをDNGに含めたいのでしょうか?
Lightroomがメタデータを実際のファイルに埋め込むことができ、「高速インデックス」機能によりハードウェアのパフォーマンスが大幅に向上するため、写真をNEFではなくDNGに変換し始めることに興味があります。 これを検討していると、Lightroomには、作成するDNGにソースRAWを埋め込むオプションがあることに気付きました(DNGモードを使用している場合)。ファイルのサイズが2倍になり、(理論上)NEFとDNGには同じ情報が含まれます。DNGに変換されるときに発生する何らかの情報の損失または不利益(ワークフローでの変換ステップを必要とする以外)はありますか?
12 lightroom  raw  dng 


3
HDRを作成する前にRAWをjpegに変換する必要がありますか?
私はこれを行ったり来たりしています。プロセスの感触をつかむために、HDRとの連携をさらに検討しています。私は500Dを使用しており、露出ブラケットを使用して3つのショットを撮影しています。0、-2、および+2 EV。PhotoshopでHDRツールを使用してきましたが、3つのRAWファイルを入れるだけで最良の結果が得られるのではないかと思います。 RAWファイルを使用してギャップを埋め、JPEGに変換することにより、-3から+3にファイルを拡張することを検討しました。 要約すると、HDRを作成するときにRAWまたはjpegを使用する方が良いでしょう。また、JPEGを使用したほうが良い場合、できるだけ多くの異なる露出を得るためにRAWを使用する必要がありますか?
12 raw  hdr  jpeg 

2
Capture NXからそのような出力を取得するには、どのLightroomインポートプリセットを使用する必要がありますか?
NEF写真をLightroomにインポートすると、Capture NXにインポートしたときのように見た目が良くありません。色が少し濁って見え、コントラストが不足しています。 これは、Lightroomで見栄えを良くするためにもう少し作業を行ったことを意味します。 インポート時に使用できるプリセットはありますか?これを使用して、Capture NXでの写真のように見せることができますか?
12 nikon  lightroom  raw 

8
同じカメラの生画像は同じサイズですか?
複数のコンピューティングデバイス間で負荷を分散しようとしているプロジェクトがあります。これらのデバイスは類似しており、カメラセグメントを持つことが想定されています。デバイスは画像をキャプチャしてから、画像を処理します。 簡単にするために、負荷をプロセスキューで待機しているイメージの数と見なしたいと思いますが、これには、イメージのサイズと仕様が同じである必要があります。 だから私の質問は、同じカメラの画像は同じサイズですか?画像を圧縮して.jpeg形式に変換すると、おそらくサイズが変わることはわかっていますが、同じカメラの未加工画像はどうですか?生の画像は同じサイズですか?
11 raw 


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.