クロップセンサーカメラを使用した低解像度での撮影は、フルフレームカメラの品質を模倣していますか?


12

焦点距離の変更について話しているのではありません。

フルフレームカメラでは、クロップセンサーカメラに比べてピクセル密度が低いため、より多くの光を取り込むため、ISOパフォーマンスが向上し、ダイナミックレンジが広くなるという記事を多く読んでいます。クロップセンサーカメラで低解像度で撮影するように変更した場合、それはより良いピクセル密度に相当し、フルフレーム(またはミディアムフォーマット)のパフォーマンスを模倣しますか、それとも常に最大解像度で撮影してサイズを縮小しますか?

-編集:1--
Canon 60Dを使用し、RAW画像サイズ(RAW、M-RAWおよびS-RAW)の3つのオプションがあります。RAWがカメラセンサーからの単なるダンプである場合、どのように3つの異なるサイズにすることができますか?カメラもRAW画像を縮小しますか?


2
Vivek -この質問読み:photo.stackexchange.com/q/3419/1024を。@whuber(および彼がリンクしている記事)によれば、小さなRAWは確かに、Stanが答えで説明したように、ハードウェアではなくソフトで行われるように、個々の感覚の集合体です。
-ysap

(ページのysapリンクは、質問のmraw / sraw部分をカバーしています。)
プロファイルを読んでください

ysapのドキュメントを読んでコメントします。
Viv

回答:


7

キヤノン、低いRAWモード、mRAWおよびsRAWがある場合、利用可能なセンサーピクセルをすべて利用して、ベイヤー補間を必要とせずに、より豊かな結果を生成します。実際の出力形式は、まだ.cr2 Canon RAW画像ファイルに含まれていますが、多くのビデオプルダウン形式と同様に、Y'CbCr形式でエンコードされます。FULLピクセル(赤1、青1、緑2ピクセルの2x2クワッド)ごとに輝度情報を保存し、各クロミナンスチャネルはハーフピクセルデータ(赤1 +緑1または青1 + 1緑1 x 2のペア)から派生します。

特定の低レベルハードウェアの読み取りとエンコードの違いがmRAWとsRAWの違いであるかどうかは正確にはわかりませんが、一般的に言えば、出力形式が小さいほど、各出力ピクセルに使用できるセンサーピクセル入力情報が多くなります。どちらの形式もネイティブのRAWよりもはるかに少ない補間を行うため、m / sRAWに存在する少量の補間は意味がありません。また、mRAWもsRAWも通常の意味での実際の「RAW」形式ではないことに注意してください。センサーデータは.cr2ファイルに保存される前に処理され、他の何かに変換されます。

YUVから派生した形式とCanon sRAWの詳細については、こちらの回答を参照してください。 xvYCC色空間が静止写真の普及を見ないのはなぜですか?

「Canon RAW .CR2ファイルに保存されている内容を理解する」から:

sRaw形式(「小さなRAW」)は、2007年に1D Mark IIIで導入されました。これは、RAW画像の小さいバージョンです。

1D Mark III、1Ds Mark III、40D(すべてDigic IIIを使用)の場合、sRawサイズはRAWサイズのちょうど1/4(1/4)です。したがって、4つの「センサーピクセル」の各グループがsRawの1つの「ピクセル」に要約されると想定できます。

50Dおよび5D Mark II(Digic IVチップ)では、1/4サイズのRAWがまだあり(sRaw2)、ハーフサイズのRAWも表示されます:sRaw1。7Dでは、半分のサイズのrawはmraw(sraw1と同じエンコード)と呼ばれ、1/4のrawはsraw(sraw2など)と呼ばれます。

sRawロスレスJpegは常に3色成分(nb_comp)と15ビットでエンコードされます。

DcrawのJpegコードは、最初のコンポーネントのh = 2値(表の灰色の背景)のために、sRawを処理するように最初に変更されました(8.79)。通常のRAWは常にh = 1です。50Dからは、v = 1の代わりにv = 2(表のオレンジ)があります。Dcraw 8.89は、これと50dおよび5D Mark IIのsraw1を処理する最初のバージョンです。

「h」は水平サンプリング係数、「v」は垂直サンプリング係数です。各MCUでエンコードされる水平/垂直データユニットの数(最小コード化ユニット)を指定します。T-81、36ページを参照してください。

3.2.1 sRawおよびsRaw2形式

h = 2は、解凍されたデータに最初のコンポーネントの2つの値、列nに1、列n + 1に1が含まれることを意味します。他の2つのコンポーネント(解凍されたsrawおよびsraw2(すべてh = 2およびv = 1を含む))には、常に4つの基本値があります。

[y1 y2 xz] [y1 y2 xz] [y1 y2 xz] ...
(最初のコンポーネントのy1およびy2)

sRAWおよびmRAW画像のすべての「ピクセル」には、4つのコンポーネントが含まれています...分割されたY 'コンポーネント(y1およびy2)、x(クロミナンスブルー)およびz(クロミナンスレッド)。4つのコンポーネントすべて(1/2画像の観点から、sRAW1 / mRAW)の列の高さは2(h)、幅は1(v)です。これは、輝度値(Y ')がFULL 2x2ピクセルクワッド...またはy1とy2に格納された2つの2x1ピクセル列で構成されていることを示します。

以下の参照はこれを具体的に述べていないようですので、ここで少し推測していますが、sRAW2(1/4 raw)では、輝度情報はh = 4およびv = 2である4x4ピクセルブロックから導出されると考えています。センサーのベイヤーカラーフィルターアレイがきれいな赤と青の列に配置されていないため、1/4サイズの画像ではクロミナンスのエンコードがより複雑になります。CrおよびCbコンポーネントごとに2x1の高さの列を交互に処理するのか、または他の形式の補間を実行するのかはわかりません。1つ確かなことは...ソースデータの補間は常に出力データよりも大きく、私が知る限り、(通常のベイヤー補間のように)オーバーラップは発生しません。

最後に、sRAW1 / mRAWおよびsRAW / sRAW2は、ロスレス圧縮アルゴリズムを使用して圧縮されます。これは、これらの形式とJCCの重要な違いです。JPEGでは、yccタイプのエンコードも使用されます。JPEGは非可逆圧縮を実行し、ピクセルを元の正確な表現に戻すことを不可能にします。キヤノンのs / mRAW形式は、元の完全精度の15ビット画像データに復元することができます。

参照:


8

理論的には、それができました、カメラが画像サイズを縮小するための適切な戦略を使用していればです。

ご指摘のように、現在のクロップセンサーカメラでは、設定したJPEGサイズに関係なく、未加工の画像は同じままです。JPEG画像は単純に拡大縮小されます。これにより、ノイズの外観を多少減らすことができますが、その削減は画像スケーリングアルゴリズムによるものです(フルサイズバージョンにできる限り多くの細かいピクセルを小さな画像に収めることはできません)。ただし、ノイズ削減と事後のスケーリングを行うと、少なくとも同じくらい良いことはできますが、良くない場合は可能です。

真のノイズリダクションを生成する戦略があります。一部の高解像度ミディアムフォーマットバック(Phase One SensorPlusシリーズと同様)は、ピクセルビニングと呼ばれる戦略を使用します。。ここでは、隣接するセンサーのグループが1つの非常に大きなセンサーとして扱われ、その累積電荷がセンサーから読み取られます。これは、個々の料金の読み取りと平均化(読み取り後処理で制限されるもの)とは異なります。ハードウェアレベルで発生し、「生」の意味を変更します。読み取りノイズは相殺される可能性が高く、累積電荷によりアナログからデジタルへの変換があいまいになりません(変換された量子の範囲は増幅が少なくなります)。

実際には、これは通常、解像度を4倍(幅の半分と高さの半分)に削減することを意味します。60または80メガピクセルの中サイズのバックでは、15または20メガピクセルの画像が残ります。16MPクロップセンサーカメラを使用すると、4MPの未加工画像になります。ノイズの多い16MP画像よりもクリーンな4MP画像の方が優れていることはご存知かもしれませんが、小さな画像を作成するのに余分な費用がかかるという考えに皆が賛成するわけではありません。つまり、すぐにプロレベルのカメラ以外のものでピクセルビニングが使用されることはまずありません。解像度が上昇し続ける場合、フルフレームカメラに表示される場合がありますが、作物センサーでは探しません。(まあ、多分ペンタックスはフルフレームをしないので、いつか刺すかもしれません。)


RAW画像のサイズについて明確にする必要があると思います。Canon 60Dを使用しており、RAW画像サイズ(RAW、M-RAW、S-RAW)の3つのオプションがあります。RAWがカメラセンサーからの単なるダンプである場合、どのように3つの異なるサイズにすることができますか?カメラもRAW画像を縮小しますか?
Viv

@Stan:キヤノンは、mRAW形式とsRAW形式で既に説明したとおりのことを行っています。これらはリテラルRAW形式ではなく、YUV派生物(正確にはY'CrCb)であり、実際にピクセルビニングの形式に対応しています。詳細については私の答えをご覧ください。
jrista

未来について:本当の制限はセンサー領域です。センサーのサイズが同じままで、解像度が上がる(ピクセルを縮小する)場合、ピクセルのビニングによる正味のゲインはありません。センサーの同じ物理領域を読み取るために、より多くのセンサーを使用するだけの問題です。私たちが期待できるのは、個々のセンサーの感度の向上です。これにより、センサーの任意の小さな部分でより多くの光とより少ないノイズが記録されます。
-whuber

1
@jrista:ビニングではなく、読み取り後の平均化です。ビニングでは線形解像度が完全に低下する必要があります。また、個々のフォトサイトデータは、複数のセンサーで累積読み取り(個別ではなく、平均読み取り)が実行されるため、処理できません。(Bayer-quadシステムでは、面積またはピクセルとして表されるフル解像度の1 / 4、1 / 16、1 / 64などを意味します。)技術的には、読み取り後の平均化はスケーリングと変わりません。別のデータ空間で動作しているだけです。

1

高ノイズが主な問題である場合、1つの解決策は、複数のフレームを撮影し、優れたアルゴリズムを備えたソフトウェアにいくつかの悪い画像から1つの良い画像を結合させることです。たとえば、ALE、アンチラーミングエンジンがこれを行います。動いている被写体の場合、これは明らかに機能しませんが、たとえばISO 1600でハンドヘルドを撮影し、ショットを組み合わせてISO 400または800に近いノイズレベルに到達することができます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.