有効なピクセルが実際の解像度よりも大きいのはなぜですか?


16

このページでは、 Canon EOS 550DとCanon EOS 500Dカメラを比較し、言及しています

1870万有効ピクセル

550D用。ただし、このカメラを使用して可能な最高の解像度は

5184 * 3456 = 17915904 ~ 17.9 million pixels

有効ピクセルとは何ですか?この場合、なぜその数は1790万を超えるのですか?


1
また、「解決」には2つの意味があることに注意してください。コンピューターでは、画面または画像のピクセル寸法を参照するために使用します。また、コンピューターの描画または生成された画像では、これは通常、「実際の」解像度(画像で実際に解決された詳細の量)に対応します。しかし、写真では、必ずしもそうではありません。
mattdm

1
それはここで何が起こっているのかいないのです-ちょうど追加の混乱の源。
mattdm

回答:


9

一部、我々はここで見ているものがある(私は合理的に確信している)以上何も、単純なタイプミス DPReview.comの一部に(そのためにか何か)。Canonよると [PDF、225ページ]、センサーのウェル数は「約18.00メガピクセル」です。

次に、Bayerパターン入力がほとんどの人がピクセルと考えるものに変換れると、これらは約17.9メガピクセルに削減されます。違いは非常に簡単です。センサーの各ウェルは1色の光のみを感知しますが、出力(たとえば、JPEGまたはTIFFファイル)で通常予想されるピクセルには、各ピクセルに3色があります。一見したところ、ファイルには入力のセンサーウェルの約3分の1のピクセルしかありません。明らかに、そうではありません。以下に(簡略化した)仕組みを示します。

単純化されたベイヤーパターン

各文字は、センサー上の1つのウェルを表します。各ボックスは、出力ファイルに含まれる1つの3色ピクセルを表します。

センサーの「内部」部分では、各出力ピクセルは4つのセンサーウェルからの入力に依存しますが、各センサーウェルは4つの異なる出力ピクセルへの入力として使用されるため、入力数と出力数は変わりません。

ただし、周辺には、4つではなく2つのピクセルのみに寄与するセンサーウェルがあります。コーナーでは、各センサーは1つの出力ピクセルにのみ寄与します。

つまり、出力ピクセルの総数はセンサーウェルの数よりも少なくなります。具体的には、結果は入力と比較して1行1列小さくなります(例では、8x3センサーがありますが、7x2出力ピクセルがあります)。


特に図では+1。しかし、これは2(5184-1 + 3456-1)=約17Kピクセルが存在しないことを説明するので、私はまだ困惑しています。境界から少なくとも3倍のピクセルを取り除く必要があるように見えます(50K未満の場合は0.0Mに切り捨てる必要があるため)。おそらく、デモザイキングは、ここに示されている2 x 2の近傍よりも大きい近傍を使用している可能性があります。
-whuber

1
@whuber:率直に言って、残りを直接説明できるかどうかはわかりません。単一の出力ピクセルを生成するためにより多くのセンサーを使用することは確かに可能ですが、この場合にキヤノンが行っていることを知る本当の方法はありません。カメラからのRAWファイルは、センサ井戸の正確な数を与えるだろうが、それでもキヤノンは、出力Yに入力Xから取得している正確にどのように教えてくれないだろう
ジェリー棺

3
優れたデモザイキングアルゴリズム(例:適応均一性指向)では、各センサーが4つ以上の出力ピクセルに大きく貢献するため、行または列が1つ以上失われます。dcrawからデモザイクされていない出力を取得し、画像の寸法をCanonのDPPの出力と比較して決定的な答えを得るのは簡単です。時間があるときに試してみます。
マットグラム

@Matt Grum:そうですね-振り返ってみると、私の以前のコメントはかなり言いにくいです。私が取得しようとしていたことは、ピクセルの行/列を3つまで失う/破棄する可能性のある(および破棄する)いくつかのアルゴリズムがあることですが、ピクセル数だけでは使用しているものはわかりません。ただし、出力ピクセルごとにより多くのセンサーを使用するより洗練されたアルゴリズムを使用することは事実上与えられています。
ジェリーコフィン

5

DPReviewで「効果的」という用語が使用されている理由はわかりませんが、チップ上のフォトサイト(ピクセル)の数と結果の画像のピクセルサイズが一致しない理由がいくつかあります。

一部のカメラセンサーには、両側にマスクされたピクセルのストリップがあります。これらのピクセルは、光を受け取らないことを除き、センサー上のピクセルの大部分と同じです。それらは干渉を検出し、光に敏感なピクセルによって生成された信号からそれを差し引くために使用されます。

第二に、[良好な]デモザイクアルゴリズムは、多くの「近傍演算」を使用します。つまり、ピクセルの値は、隣接するピクセルの値にある程度依存します。画像の端にあるピクセルには隣接ピクセルがないため、他のピクセルに寄与しますが、画像の寸法には追加しません。

カメラが他の理由でセンサーを切り取る可能性もあります(レンズのイメージサークルがセンサーを完全にカバーしていないなど)。ただし、550Dの場合はそうではありません。


境界ピクセルは干渉を除去するために使用されていますか、それとも単に黒点を設定するために使用されていますか?
mattdm

1
両方とも、干渉がなければ(熱応答を含む)、ブラックポイントは0になります
マットグラム

DPReviewの説明。まるで2つの反対の概念の間を行き来するように思えますが、暗黙的にを除き、実際に用語を定義しているとは思いません。あなたの答えは少し役立つと思いますが、dpreviewページはいくつかの可能性を提供しますが、なぜ「効果的な」ピクセルが実際の写真サイトよりも大きいのか疑問に思っています。効果的:画像データの作成に使用しましたか?または、最終的に画像の日付が影響を受けますか?(注:効果動詞とe:存在の作成。)私はまだそれらが何を意味するのか疑問に思っています。
リンデス

5

有効なピクセルが実際のセンサーピクセル(センサー要素、またはセンサー)の数より少ない理由は2つあります。まず、ベイヤーセンサーは、単色の光を検知する「ピクセル」で構成されています。通常、赤、緑、青のセンサーがあり、行ペアで次の形式で編成されています。

RGRGRGRG
GBGBGBGB

私たちの多くが慣れ親しんでいる単一の「ピクセル」、コンピューター画面のRGBスタイルピクセルは、4つのセンサー、RGBGカルテットを組み合わせることにより、ベイヤーセンサーから生成されます。

          R G 
(sensor)       -->  RGB (computer)
          G B

4つのRGBGセンサーの2x2グリッドを使用して単一のRGBコンピューターピクセルを生成するため、センサーのエッジに沿ってフルピクセルを作成するのに十分なピクセルが常にあるとは限りません。これに対応するために、通常、Bayerセンサーにはピクセルの「余分な」境界線が存在します。センサーの完全な設計を補正し、キャリブレーションピクセルとして機能し、通常IRおよびUVフィルター、アンチエイリアシングフィルターなどを含む余分なセンサーコンポーネントに対応するために、ピクセルの追加境界線も存在する場合がありますセンサーの外周に到達する光の全量。

最後に、コンピューターピクセルの通常のRGB画像を生成するには、バイエルセンサーを「モザイク解除」する必要があります。Bayerセンサーをデモザイクするにはさまざまな方法がありますが、ほとんどのアルゴリズムは、重複する可能性のある2x2 RGBGカルテットのすべてのセットからRGBピクセルをブレンドすることで抽出できるRGBピクセルの量を最大化しようとします。

バイエルデモザイク

合計36個の単色センサーを持つセンサーの場合、合計24個のRGBピクセルを抽出できます。上記のアニメーションGIFを見て、デモザイキングアルゴリズムの重複する性質に注目してください。また、3番目と4番目のパスで、上部と下部の行が使用されなかったことにも注意してください。これは、ベイヤーセンサー配列をデモザイクするときに、センサーの境界ピクセルが常に使用されるとは限らないことを示しています。

DPReviewページに関しては、情報が間違っている可能性があります。Canon 550D Bayerセンサーのセンサー(ピクセル)の総数は18.0mpであり、有効なピクセル、またはそのベース18mpから生成できるRGBコンピューターピクセルの数は5184x3456または17,915,904(17.9mp)です。違いは、フルカルテットを構成できない境界ピクセルと、場合によってはセンサーの前にあるフィルターと取り付けハードウェアの設計を補うためのいくつかの追加境界ピクセルに要約されます。


私はちょうど私のアニメーション画像で間違った感覚を数えることに気づいた。最初の2つのステップでは、8個のセンサーを結合しません... 28個のセンサーを8ピクセルに結合します。最後の2つのステップでは、14個のセンサーを4つのピクセルに結合します。矛盾して申し訳ありません。私はすぐにそれを修正しようとします。
jrista

-3

失望させて申し訳ありませんが、それらの説明のいずれも真実ではありません。すべてのセンサーには、フォトサイトを含むイメージング領域の外側の領域があります。これらの一部はオフになり、一部は完全にオンになり、一部は他の監視目的に使用されます。これらは、実際のイメージングを行う人に対する「コントロールセット」として、アンプとホワイトバランスのレベルを設定するために使用されます。

CHDK互換のPowershotカメラのいずれかからRAWセンサーデータを取得し、dcrawを使用して変換すると、これらの100%黒と100%白の領域を含む完全なセンサーイメージを取得できます。

興味深いのは、カメラ内のRAW画像サイズの解像度が常にカメラ内のJPG結果よりも大きいことです。その理由は、カメラ内でRAWからJPGに移行するために使用されるよりシンプルで高速な補間方法では、各ピクセルの最終色を決定するために周囲のRGBフォトサイトが必要です。エッジとコーナーのフォトサイトには、これらの周囲の色参照がすべての側面にあるわけではありません。後でより良いRAW補間ソフトウェアを備えたコンピューターで処理を行うと、カメラ内のJPGから得られるよりも少し大きい画像サイズの解像度を取り戻すことができます。

PS DPReviewのレビュアーと記事の著者は、決して誰にも福音と見なされるべきではありません。私は彼らのテストとテスターがカメラの使い方さえ知らない露骨な例に非常に多くの穴を見つけたので、私は何年も前に彼らのアドバイスを無視しました。


5
「これらの説明はどれも真実ではない」というあなたのコメントにもかかわらず、他の答えは実際にこれをすでにカバーしています。
mattdm
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.