暗い場所でどのポイントとシュートが良いのかという一番の答えは?(1)高速レンズ/広口径(2)適切なISO 400+の取り扱い、(3)組み合わせた場合の大きなセンサーは、低光での撮影に不可欠であると述べています。
最初に理解する(より多くの光を取り入れる)、2番目に理解する(「フィルム」は光に対してより敏感です)。申し訳ありませんが、3番目の要因がわかりません。
暗い場所でどのポイントとシュートが良いのかという一番の答えは?(1)高速レンズ/広口径(2)適切なISO 400+の取り扱い、(3)組み合わせた場合の大きなセンサーは、低光での撮影に不可欠であると述べています。
最初に理解する(より多くの光を取り入れる)、2番目に理解する(「フィルム」は光に対してより敏感です)。申し訳ありませんが、3番目の要因がわかりません。
回答:
大きいセンサーと小さいセンサーの両方に同じメガピクセルがある場合の違いを理解するのが最も簡単です。小型のAPS-Cセンサーとフルフレームセンサーを備えた2つの仮想カメラがあり、両方とも8メガピクセルであると仮定すると、差はピクセル密度になります。
APS-Cセンサーは約24x15mmですが、フルフレーム(FF)センサーは36x24mmです。面積に関して、APS-Cセンサーは約360mm ^ 2で、FFは864mm ^ 2です。ここで、機能ピクセルであるセンサーの実際の面積の計算は、現実世界の観点からかなり複雑になる可能性があるため、当面はセンサーの総表面積が機能ピクセル専用の理想的なセンサーを想定します。それらのピクセルは可能な限り効率的に使用され、光に影響を与える他のすべての要因(焦点距離、絞りなど)は同等であると想定しています。それと、仮想カメラが両方とも8mpである場合、各ピクセルのサイズはAPS-Cセンサーの場合、FFセンサーの各ピクセルのサイズよりも小さくなります。厳密に言えば:
APS-C:
360mm ^ 2 / 8,000,000px = 0.000045mm ^ 2 / px-
> 0.000045 mm ^ 2 *(1000 µm / mm)^ 2 = 45µm ^ 2(平方ミクロン)
-> sqrt(45µm ^ 2)= 6.7 µmFF:
864mm ^ 2 / 8,000,000px = 0.000108mm ^ 2 /
px-> 0.000108 mm ^ 2 *(1000 µm / mm)^ 2 = 108µm ^ 2(ミクロン)
-> sqrt(108µm ^ 2)= 10.4µm
「ピクセルサイズ」、または各ピクセルの幅または高さ(フォトギアのWebサイトでよく引用されている)の単純化された正規化された用語では、次のようになります。
APS-Cピクセルサイズ= 6.7µmピクセル
FFピクセルサイズ= 10.4µmピクセル
ピクセルサイズに関しては、FF 8mpカメラのピクセルはAPS-C 8mpカメラの1.55倍です。ただし、ピクセルサイズの1次元の違いは、全体を物語るものではありません。ピクセルには2次元の領域があり、その上で光を収集します。したがって、各FFピクセルと各APS-Cピクセルの面積の差をとることで、全体がわかります。
108µm ^ 2 / 45µm ^ 2 = 2.4
(理想化された)FFカメラは、(理想化された)APS-Cカメラの集光力である2.4xまたは約1ストップの価値があります!そのため、暗い場所で撮影する場合、センサーが大きいほどメリットがあります。特定の時間枠で、より大きな集光力が得られます。
別の言い方をすれば、より大きなピクセルは、任意の時間枠でより小さなピクセルよりも多くのフォトンヒットをキャプチャすることができます(「感度」の私の意味)。
さて、上記の例と計算はすべて、「理想化された」センサー、または完全に効率的なセンサーを想定しています。現実世界のセンサーは理想化されておらず、りんごごとの方法で比較するのも簡単ではありません。現実世界のセンサーは、最大効率で表面にエッチングされたすべてのピクセルを利用するわけではありません。より高価なセンサーには、より多くの光、より小さな非機能性ギャップを集めるマイクロレンズなど、より高度な「テクノロジー」が組み込まれている傾向があります各ピクセル、列/行を移動するバックライト配線の製造は、感光素子の下の配線をアクティブにし、読み取ります(通常の設計では、感光素子の上に配線を残します)小さいセンサーよりもメガピクセル数が多いため、問題はさらに複雑になります。
2つの実際のセンサーの実際の例は、Canon 7D APS-CセンサーとCanon 5D Mark II FFセンサーを比較することです。7Dセンサーは18mp、5Dセンサーは21.1mpです。ほとんどのセンサーは大まかなメガピクセルで評価されており、多くの境界ピクセルはキャリブレーションの目的で使用され、センサーフィルターのメカニズムなどによって妨害されているため、通常は市販の数よりも少し多くなっています。したがって、18mpと21.1mp世界のピクセル数。これら2つの現在のセンサーと最新のセンサーの集光力の違いは次のとおりです。
7D APS-C: 360mm ^ 2 / 18,000,000px * 1,000,000 = 20µm ^ 2 / px
5DMII FF: 864mm ^ 2 / 21,100,000px * 1,000,000 = 40.947〜= 41µm ^ 2 / px41µm ^ 2 / 20µm ^ 2 = 2.05〜= 2
Canon 5D MkIIフルフレームカメラは、7D APS-Cカメラの約2倍の集光力を備えています。これは、ネイティブセンシティビティを追加する価値がある約1ストップに相当します。(実際には、5DIIと7Dの両方の最大ネイティブISOは6400ですが、7Dは3200と6400の両方で5DIIよりもかなりノイズが多く、実際にはISO 800程度で正規化されているようです。http:/ /the-digital-picture.com/Reviews/Canon-EOS-7D-Digital-SLR-Camera-Review.aspx)対照的に、18mp FFセンサーは、21.1mp FFセンサーの集光力の約1.17x 5D MkII。これは、同じ(およびAPS-Cよりも大きい)エリアに広がるピクセルが少ないためです。
厳密に言えば、それはセンサーサイズではなく、ピクセルサイズです。
ピクセルが大きいほど、光をキャプチャする表面積が多くなり、光子(光)が表面に当たると電子が放出されてより高い電圧が蓄積されます。ある固有のノイズほとんどランダムは、信号対雑音比(S / N)を増加させる高い電圧と比較し、したがって比較的低いです。
欠落している暗黙のデータは、センサーが大きいほどピクセルが大きくなる傾向があるということです。フルフレームの12 MP D3Sとトリミングされた12 MP D300Sを比較するだけです。各ピクセルには2.25倍の表面積があるため、D3Sにはこのような優れた高ISO性能が備わっています。
編集(2015-11-24):
匿名のダウンボーター非信者には、より新しくてより良い例があります。ソニーには、ほぼ同じ2つのフルフレームカメラ、A7S IIとA7R IIがあります。センサーのサイズは同じですが、前者の解像度は12 MP、後者の解像度は42 MPです。A7S IIの低光量性能とISO範囲は、A7R IIを大きく上回り、ISO 409,600対102,400に達しました。それは、より大きなピクセルを持つためだけの2つのストップの違いです。
単一ピクセルのサイズはほとんど無関係です。それは都市伝説です!
センサーが同じサイズでピクセル数が異なる2つの同一のカメラ(2メガピクセルと8メガピクセルなど)があり、そのためにピクセルサイズが異なる場合。センサーに届く光の量は、ピクセルサイズではなく、レンズの直径に依存します。8MP画像は2MP画像よりもノイズが多いことは間違いありませんが、8MPを2MPに縮小すると、ほぼ同じノイズレベルでほぼ同じ画像が得られます。それは簡単な数学です。私が言うほぼセンサーロジックは、サイズがかかりますので。8MPセンサーのロジックは2MPの4倍になるため、光に敏感なセンサー領域が少なくなります。ただし、1ストップ(= 50%)の費用はかかりません。多分少しですが、それほど多くはありません。
実際に違いを生むのはレンズです。写真を撮影する場合、センサーのサイズ、ピクセルサイズ、焦点距離のいずれにも指標に興味はありません。特定の距離から顔、人々のグループ、建物などをキャッチします。あなたが興味を持っているのは、画角です。焦点距離は、センサーのサイズと画角に依存します。センサーが小さい場合、焦点距離も短くなります(数mm程度)。焦点距離が短いレンズは、直径が制限されるため、多くの光を捉えることはありません。より大きなセンサーはより大きな焦点距離を必要とし、同じ速度のレンズはより大きな直径を持ち、そのためより多くの光を捉えます。
ポスターの印刷以外に10MP以上が必要なのは誰ですか?数MPに縮小すると、すべての写真が正常に見えます。センサーのサイズは画質を直接制限しませんが、レンズは制限します。レンズのサイズは多くの場合、センサーのサイズに依存します(そうではありません)。しかし、小さなセンサーとたくさんのMPを備えたカメラを見てきましたが、素晴らしい写真を撮る素晴らしいレンズ(直径2cm以上)があります。
私は少し前にそのことについて記事を書きました。ドイツ語で、英語に翻訳する時間がありませんでした。ごめんなさい。より冗長で、いくつかの問題(特にノイズの問題)をもう少し詳しく説明します。
個々のピクセルのサイズは重要ではありません。いくつかの小さなピクセルを数学的に組み合わせて1つの大きなピクセルにすることができます。詳細を犠牲にして感度を高めます。
大きいセンサーカメラには、所定の画角に対して、小さいセンサーカメラより長い焦点距離のレンズがあります。この長いレンズは、所定のfストップに対して、大きな物理的開口(虹彩で開く)を持っています。これにより、システムに入る光が増え、低照度でのパフォーマンスが向上します。また、被写界深度が浅いことも考慮しています。
デジタルセンサーの表面はフォトサイトで覆われています。これらは、レンズによって投影された外界の画像を記録します。露光中、光子の形の画像形成光線がセンサーの表面に衝突します。フォトンヒットはシーンの明るさに比例します。つまり、シーンの明るく照らされた領域に対応するフォトンヒットを受け取るフォトサイトは、暗く照らされた画像領域に対応するフォトサイトよりも多くのフォトンヒットを受け取ります。露出が完了すると、フォトサイトにはシーンの明るさに比例した電荷が含まれます。それにもかかわらず、すべてのフォトサイトの電荷の程度は弱く、増幅しない限り有用ではありません。画像形成プロセスの次のステップは、電荷を増幅することです。
増幅は、ラジオやテレビの音量を上げるようなものです。増幅は画像信号の強度を高めますが、静的な形の歪みも引き起こします。デジタルイメージングでは、この歪みを静的とは呼びません。それを「ノイズ」と呼びます。誘導されるノイズは、実際には固定パターンノイズと呼ばれます。これは、各フォトサイトの特性がわずかに異なるためです。言い換えれば、それらはそれぞれ増幅に対して異なる反応を示します。その結果、フォトンヒットの少ないフォトサイトの一部は、ダークグレーまたはグレーとしてイメージする必要があるときに、黒としてイメージされます。これは固定パターンノイズです。増幅率を上げない(ISOを低く保つ)ことにより、カメラのソフトウェアにより軽減します。
固定パターンノイズは一般に高増幅によるものであるため、特定のフォトサイトでより多くの光子ヒットが発生すると、より高い電荷が生成され、増幅の必要性が少なくなります。一番下の行は、より大きなイメージングチップは、より大きな表面積を持つより大きなフォトサイトを持ち、露光中により多くの光子のヒットを可能にします。ヒットが多いほど増幅は少なくなります。したがって、固定パターンノイズによる歪みが少なくなります。
一般に、センサーを大きくすると、画像をキャプチャするための低光量でわずかに悪化します。一般に、より大きなセンサーにはより大きなレンズを使用でき、被写界深度の減少を気にしないのであれば、一般に低光量では大きなレンズが適しています。
インターネット上には、センサーが収集する光の量はセンサーのサイズに比例すると主張する人がたくさんいます。これは間違っています。レンズの画角が同じ場合、センサーのサイズに関係なく、同じ量の光がセンサーに投影されます。フルフレームセンサーとMFTセンサーのピクセル要素数が同じ場合、各要素はサイズに関係なく同じ量の光を検出します。これを考えてみてください。一枚の紙をガラスの輪の後ろの太陽の下に置いても、何も起こりません。前述のガラスの円と同じ直径の虫眼鏡でその紙の小さな領域に光を集中すると、焦点領域のエネルギー密度が非常に大きくなるため、紙が熱くなります。同じことがイメージセンサーにも当てはまります。小さいセンサー=大きいセンサーより高いエネルギー密度=両方のセンサーの単位面積あたりの同じエネルギー。小さいセンサーで大きなノイズが発生する理由は他の場所にあります。おそらく、密集したイメージセンシング要素間の無線周波数干渉です。