出力が低解像度の場合、高解像度カメラはどのように重要になりますか?


17

質問はこれらの写真を見せているこの質問に触発されます。 受け入れられた答えは、これらの写真が8x10ビューカメラで撮影されたことを示唆しており、コメントで8x10カメラの使用が確認されました。

私の質問は次のとおりです。


Webページで表示すると、これらの画像は496x620 = 0.37メガピクセル(「フルビュー」をクリックした場合は720x900 = 0.65メガピクセル)です。
したがって、0.37 Mpxを超える解像度のカメラであれば、これらの写真をキャプチャできるはずです。つまり、市場に出回っているほとんどすべてのスマートフォンとウェブカメラです。

バイエルセンサーについて知っています。しかし、バイエルセンサーの最悪の場合の影響は、解像度を4分の1に減らすことです。各方向に2倍に画像をダウンスケールすると、各出力ピクセルには、それぞれの少なくとも1つの入力センサーからのデータが含まれますR / G / Bチャンネル。
ファクター4によるダウンスケーリングは、1.5Mpx以上の解像度(出力の0.37Mpxではなく)を持つカメラがこれらの写真をキャプチャできることを意味します。市場に出回っているほとんどすべてのスマートフォンとほとんどのウェブカメラについてはまだ話し合っています。

色深度について知っています。しかし、これらの画像を表示するために使用しているJPG形式は8x3 = 24ビットです。また、DxOMarkスコアによると、Sony NEX 7やNikon D3200など、24ビットカラーをキャプチャできるカメラがいくつかあります。
したがって、10ドルのWebカメラでこれらの写真のニュアンスを完全にキャプチャできない場合でも、NEX 7またはD3200でキャプチャできます。

ほとんどのレンズの解像度は、ほとんどのセンサーの能力よりも低いことを知っています。一例として、ニッコール85ミリメートルのF / 1.4Gニコンの最も鋭いレンズでDxOMarkに係る最小鋭いレンズを有している、と24Mpxカメラに19Mpx解像度(フルフレームニコンD3X)の最良の等価を与え同じカメラで8Mpxに相当するベストケース。
しかし、データベースの最悪のレンズは、これらの例の出力形式よりも桁違いに高い解像度を提供します。

ダイナミックレンジについて知っています。しかし、これらの画像は照明を制御するため、ハイライトを吹き飛ばしたり、影を失ったりすることはありません。あなたがそうする立場にある限り、ダイナミックレンジは重要ではありません。とにかくJPGの0〜255の出力範囲にマップされます。
いずれの場合でも、DxOMarkは、フルフレームまたはより小さなセンサーを備えたいくつかのカメラは、最高の中型カメラよりも優れたダイナミックレンジを持っていると言います。


それが私が知っていることであり、これらの理論の断片には、結果を0.37 Mpx JPGとして表示するときにSony NEX 7から8x10ビューカメラに伝えることができる方法を教えてくれるものは何もありません。

基本的に、私が理解している限り、少なくとも出力形式が表すことができる限り、センサーが何メガピクセル、どれだけの色深度をキャプチャできるかは関係ありません。

それでも、私はスタン・ロジャースからの答えの判断を疑っていません。また、シャープネスの観点から、小型センサーのカメラで似たようなものを見たことはありません。

解決の意味を誤解していませんか?

私は主に理論について尋ねていると思います:2つの解像度(ピクセル、lp / mm、色深度などで測定された)の違いは、元の解像度よりも低い解像度を持つ表示形式でどのように表示できますか?

または、言い方を変えれば、原則として、ソニーNEX 7と$ 10,000相当の照明を使用して、これらの写真をピクセルに複製することを止めることはできますか?


2
ショットですべてを完璧にする限り、RAWをJPEGよりも撮影することの利点はあまりありません。解像度、ビット深度、RAWデータはすべて、写真を最大限に活用するためのものです!今日の小さなウェブ写真、4x Retinaディスプレイ、または明日の高品質プリント。
ヘンリック

1
残念ながら、私は1つの答えしか受け入れられません。Matt Grumは、小さなセンサーに加えて照明と少し後処理を行うことで、Martin Schoellerの写真で見るWebサイズ(DoF効果を除く)の95%を再現できると信じています。マイケル・ニールセンは、100%に達するには通常のAPS-Cシステムの解像度よりも優れている必要があるかもしれないという信頼できる議論をしていると思います。また、スタンロジャースは、ウェブサイズの写真でも大判カメラを認識する方法を説明しています。それらをすべて読むことをお勧めします:)
jg-faustus

回答:


10

それはすべてマイクロコントラストです。aps-cとフルフレームに関する投稿を見て、その違いを中型および大型のセンサーに拡張してください。

APS-Cとフルフレームセンサーの違いはいつ重要ですか?

オーバーサンプリングの理論に従って、最初からナイキスト限界でサンプリングするよりも、より高いレートでサンプリングしてからダウンサンプリングする方が良いです。最終目標が640x480の場合、640x480センサーよりも1280x960センサーを使用することをお勧めします。

とにかく、隣接するピクセルが互いに依存している場合、センサープレーン上のピクセルよりも混乱の輪が大きいため、MPixelがいくつあるかは関係ありません。レンズの解像度も限られています。さらに、レンズの「シャープネス」とそのアパーチャを考慮する必要があります。また、センサーを大きくすると、より狭いDOFを近づけることができます。これにより、より多くの詳細をキャプチャできます。拡散の減少など。

そして、レンズの焦点距離によって行われる「深度圧縮」を行い、これらのショットでは望遠を指し示します。小さなセンサーのFOVでは、長いDOFを得るために、長い距離後退して開口部を大きく開く必要があります。ただし、数値を実行すると、210 mm、距離2メートルのフルフレームカメラでF8を使用すると、4 cmのDOFと、これらのショットのように顔だけを撮るFOVが得られます。

別の言い方をすれば、被写体に対してセンサーが大きいほど、レンズが光線に作用してそれらを狭い場所に圧縮する必要が少なくなります。これにより、ショットの明瞭さが向上し、視距離に関係なく表示されます(これは、イメージを低解像度にサイズ変更することでシミュレートされます)。

サイズ変更による詳細の強化と保持についての以下の議論は、類似したテーマが大サイズとフルフレーム、大フォーマットとapscの場合の比較です。

上:ひげスタブのある男性の顔。リンク先のサイトの解像度では、ひげはピクセル幅の髪でレンダリングされますが、Mattの例と同じサイズではすべてが失われます。今、あごひげは拡散しています。サイトの8x10の写真と同じサイズでマットの画像を見ると、頭に焦点が合っていない場合に大きな違いが見えるかもしれません。aps-cシステムとより小さなセンサーでも、この結果が得られる可能性があります(詳細に関して)。

下:あなたが見せたウェブページと同じサイズの女性の顔のまつげを、aps-cカメラからの焦点の合った目と比較します。まつげの周りの明るいハローを犠牲にして、まつげの知覚を高めることができます。

現在、「システム全体」の解像度に大きな違いがあり、apscカメラ+使用レンズ+所定の低解像度で見た場合8x10カメラ+レンズ+表示解像度と同じ詳細をレンダリングできません。私の主張が今より明確になることを願っています。

詳細

aps-c、ひげスタブとの別の比較、それらをシャープにした後。stackexchangeによってサイズが変更されても、明確さの違いを認識できます。

apsc

結論として、ピクセル解像度以外について尋ねている他の要因は次のとおりです。

  • 総システム解像度lp / mm
  • SNR
  • 人からセンサー、スクリーンまでの倍率は、網膜解像度でのあなたの目の投影まで見る距離でそれを表示します-システムの任意の部分が小さい(1:1未満)倍率、より高い要求上記の2つの要因については、小さな投影面積によって悪影響を受けます。

最初にマクロを撮影しなくても、縮小したマクロショットでより多くの詳細を取得できます。

ダウンスケーリング前の解像度が重要であることの最終的な証拠。上部:21MP FF下部:15MP Aps-c、同じレンズ/開口焦点距離。

2つのdiffセンサー解像度/サイズ

等しい解像度に再スケーリングされました:

小さい

小さい

最小

小さな

シャープを少し適用して細部を再現しました。何が見えますか?同じサイズ/解像度で見た21mp FFカメラの詳細は、3Mpカメラと同等です。再スケーリングされた画像の線を数えることはできませんが、線であるという認識は真実です。あなたがこれを望むかどうかはあなたの創造的な選択ですが、(システム全体で与えられる)より高い解像度から始めて、あなたは選択を得ます。それらが必要ない場合は、再スケーリングの前に画像をぼかすことができます。

小さいサイズ、低い解像度と大きいセンサー、高い解像度の違いを示す最後の実験。最後に同じサイズで表示された同じ解像度に再スケーリングされ、シャープになります-ALL ELSE EQUAL かっこいい?どうやってやったの?私が撮った私のAPS-Cカメラは、画像から画像をトリミングすることで「apc-cよりも小さい」「作物センサー」をシミュレートします。次に、被写体に近づいて、同じ被写体で4倍大きいセンサーを満たします。-大判センサーのポートレートは基本的にマクロ撮影です-aps-cカメラで撮影するよりもはるかに近くなります。同じ電子品質、同じレンズ、同じ設定、同じ光。

これは小さなセンサーでどのように見えるかです、それを「ミニaps-cc」と呼びましょう:

小型センサー

ここに「大規模なフォーマット」(大規模な完全なaps-c)があります。

aps-c

ここで、多くの詳細が表示されますよね?しかし、0.016MP画像に縮小し、全体的に同じコントラストになるようにシャープにした後は、それは問題になりませんか?

比較等しいサイズ

しかし、実際にそうします!あなたがまだ私を信じていないなら、私はあきらめます:)


これらのクロップが表示する迷路パターンに関するメモ:これは、AHDバイエルのデモザイキングに共通のベイヤー補間アーティファクトです。
マイケルニールセン

ただし、それが線の配列であるという認識は、灰色のボックスを見るよりも元のものに忠実です。皮膚の毛穴を見るのと同じですが、実際の生活のように正確な量ではないかもしれませんが、そこにあるでしょう。
マイケルニールセン

ありがとう、興味深い比較。シャープネス/ディテール(または少なくともディテールの錯覚)が、思ったよりもダウンスケーリングを生き延びているように見えます。あなたは私に考慮すべきことを与えました。
JG-ファウスト

線の収束は補間アルゴリズムにとって悪夢であり、どのように見えるかを知っていますが、素敵な肌の質感の細部について同じ仮定をしていないので、スポットが顔の半分ピクセルを移動することさえあります驚くばかり。上記の最小の例では、2番目の垂直線までの線がまだあると認識しています。
マイケルニールセン

マイケル、関連する質問-センサーのサイズが同じ場合はどうなりますか?16 MPネイティブ解像度のAPS-Cセンサーからより良い結果を得ることができますが、8MP ASP-Cセンサーを備えた(仮想)カメラを購入するのではなく、たとえば8MPにダウンサンプリングしますか?
バダディカルティック

7

何よりも、ビューカメラの景品は、フィルム面に平行ではない非常に浅い被写界深度でした。被写体の姿勢と非常に浅い被写界深度(多くの場合、目の下のあごの額は柔らかい)でいくつかの画像の唇と目に焦点を合わせるのは、傾きなしでは不可能です。

また、焦点が合っていない範囲の性質もあります。それは、はるかに焦点を合わせるよりも等身大に近い表現の典型です。カメラへのDoF拡張は、背景への拡張とほぼ同じです。これは、1:1の再現に近づくと予想されるものです。より通常の作動距離では、シャープフォーカスの面の周りに見かけのシャープネスが約3分の2から2分の3の分布になると予想されます(フォーカス面の前のDoFの3分の1、後ろの3分の2)。したがって、これは、APS-C、フルフレーム、さらには中規模のフォーマットよりもかなり大きい「センサー」を示しています。4x5および8x10フォーマットの経験から、8x10になる可能性が高いことがわかりました(ただし、珍しい大判カメラの1つでも問題になりませんでした)。いう、

Michael Nielsenが指摘したように、画像には多くの「マイクロコントラスト」が見られますが、特にwebbyサイズでのレンダリングが目的の場合、ある程度後処理でそれを偽造できます。そして、被写体の3Dモデルである必要のあるものに対して勾配焦点面を適用して深度マップを作成することに熱心であり、8x10の焦点ダイナミクスを理解していれば、DoFと焦点面を偽造することさえできると思います約50〜60%の実物大の再現ですが、それは多くの作業の1つです。写真家にとっても、画像を分析する人にとっても、経済的なソリューションは、実際の8x10ビューカメラです。


ただし、ポストでマイクロコントラストを上げると、アーティファクトが発生します。また、アルゴリズムは詳細を「推測」するため、同じ画像にはなりません。
マイケルニールセン

@Michaelが、リサイズされた複製では、それらはあらゆる目的のために明らかではないでしょうか?か否か?
フランチェスコ

「ある程度」あいまいでしたか?

ハイパスフィルターウィンドウが非常に大きく、フレーム全体にリンギングが生じる場合を除き、最初にシャープを適用してから、拡張機能が消去される場所のサイズを変更するということですか?これらのポートレートの細部は非常に素晴らしく、1x50ピクセルの肌の部分を調べると、シャープなフィルターでハローリングを簡単に生成できるバイナリイメージのように見えます。
マイケルニールセン

3
@MichaelNielsenは、巨大なダウンサンプルを行うときに、完全にソフトな画像にエイリアスを導入し(マイクロコントラストはまったく使用せず)、ハローやその他のシャープなアーティファクトのない非常に鮮明な画像を取得できます。それは、焦点の傾斜平面のためではなかった場合は、見かけ上の「詳細」を見て、大規模な形式だったそれらのイメージを伝えることができないだろう
マット・グルム

4

いいえ、少なくとも2桁のメガピクセルから4分の1メガピクセルに至るまで、出力が低解像度の場合、高解像度カメラは本当に重要ではありません。次の画像を撮影します。

Web用にサイズを変更すると、被写体の顔に焦点が合っていなかったにもかかわらず、見栄えがよくなります。100%で見ると印刷物では明らかですが、元のピクセルの2%にサイズ変更されてWeb用にシャープ化されるまでにはまったくわかりません。

別の例として、約8メガピクセルの非常にソフトな元の画像を使用します。

ウェブフレンドリーな解像度に大幅にダウンサンプリングしてシャープにし、突然すべてのマイクロコントラストを調べます!

2倍のオーバーサンプリングは、Bayer画像の解像度と色の忠実度を確実に向上させます。しかし、2003年にリリースされた元のCanon Digital Rebel(300D)の画像は600x400にサイズ変更され、5倍のオーバーサンプリングです。各方向では、サイズ変更された画像の各ピクセルが25個の元のピクセルに置き換わります。これらの25ピクセルの品質は、サイズ変更された画像にほとんど影響しません。

より大きなフォーマットシステムによってもたらされるマイクロコントラストの増加は、単に表示されることはありません。シャープアーチファクトを捨てるほどの解像度が得られた場合、表示されるマクロコントラストは後処理によって補うことができます。

被写界深度を一致させた場合、1x8ピクセルのビューカメラと1メガピクセル未満にサイズ変更したときのコンパクトとの違いを見分けるのは非常に困難です。


彼の顔をポートレートと同じサイズで見ることができますか?
マイケルニールセン

はい、家に帰ってオリジナルを掘り出します!
マットグラム

「出力が低解像度である場合、高解像度カメラは本当に重要ではない」という鈍い声明に同意する必要があります。オーバーサンプリングと拡大率は、最終結果で問題になります(特定の制限まで)。
マイケルニールセン

1
何度もオーバーサンプリングしたため、小さな画像で細かいディテールが得られます。同じ量のブラーで2倍のオーバーサンプリングのみを使用した場合、スキンの詳細はまったく得られません。そして、あなたはシャープでそれを誇張しました、彼の髪は奇妙に見えます。さらに、このショットは典型的なローエンドの画像のように見えます。私たちが話しているこれらの画像のように、まともなレンズを備えたAPS-Cシステムが生成できる以上の詳細を保持しています。
マイケルニールセン

最新の例のおかげで、質問にリンクされている写真のようなものがAPS-Cセンサーで作成できると信じられるようになりました。@MichaelNielsenしかし、それは質問のオーバーサンプリングのようなものです。たとえば、16Mpx APS-CショットをWebサイズが1Mpx未満にダウンスケールするとします。それで、オーバーサンプリングに関して、たとえば、7x(1ピクセル出力に49ピクセルの入力)のオーバーサンプリングは、5xオーバーサンプリングよりも視覚的に優れていますか?あなたの例では、4倍のオーバーサンプリングを超えて多く/どんな違いも見られないので、私は「おそらくない」に傾いています。
jgファウスト

1

細かいディテールを持つシーンを低解像度の画像にレンダリングする場合、空間フィルタリングを適用して、周波数がナイキスト制限を超えるコンテンツを削除する必要があります。空間フィルタリングを適用する場合、2つの相反する目標があります。

  1. 空間周波数が表示されるのに十分低いコンテンツは、できるだけ減衰しないでください。

  2. 空間周波数が類似しているコンテンツは、ほぼ等しい量だけ減衰する必要があります。

目標が競合する場所を確認するには、線が収束するパターンのシーンを想像してください。間隔がターゲット解像度のナイキスト制限にやや近づいたが、線が常に明確に表示されるように十分に分離されている場合、それらをぼかすよりも明確に表示した方がよい場合があります。ただし、シーンに近づきすぎて区別できないほど収束する線のパターンが含まれている場合、間隔が解像度の限界に近づくにつれて線が徐々にぼやけていくので、線がはっきりと見える点まではっきりと表示されるよりも注意が散漫になりますソリッドグレーへの急激な移行。

多くの場合、シーンの最適なフィルタリングの種類は、そのコンテンツとそのどの側面が重要かによって異なります。意図した出力形式よりも高い解像度でシーンをキャプチャすると、最終画像で必要になる可能性のあるすべての情報が保持されます。画像を低解像度でレンダリングする前に情報をフィルタリングする必要がありますが、高解像度のキャプチャにより、シーンのニーズに最適に合うように正確なフィルタリング方法を調整することが可能になりますシーンの一部)。最終画像を640x480でレンダリングしようとする場合、6400x4800でキャプチャする利点はおそらく1600x1200で得られるものよりもはるかに大きいとは言えませんが、最大約2.5xにするといくつかの利点があります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.