タグ付けされた質問 「sensor」

センサーはデジタルカメラのフィルムに相当します。光を電荷に変換するフォトサイトと呼ばれる数百万の小さな光検出領域が含まれています。センサーを露光した後、この電荷は各ピクセルから読み取られ、デジタル画像に変換されます。

2
センサーのほこりを見るときに小さな開口部を使用するのはなぜですか?
あちこちでセンサーの清浄度をテストしながらレンズを小さな口径に設定した人々の記事を読みました。これは、ほこりスペックルの最高の画像を得るためと思われます。ただし、センサー上にあるダスト粒子の画像は、私の理解では、レンズの設定によって引き起こされるシャープネスの影響を受けません。レンズ要素自体のほこり粒子についても同様です。私は不思議に思う-これらの人々は、光学システムがどのように機能するかの理論を誤解しているのか、それとも何かが欠けているのか?

1
フルストップISOで撮影するのは本当に良いですか?
この答えの後半は言う Canon DSLRで重要なフルストップISOのみを撮影したことに注意してください。なぜなら、1/3ストップを得るためのゲインは、取得するために使用されるオンセンサーゲインよりもノイズを増幅するプロセッサによってソフトウェアで適用されるためですフルストップ。 本当?私はオンラインでしばらく時間を費やしました、そしてそれについての意見は本当に異なります。ISOを上げることはセンサーの電気的ゲインを増やすだけであり、直線的な曲線であるため、問題ではないと主張する人もいます。他の人は、それが重要だと確信しています。 私は意見や「自家醸造」テストを本当に探していません。最良の答えは、評判の良い研究に基づいたものです。 フルフレームとトリミングされたセンサーが重要な場合は、必ずそれを指摘してください。
25 canon  sensor  iso  noise 

4
さまざまなバイエルデモザイキングアルゴリズムの長所と短所は何ですか?
ベイヤーセンサは、赤色、緑色、及び青色の画素のパターンを使用し、すべてのための1つの画素と、最終的なカラー画像に、それらを一緒にマージ単一のカラーセンサ。これは、隣接するセンサーを「単純」にブレンドすることで実現できますが、AHD、HPHD、AMaZEなどの名前を持つより複雑なアプローチを聞いたことがあります。 これらの他のアプローチとは何ですか?また、どのような利点がありますか?計算の複雑さを超える弱点はありますか? カメラ内JPEGに使用されるアプローチはより厳重に保護されていると思いますが、明らかにこの分野では多くの研究開発が行われています。カメラ内で利用可能な限られた処理能力は、この分野での妥協を強制しますか?

8
カメラが多くの非常に高速な読み取りを統合するのではなく、単一の露出を使用するのはなぜですか?
カメラが特定の速度のシャッターを必要とする理由と、これが後処理で調整できない理由を理解したことがありません。現在のセンサーは不可欠な方法で機能していると思います:シャッターが開いている間ずっとセンサーに到達する光の量を節約します。しかし、なぜ彼らは差別的な方法で働くことができないのですか? 私の考えでは、私はこのアイデアを持っています:シャッター速度を長時間開くように設定し、必要なものより多く...たとえば、日光の下で1秒に設定し、ボタンを押して、シャッターが開きセンサーが起動します記録するために、しかし差分の方法で:それは1秒間0.001秒ごとにそれに到達する光の量を節約します。この方法でより多くの情報が得られ、実際には1秒で1000フレームが記録され、後処理では、0.01秒のショットをシミュレートするために最初の10個だけを統合するか、0.1秒のショットをシミュレートするために最初の100個を選択できます二度目の露出 洗練された処理を使用するか、エリアを手動で選択することにより、最終画像のさまざまな部分に異なる露出を使用することもできます。たとえば、地面に0.1秒、空に0.03、100フレームを空に、空の30フレーム。 理にかなっていますか?カメラがこのように機能しないのはなぜですか?

7
暗い場所でセンサーが大きくなるのはなぜですか?
暗い場所でどのポイントとシュートが良いのかという一番の答えは?(1)高速レンズ/広口径(2)適切なISO 400+の取り扱い、(3)組み合わせた場合の大きなセンサーは、低光での撮影に不可欠であると述べています。 最初に理解する(より多くの光を取り入れる)、2番目に理解する(「フィルム」は光に対してより敏感です)。申し訳ありませんが、3番目の要因がわかりません。

4
ダイナミックレンジをセンサーのビット深度よりも大きくするにはどうすればよいですか?
私を混乱させた何かを見つけたので、カメラ関連と技術的であるため、ここの群衆はおそらくこれに答えることができると思いました。 ダイナミックレンジをセンサーのビット深度よりも大きくするにはどうすればよいですか? 誰かがペンタックスK-5のDXOMarkの結果を送ってくれました。これは、最も低いISOで14.1 EVのダイナミックレンジを示しています。ただし、センサーが14ビットであるため、これは私の直感に合わない... CMOSセンサーのような線形デバイスがビットよりも多くのDRをキャプチャできるのは奇妙に思えます。真ん中のEVをスキップして、ダイナミックレンジがまばらですか?

5
DSLRについて話すとき、「ネイティブISO」とはどういう意味ですか?
新しいNikon D7000が発売され、多くのプレビューでD7000の「ネイティブiso」が100であると宣伝されています。 これは実際にはどういう意味ですか?iso 100で最高のパフォーマンスを発揮することを意味すると思います。つまり、光の感度を犠牲にしても大丈夫なら、本当に素晴らしい画像が得られるということです...?

6
カメラがJPGで報告するdpi番号には意味がありますか?
6mpix Panasonic FZ8と14mpix Canon A2200の2台のカメラがあります。 2台のカメラのショットを比較すると、気付く違いの1つは 、カメラがJPG情報で報告するdpi番号です。 FZ8はdpi = 72を報告します A2200はdpi = 180を報告します これらの数字はどのような物理的意味を持つことができますか?推測に迷っています。 私は、スキャンと印刷におけるdpiの概念にかなり精通しています。カメラのセンサーでピクセルの密度を計算できます。ただし、センサーのピクセルの線密度は、上記の数の数百倍になります。それで、もしあれば、それはどういう意味ですか?
22 sensor  metadata  jpeg  dpi 

2
Lytroライトフィールドカメラの基本的な仕組みは何ですか?
lytro.comは、新しいライトフィールドカメラについて、1面の光ではなくライトフィールド全体をキャプチャできるため、焦点や遠近調整を含むまったく新しい後処理の可能性を実現できると説明しています。 どのような種類のセンサーが「あらゆる時点であらゆる方向のあらゆる光のビームを取り込む」ことができますか?本質的に無限の量の情報はどのようにエンコードおよび操作されますか?従来の意味でレンズは前面にありますか? ここに発明者の論文があります:http://www.lytro.com/renng-thesis.pdf 従来の技術に精通している私たちにとって、誰かがこれを煮詰めることはできますか?

1
ライブビューモードで撮影すると、画像にノイズが追加されるのは本当ですか?
ライブビューモードで撮影すると、同じ条件下でビューファインダーを介して撮影する場合に比べてノイズが増えると、経験豊富な写真家から聞きました。ライブビューの使用中にセンサーが熱くなり、これにより画像にノイズが発生すると思います。 このことわざには真実がありますか?

2
裏面照射型CMOSセンサーの長所と短所は何ですか?
iPhone 4Sの用途バックライト付きCMOSセンサー、と私はいくつかの他のコンパクトカメラが同様に行うことに気づきました。それは写真撮影にとって何を意味し、それが利点である場合、DSLRカメラはなぜそれを使用しないのですか? また、私が見つけた用語:バックライト、背面照明、背面照明、BSI、BI

5
ISO 1600の特別なところは何ですか?
ノイズを最小限に抑えるために、使用したい最高のISOはISO 1600であり、使用するカメラやセンサーに関係なく、この(ISO 1600)のしきい値を超えるとノイズが指数関数的に増加すると何度も聞いています。 これは数学であると言う人もいますが、オーディオ機器に大きなゲインを適用すると歪みが発生するなど、信号の処理方法に関係していると言う人もいます。 基本的に、彼らはISO 1600が数学的にノイズを減らすための最も「経済的な」感度であると主張しています。 どうしてこれなの? ISO設定が1600よりも高くなっているのはなぜですか? ISO 1600に合格すると、カメラは指数アルゴリズムを適用しますか? ISO 1600に合格すると、信号対雑音比は劇的に変化しますか? 編集: ISOのパフォーマンスが向上していることは知っていますが、申し訳ありませんが、この質問はそれに関するものではありません。私は2.0メガピクセルのカメラを持っていて、ISO 200はゴミだったので、どれだけ改善されたかはわかっていますし、今後も改善されるでしょう。 長い答えを消化した後、少なくとも一部のモデルでは、ISO 1600がアナログ信号増幅の限界であると思われます。ISO 1600を超えて、ブランドに応じて、信号を強化するために異なるデジタルアルゴリズムが使用されます(デジタルプッシュ)。このデジタルプッシュはフォトンシュートノイズと読み取りノイズに作用するため、これはADCの後にあるため、全体的なノイズレベルは高くなります。 これは回答からまとめて理解したものであり、正しく理解した場合はまだ少し混乱しているので、修正してください。 カメラのアナログ増幅の限界をどのようにして知ることができますか?Canon / Nikonのデジタルプッシュがいつ発生するかを知りたい場合、そのような情報はWebサイトから入手できますか?それとも秘密ですか?
21 sensor  iso  noise 


3
すべての画像でキヤノンの幾何学的な露出過度の四角形の形状
私は2015年夏に購入したCanon 70Dを手に入れました。友人の新しい家の建設のコマ撮りを撮影してきましたが、今日、すべての画像に奇妙な露出オーバーの形があることに気付きました。私は当初、何とかしてファインダーを通して太陽が燃えていると思っていたので、その上に黒い電気テープを貼りました。助けにならなかった。 それからレンズだと思ったのですが、3枚すべてのレンズを試しましたが、問題は残ります。レンズをまったく使わずに写真を撮っても、その形が見えます。 センサーの問題だと思いますが、ビデオやライブビューのデジタル画面には形状が表示されません。ただし、ライブビューから写真を撮ると、キャプチャされた画像に表示されます。 ここに私が得ているもののいくつかの例があります: 何が起こっているのか誰にも分かりますか?

4
mRAWまたはsRAWで撮影する場合、カメラはどのようにして小さなファイルを生成しますか?
ほとんどのミッドエンドおよびハイエンドDLSRは、RAWキャプチャ用に2つまたは3つのサイズを提供します。カメラが中サイズまたは小サイズのRAWファイルを生成しているとき、どのようにしてそれらを小さくしますか?センサーにキャプチャする情報が少なくなりますか?すべての情報をキャプチャしてから、何らかのカメラ内圧縮を適用しますか?私が説明していない何か他のことをしますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.