タグ付けされた質問 「human-vision-system」

2
50mmレンズが通常のレンズではなく、人間の視点を与えるように見えるのはなぜですか?
私は、通常のレンズを通して見るものは、肉眼で見ることができるものに等しい(または近い)という概念に慣れました(ただし、通常のレンズの「純粋な」定義ではありません。センサーの対角線が同じか十分に近い)。 ただし、ズームレンズ(Canon APS-C、1.6トリミング)で遊んで両目を開いたまま、50mmで両方のビューが完全にオーバーラップ(および「マージ」)します(その段階でレンズの焦点をぼかすと面白い効果が得られますが、あなたが見るものをキャプチャすることはできません)。 これは、APS-Cフォーマットで通常と考えられているもの(25〜35mm)からの長い延長です。フルフレームDSLRは、約80mmのどこかで同じ効果を経験しますか?

4
カメラのように人間の目はノイズを経験しますか?
私は非常に暗い場所(自分が座っているのと同じ部屋にない場所)にいるとき、目が色の付いた粒子を見る暗闇に順応していることに気付きました。これらの着色粒子は、写真の世界のノイズに似ていますか? 高いISOノイズに似ていますが、粒子の色は薄くなっています。また、私はあなたがあなたの目に圧力をかけるとき、またはあなたが暗いところで何かを見つめるときに起こることに気づきました。私は木目を感じることができます。光の下で見ると滑らかではありません。

4
オブジェクトが目とカメラのファインダーを通して同じサイズに見えるとき、それは何と呼ばれますか?
Canon 18-135レンズを持っています。カメラのファインダーを左目ではなく、右目で見ています。18mmから始めて、特定のオブジェクトが両方の目で同じサイズになるまでズームインを続けます。 焦点距離が50 mm(たとえば55 mm)をちょうど超えると読みました。私が焦点を合わせていたオブジェクトに関して、この55mmの特別な点は何ですか?

7
カメラでまったく異なる原色を使用するとどうなりますか?
つまり、多くの人が知っているように、人間には3つの錐体細胞があり、3つの異なる「原色」を見ることができます。一方、他の多くの動物には4つ以上の錐体細胞があり、さらに広い、またはより明確なスペクトルを見ることができます。 現在、デジタルカメラは通常、感光性の「ピクセル」のアレイを使用して光を記録します。ピクセルは一般に4つのグループに配置され、2つは(フィルター材料を使用して)緑、1つは赤、1つは青に特化しています。各ピクセルで検出された強度は、アルゴリズムを使用してRGBファイルに変換されます。各専用ピクセルによって記録された強度は、以下の色相スペクトルにマッピングできます。 結果として得られる画像は私たちの目に完全に理解でき、ほとんどの目的と目的でシーンを記録するのに十分であるため、これは私たちが一般的に望んでいることです。しかし、なぜ人間がそれを見るのと同じように、カメラに光の取り込みと記録を制限する必要があるのでしょうか。 感光性「ピクセル」のフィルターを変更して、異なる波長、特に通常は見られない波長、またはより詳細な特定の色範囲で互いに近づく波長を最適に受け入れるとしましょう。そこから、色相スペクトルをストレッチできます。0/ 360が最初の色、120が2番目の色、240が最終色です。 たとえば、800 nm、400 nm、および200 nmの波長を選択して、赤外線と紫外線を少し見た場合、この結果がどうなるかを知りたいと思います。または、青く見えるコラージュがある場合、450 nm、475 nm、500 nmの波長を選択して、同様の色合いをより簡単に区別できます。別の可能性は、4つの異なる波長を検出し、これらを色相スペクトルにマッピングすることです。これにより、「四色」写真のようなものが可能になります。 以下は、予想されるモックアップです(質問をより適切に反映するように変更されています)。 ここに答えるいくつかのものがあります: これはすでに行われていますか?そうでない場合、なぜでしょうか?(私は以前に紫外線と赤外線の写真を見たことがありますが、通常は黒/白または黒/マゼンタです。なぜ1次元を使用し、スペクトルを引き伸ばさないのですか?) この方法で画像を撮るための消費者向け技術の観点から何が存在しますか? キャプチャできる波長にテクノロジーの制限はありますか?

4
人間の視覚システムの癖は写真にどのように影響しますか?
私たちの目を通して世界を眺めるとき、私たちの知覚が「ものはどうなるか」の絶対的な表現であると当然のことと考えるのは簡単です。しかし、実際には、それほど単純ではありません。 私たちの実際の視覚のほとんどは脳内で行われます—目(生物学的構築物としては驚くべきものです)は実際にはかなり平凡な光学デバイスですが、そのすべての癖は、滑らかで高解像度の3次元モデルに加工されます。世界。無限の数の光の波長が特定の色の知覚に分解されます。ラインとエッジは特別に処理されます。顔の形やその他の特殊なパターンは、形状の配置によって提案されただけの場合でも、飛び出してきます。 一言で言えば、これらすべてがどのように機能するのでしょうか?さらに重要なことに、このシステムのどのような知識が写真を作成するのに役立ちますか?私たちは何を利用でき、どのような癖が回避すべき問題を提示していますか?

5
ホワイトバランスとは*正確に*何ですか?
ホワイトバランス構成を設定するときは、温度とグリーンマゼンタシフトを調整して、シーンを照らす光源から放射された実際の光の分布と最も密接に相関する光の波長強度分布に合わせます。 私が理解していないのは、カメラがこの情報を使用してRGBカラーデータを記録する方法を変更するという意味です。この理想的な分布がセンサーを均一に照らしていると仮定すると、白/灰色のオブジェクトがセンサー全体で特定の赤/緑/青の強度を示すと予想され、このパターンがプロセスで等しいRGB値にマッピングされると仮定しますホワイトバランス補正。私はここで推測しています。 センサーのRGBフォトサイトの生データは、ホワイトバランスでモデル化された光の分布を使用してピクセルRGB値にどの程度正確に変換されますか?センサーの小さなパッチの赤、青、緑のチャネルがそれぞれ同じ数のフォトンを収集する場合、なぜこれが等しいRGB値を持つピクセルで表されないのですか?光源に応じて値を歪めることによってこれを「修正」するのはなぜですか? ホワイトバランスを正しく選べば、光源が真っ白に見えませんか?これは、一般に光源が明らかに真っ白に見えないという事実とは矛盾しています。 オブジェクトの色を正確に表現するのではなく、私の視覚の影響を受ける色合いを画像に含めたい場合、どのホワイトバランス構成でこれを実現できますか?カラーキャストを変更しない一種のグローバルな「ニュートラル」設定はありますか?たとえば、白い物体は、赤いセーフティライトがオンになっている暗い部屋では白く表示されません。私の写真でもそれらを白く見せたくありません。 ホワイトバランス構成の2つのパラメーター(温度とマゼンタグリーンシフト)は、カメラが考えるシーンの照明の波長と振幅の特性を変更します。RGBチャネルの輝度を変更するために、どのようにこの情報(式;原則としてそれが目指しているか)を使用しますか?

2
不注意な失明により、私たちは新鮮な写真の機会を知覚できなくなりますか?
不注意な失明の魅力的な議論については、この記事を参照してください:不注意な失明と注目度 それは本質的に私たちの心は私たちが意識する心に到達する前に私たちが知覚することの大部分を破棄するので、私たちの意識する心には関連する重要な情報だけが提示されると言います。しかし問題は、それが明白な見方をしていても、記事がこれの多くの例を示しているにもかかわらず、時々私たちは重要なものを見逃しているということです。これは不注意失明と呼ばれます。 だから私の質問はこれです:同じことが写真家にも起こり、同じプロセスが私たちが新鮮な写真の機会を見ることを妨げますか?もしそうなら、私たちはビジョンを新鮮で生き続けるために、どのようにこの障壁を打ち破ることができますか?

3
実際にホワイトバランスを調整する必要があるのはなぜですか?
答えは明白だと思います。ホワイトバランスがないと、色の再現が悪くなります。なぜなら、照明が異なると、色合いがたくさん変わるからです。オブジェクトの実際の色を再構築できるように、目は色合いに合わせて調整されるため、カメラもホワイトバランスを調整する必要があります。 しかし、それは奇妙に思えます。私たちは明らかにできます、シーンに色の色合いを知覚:誰もが蛍光灯がわずかに青/白の非常にありながら、白熱灯は、黄色味を帯びていることがわかります。ただし、オートホワイトバランスでは、写真の色合いが削除されます。白熱灯も蛍光灯も白くなります。 そして、私たちの目は色合いに調整しますが、写真を見ているときにそれらを調整しないのはなぜですか?なぜカメラは目がすでにするような仕事をする必要があるのですか? これは、正確に色を再現するために-私たちが認識し、したがってキャプチャしたい色合いを含め、常にホワイトバランスを昼光に設定することを意味しているようです。 しかし明らかにホワイトバランスが必要です。強い黄色のキャストを発するひどい白熱灯のある部屋でも、デジタルビューファインダーの画像は、太陽光のホワイトバランスよりも、自動のホワイトバランスの方がはるかに正確に見えます。私はしばらくカメラをいじりながらそこに立っていましたが、なぜこれが事実であるのか本当に混乱しています。黄色い色合いのない画像を表示する部屋のビューファインダーが、強い黄色い色合いで照らされたオブジェクトのすぐ隣で文字通り正しく見えるのはなぜですか?また、カメラを日光に当てると、黄色の目が部屋と画面の両方を白に戻すはずなのに、画面が突然実際の部屋よりも強い黄色の色合いを示します。 画面や印画紙について、私たちの脳や目が内部のホワイトバランス補正を「オフ」にするものはありますか?


3
ファインダーの画像にどのように焦点を合わせることができますか?
小さなアイテムを近距離で見ると、目の最短焦点距離は約15cm(6インチ)のように見えます。これよりも近いと、詳細を見る代わりに視覚がぼやけてしまいます。 では、ビューファインダーを通して、フォーカシングスクリーンにシャープな画像を表示するにはどうすればよいでしょうか。フォーカシングスクリーンに投影された画像を実際に見ているのですか、それとも遠くに大きな偽の画像を作成するために使用されるいくつかの光学的トリックがありますか?

2
人間の目のTストップとは何ですか?
人間の目の最大F値は、カメラのレンズと同じように扱うとF値は2.1になると読んでいましたが、基本的には目をカメラのレンズと同じように扱うことができないため、実際の最大値は私たちが見るものの開口部は約3.2です(簡単に言うと)。 レンズのガラスは、通過する光の一部を吸収し、カメラが受け取る光の量を減らします。たとえば、私のf / 1.8レンズは理論的に完璧なf / 1.9レンズと同じくらい多くの光を透過するため、T値は1.9と評価されました。目はカメラのレンズのように空気ではなく液体で満たされているため、これはT値に大きな影響を与える可能性があると思います。人間の目のTストップの値を探していましたが、何も見つかりませんでした。それが何であるか、またはどのように計算できるのか誰にも分かりますか?

3
なぜ天の川銀河がカメラで人間の目に見えないのですか?
天の川銀河の写真を見たとき、それらの写真のように色や星をすべて見ることができたらどんなにエキサイティングになるのだろうと思っていました(たとえば、以下)。 出典:http : //www.flickr.com/photos/bala_/4766723931/ 天の川の細部を肉眼で見ることができないのはなぜですか。光が数千光年から伝わるので目の露出時間が速いからでしょうか?または他に何が理由である可能性がありますか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.