カメラでまったく異なる原色を使用するとどうなりますか?
つまり、多くの人が知っているように、人間には3つの錐体細胞があり、3つの異なる「原色」を見ることができます。一方、他の多くの動物には4つ以上の錐体細胞があり、さらに広い、またはより明確なスペクトルを見ることができます。 現在、デジタルカメラは通常、感光性の「ピクセル」のアレイを使用して光を記録します。ピクセルは一般に4つのグループに配置され、2つは(フィルター材料を使用して)緑、1つは赤、1つは青に特化しています。各ピクセルで検出された強度は、アルゴリズムを使用してRGBファイルに変換されます。各専用ピクセルによって記録された強度は、以下の色相スペクトルにマッピングできます。 結果として得られる画像は私たちの目に完全に理解でき、ほとんどの目的と目的でシーンを記録するのに十分であるため、これは私たちが一般的に望んでいることです。しかし、なぜ人間がそれを見るのと同じように、カメラに光の取り込みと記録を制限する必要があるのでしょうか。 感光性「ピクセル」のフィルターを変更して、異なる波長、特に通常は見られない波長、またはより詳細な特定の色範囲で互いに近づく波長を最適に受け入れるとしましょう。そこから、色相スペクトルをストレッチできます。0/ 360が最初の色、120が2番目の色、240が最終色です。 たとえば、800 nm、400 nm、および200 nmの波長を選択して、赤外線と紫外線を少し見た場合、この結果がどうなるかを知りたいと思います。または、青く見えるコラージュがある場合、450 nm、475 nm、500 nmの波長を選択して、同様の色合いをより簡単に区別できます。別の可能性は、4つの異なる波長を検出し、これらを色相スペクトルにマッピングすることです。これにより、「四色」写真のようなものが可能になります。 以下は、予想されるモックアップです(質問をより適切に反映するように変更されています)。 ここに答えるいくつかのものがあります: これはすでに行われていますか?そうでない場合、なぜでしょうか?(私は以前に紫外線と赤外線の写真を見たことがありますが、通常は黒/白または黒/マゼンタです。なぜ1次元を使用し、スペクトルを引き伸ばさないのですか?) この方法で画像を撮るための消費者向け技術の観点から何が存在しますか? キャプチャできる波長にテクノロジーの制限はありますか?