Lytroライトフィールドカメラの基本的な仕組みは何ですか?


22

lytro.comは、新しいライトフィールドカメラについて、1面の光ではなくライトフィールド全体をキャプチャできるため、焦点や遠近調整を含むまったく新しい後処理の可能性を実現できると説明しています。

どのような種類のセンサーが「あらゆる時点であらゆる方向のあらゆる光のビームを取り込む」ことができますか?本質的に無限の量の情報はどのようにエンコードおよび操作されますか?従来の意味でレンズは前面にありますか?

ここに発明者の論文があります:http//www.lytro.com/renng-thesis.pdf

従来の技術に精通している私たちにとって、誰かがこれを煮詰めることはできますか?


2
すごいこれらの男のプレスはちょうど火の上に今日されている...
rfusca

1
「ユニコーン」以上のものであることを願っています。
クレイグウォーカー

1年ほど前にカメラが動作しているのを見て、驚くばかりです...ユニコーンは関係ありません。
cabbey

会社で働く45人のチームを除き、この質問に誰がどのように答えられるかはわかりません。
dpollitt

1
@dpollitt論文はそれをすべて伝えています...彼は伝統的な言葉でそれを理解しようとしているように聞こえます。
cabbey

回答:


15

これについて考える簡単な方法は次のとおりです。

1台のカメラの代わりに、10x10アレイに100台のカメラのグリッドがあると想像してください。射撃すると、それぞれが同時に射撃します。彼らはそれぞれ、あなたが写真を撮っているものについて、わずかに異なる見方をします。イメージを「リバースエンジニアリング」し、さまざまな方法で再構築するために使用できる数学モデルがいくつかあります。100台のカメラの代わりに数千台のカメラがあり、それらはすべてセンサー平面のすぐ上にあるレンズの配列によって形成されていることを除いて、これはちょっとしたことです。そのため、カメラセンサーから出力される画像には、それぞれが隣の画像とわずかに異なる部分的な画像の束があります。次に、数学を使用して、これらの部分画像から単一の画像を再構成します。


それは彼らの「効果」の説明の良い要約です。実装の概要を期待しています。センサーは、すべてのビーム/方向/モーメントを何を感知しますか?このような無限の属性セットは、どのようにデジタルエンコードされますか?
クリス・ノエ

彼の論文には、実際のセンサーがキャプチャするものに関するいくつかの例があります。図
3.3、3.5、3.7、4.11

11

Ren Ngの非常に親しみやすい論文を読んだ後の私の要約です。

従来のデジタルカメラでは、入射光は平面であるセンサーに焦点を合わせます。センサーは、各感光性セルのピクセルで輝度を測定します。これにより、結果の値のラスタをコヒーレント画像としてプロットできるという意味で、最終画像が生成されます。

ライトフィールド(Plenoptic)カメラは同じ種類のセンサーを使用しますが、センサーの前にマイクロレンズのアレイを配置します。これがイメージングプレーンになり、センサー全体ではなく、後処理されたイメージのピクセル解像度を定義します。各マイクロレンズは、さまざまな方向の光線をキャプチャし、センサー上のセルのグループに記録される「サブ開口画像」を生成します。論文の役立つ図:

ここに画像の説明を入力してください

形成されていた従来の写真は、各ピクセルのサブアパーチャ画像の配列を合計することにより導き出すことができます。しかし、ポイントは、レイトレーシング計算を使用することで派生が可能になるということです。(レオナルド・デ・ヴィンチはうらやましいでしょう。)特に被写界深度を操作できるため、従来の開口部/被写界のシャックルの深さを分離できます。レンズの収差補正も可能です。

この論文は、実際にはマイクロレンズの数、各レンズの下のセンサーの面積などによって制限される場合、「全」ライトフィールドと「すべて」の光の方向をキャプチャできることを特徴としています。それ以外の場合、十分な解像度をそれに投げることができれば、「事実上すべて」と言えます。そのため、プレノプティックカメラはピクセルカウントとレイカウントをアドバタイズすると思います。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.