ビデオから単一の静止画を作成することはできますか?


15

アイデアは天文学(amatorial)で、それはウェブカメラと望遠鏡からのビデオを撮影し、単一、ノイズの少ない画像に変換するのが一般的だという事実から来ています。

原理はオーバーサンプリングの原理で、アナログからデジタルへの変換用の電子機器(何らかのデジタル写真)でも使用され、より多くのサンプルの平均化を使用して、精度の低いハードウェアからより高いビット解像度を取得します。

私がやりたいのは、コンパクトカメラで撮った夜の写真です。シャッター時間を手動で制御せずに、長いビデオを撮影して処理し、解像度とノイズを考慮して適切な写真を取得します。

これは可能ですか?誰もが試しましたか?

別の方法としては、シャッター時間が短すぎて露出不足でノイズが多いと思われるいくつかのショットを撮影し、それらを使用して適切な写真を作成することです。これはうまくいくでしょうか?

回答:


8

はい、そうです。それを行うにはいくつかの方法があります。

どのカメラ(静止画または動画)でも機能する最も簡単な方法は、ffmpegなどのソフトウェアを使用して、動画ファイルを一連の静止画分割することです。次に、画像をExposure Fusionソフトウェアに渡します。本来の意図ではありませんでしたが、露出フュージョンは画像をブレンドするのに非常によく機能し、ノイズの低減、ダイナミックレンジの拡大、被写界深度の拡大(フュージョンの重みによる)をもたらします。

より直接的なコントロールが必要な場合は、Photoshopのようなこの概念をサポートするソフトウェアで、これらのすべての画像をレイヤーとして読み込むのは難しくありません。必要なのは、正しいブレンドモード設定することだけですアベレージのようなものがそれを行うと思います。

@Russellが言ったように、これはマルチフレームノイズリダクションを使用して画像から行うこともできます。ソニーはそれで大きく、CMOSベースのカメラ(FおよびHSシリーズ)の富士もそうです。彼らはそれをプロ低光モードと呼びます。@mattdmは、Pentaxもそれを行うと言ったが、記憶からはどれを覚えていない。

私は疑っていますが、ほとんどのペンタックス、ニコン、オリンパスILCS(プラスキヤノン1D Xと5DマークIII)で多重露出モードの存在を使用して非常に同様の結果を得るであろうと、それをしようとしませんでした。通常、これは2〜9個の画像に制限されます。露出を追加するのではなくブレンドするには、Nikon&Olympusの自動ゲインとPentaxの自動EV調整を有効にする必要があります。

独自のマルチフレームノイズ低減を行いたい場合は、露出不足の画像ではなく、適切な露出を使用します。これは、画像の暗い領域ではノイズがはるかに高いためです。明らかに、シーンが暗すぎて適切に露光できない場合、取得できるものを使用する必要があります。複数の画像を追加してより明るい画像を作成することは、画像スタッキングと呼ばれ、天体写真に使用されます。あなたの質問の文脈を考えると、これはあなたが探していたものかもしれません。


ペンタックスの場合、K-7以降のすべてのSLRとミラーレスカメラです。(Qを含む。)彼らはそれを「自動ev調整による多重露出」と呼んでいます。
プロファイルを読んでください

わかった 私はそれを間違って数えたと思います。それが私が多重露出として言及したことです。設定についての良い点は、答えを編集します。
イタイ

6

はい、可能です。

私のSony A77と最近の多くのSony DSLRにはミニバージョンがあります。

6枚の写真を連続して撮影して合成する「マルチフレームノイズリダクションモード」(MFNR)があります。高ISO /低照度の状況でのノイズ低減の結果は非常に重要です。

ここにいくつかの比較画像

三脚が必要な場合に手持ちで使用できる高ISOで本当に価値があります。私はちょうど私の後ろから約4メートル離れた場所に蛍光灯をつけてダイニングルームで6400枚のISOショットを試しました。1回の6400 ISO露出で、身もだえするノイズでいっぱいの混乱が生じました。テーブルの本は非常にノイズが不明瞭だったので、私は彼らの背骨のタイトルを読むことができませんでした。MFNRモードでは、画像はうるさいですが、許容範囲内であり、本のとげははっきりと判読できます。最終結果は、D700が1つの6400 ISOショットで生成するよりも著しく悪かった。

低ISOでは、ゲインは、発生する可能性のある定義を失うほどの価値はない可能性があります。多くの意見とテスト写真はウェブにあります。

すぐに明らかになることの1つは、フレームを平均化するだけではないということです。夜にビルボードに照らされたヘッドライトなどの高ISOショットは、ビルボードの十分に鮮明な画像と低照度領域の改善をもたらします。いくつかの最近のテストでは、2番目のフレームを参照フレームとして使用して、シーンが急速に変化する場合に改善することができますが、これはテスト環境の結果である可能性があります。行われていることは、何らかの知性を適用し、私が予想していたよりもうまく機能します。しかし、D700と同じではありません:-)。

したがって、あなたの質問に答えて、この方法は一般的な原理で機能します。
被写体が比較的静的な場合は、メガピクセルを改善できる限り高速のフレームレートのカメラを使用することをお勧めします。ビデオ機能を備えたボトムエンドのカメラには小さなセンサーが搭載されており、通常はシャッター速度を落とすことで印象的な低視力が得られます。非常に低照度のカメラでは、フレームレートは維持されますが、実際の画像コンテンツは、画像ごとに十分な明るさ​​を取得するために、たとえば3 Hzで変化する場合があります。このような場合、最低解像度の設定でメインセンサーを使用する方が適切な場合があります。または、Sony A33を購入します:-)。


ペンタックスは、マルチフレームも行います、ところで。
プロファイルを読んでください

約10年前にこのようなことをしていたロスアルトスの写真家に出会ったことを覚えていますが、彼のパートナーであった利点はNASAの深宇宙イメージングエンジニアでした。ただし、彼らが行っていたのは、長期ビデオキャプチャを記録し、キャプチャされたフレームの期間にわたって各画像を(手動で)調整し、(ソフトウェアを使用して)「ロスレス」印刷になるまでフレームをスタックすることでした印刷側では、彼のパートナーが書いたカスタムEpsonドライバーを使用しています)。彼がそれを鳴らしたほど「単純」ではないと感じましたが、48 "x36"のプリントは美しいものでした。
ジャレッドファリッシュ

3

何年も前、私はアニメーションスタジオで働いていましたが、このテクニックを使用してアニメーションフレームの品質を大幅に改善するストップモーションキャプチャソフトウェアを開発しました。このカメラは、ビデオキャプチャカードを搭載したPCに接続された、セキュリティと監視に使用される種類の小さな標準解像度のビデオカメラにすぎません(これはDSLRが存在する何年も前のことです)。アニメーターがソフトウェアにフレームをスナップするように指示したとき、シーンの短い非圧縮ビデオをキャプチャし、それを個々のフレームに分割し、これらすべてのフレームをピクセルごとに単純平均して、単一の結合画像を取得します。品質の違いは昼と夜のようでした。

通常のビデオカメラを使用してこれを行うことができます。

  • カメラを三脚に取り付け、固定露出を設定して、静止シーンを撮影します。

  • ビデオを個々のフレームに分割するには、ffmpeg(無料)を使用するか、ビデオエディターの可能性がある場合はこれも実行できます。オプションが指定されている場合、個々の画像に非圧縮の画像形式を使用します。画像は既にビデオから圧縮されているため、さらに劣化させる必要はありません。TIFFはフォーマットに適しています。可能な場合は、JPEGを使用しないでください。

  • 写真を組み合わせるには、Photoshop、GIMP、Paint Shop Pro、または不透明度のレイヤーをサポートする他の写真編集アプリを使用できます。写真を単一の画像のレイヤーとしてロードすることから始めます。ただし、平均化を行うために適切な不透明度を設定するのは難しいです。レイヤーが2つしかない場合、不透明度は下部レイヤーで100%、上部レイヤーで50%に設定する必要があります。3つの画像では、下から上に100%、50%、33%を使用します。4人の場合、100%、50%、33%、25%になります。あなたは今までにアイデアを得ていると確信しています。N番目のレイヤーの不透明度の一般式は100/Nです。残念ながら、この方法は多くの写真に使用できません。不透明度スライダーの解像度が100しか設定されていないためです。また、レイヤーのセットアップに時間がかかります。

  • 平均的なステップのより良い解決策は、操作を実行するための小さなスクリプトを作成することです。誰かがすでに考えていたようです。

これがお役に立てば幸いです!

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.