順番に最も鮮明な画像を見つけるためのソフトウェア?


13

少しカメラを振って画像をまとめて撮影しました。

バッチ内で最も鮮明な画像を自動的に見つけるためのソフトウェアは何ですか?

私がすでに見つけたのはImatestのfindsharpですが、彼らは次のように書いています:「シャープファイルの検索は、異なる画像の比較に使用されることはありません。結果は誤解を招きます![...]画像は同じフレーミングと同様の照明の同じ被写体のものでなければなりません」だから、揺れがあり、フレーミングに影響するため、ソフトウェアは適切ではないと思います。ソフトウェアは、カメラの光学系、たとえば異なる開口部でのシャープネスを評価するように設計されているようです。


2
自動化されたツールは、手動によるレビューほど良い結果をもたらさないと思いますが、それでもなお興味深い質問です。
AJヘンダーソン

1
これは簡単なプロセスであるに違いありませんが、私はそれについてあまり考えていません。これを行う習慣がある場合にのみ、カメラが自動的にこれを実行できます。最もコンパクトで超コンパクトなニコンにはこの機能があり、BSS for Best Shot Selectorとラベル付けされています。あなたは鋭いまたはすべてを維持するオプションがあります。すべてを選択すると、カメラはそれをバーストのスタックの最初に配置します。
板井

1
以下のようなフォーカス・スタッキングソフトウェアCombineZMは鋭く見つけるために持っている部品にそれらを結合するために、各画像のを。そのようなツールから画像全体の有用な測定値を取得する方法があるかどうかはわかりません。
コーンスレイヤー

私の意見では、手動選択が最適です。Adobe Bridgeを使用して、複数の写真を一度にプレビューできます(写真を選択してCtrl + Bを押し、写真をクリックして虫眼鏡を表示します)。
アレシュクルーティル

あなたの「わずかなカメラの揺れ」がいくらであるかを見るためにいくつかの画像を投稿できますか?実際にfindsharpを試しましたか?動きが大きくない場合、アルゴリズムが機能する可能性があります(選択した領域の勾配の絶対値の標準偏差に基づいて、領域の平均ピクセルレベルに正規化されたシャープネスをランク付けします。)
PetrÚjezdský13年

回答:


9

これは非常に洗練されたソリューションではないかもしれませんが、ハックのようなものですが、スタックから最も鮮明な画像を検索するためのヒントを読んだことがあります。私はこの方法を数回使用しましたが、機能します。

技術的な観点からは、ぼやけたショットを撮るとJPEGアルゴリズムがRAWファイルをさらに圧縮するため、これは理にかなっています。詳細が少ないと、平坦/平坦な領域が増え、保存するディスクスペースが少なくなります。

写真をファイルサイズで並べ替えると、最もぼやけたショットのファイルサイズが最も小さくなることがよくあります。ただし、焦点が大きく外れた領域(ボケ)のショットもサイズが小さくなります。そのため、非常に似ている(正確なまたは非常に近い構図/角度/焦点距離)写真のファイルサイズのみを比較する必要があります。


とてもかっこいい!これを一連の写真で試してみたところ、コンピューターからカメラの焦点をリモートで制御したため(フレーミングと露出がまったく同じ)、うまく機能しました!
ステファンファレスタム16

5

直接知りませんが、次のブログ記事を見つけました。どうやら、Capture One Proは、次の宣伝文句が指摘しているように、シーケンスで最も鮮明な画像を見つけることができます。

ポートレートやファッション作品など、短時間で大量の画像を撮影する場合、正しいフォーカスポイントの画像を選択するのに時間がかかることがよくあります。[...]フォーカスマスクは、個々の画像を分析し、最も鮮明な領域を決定することで機能します。ビデオキャプチャでフォーカスを「話す」などの機能に慣れている場合、機能は似ています。

試用版を試して、有望な結果が得られるかどうかを確認できます。


おもしろいですが、このオプションはフォーカスピーキングに似ていると言われているので、モーションブラーでうまく機能するかどうかは疑問です。
フェクリー

アルゴリズムは最もシャープな領域を識別しようとします。モーションブラー画像はそれらがある場合はほとんどありませんが、自動であるため、何らかの答えが得られます。確かに、それだけでは十分ではありません。..
フランチェスコ

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.