タグ付けされた質問 「image-processing」

画像処理は、画像信号の計算変換です。これは、後処理(おそらく画像処理を使用して目的の外観を実現するために画像を調整する)とは異なり、バッチ変換、変換、および機能強化の技術的な側面です。

3
高速フーリエ変換法で画像を分析する方法は?
FFT(高速フーリエ変換)の方法で画像を分析することを学んでいます。私が分析している画像を以下に添付します。 ジョージマークスが芝生でポーズをとる女性の肖像画。ゲッティイメージズ。 そして、この写真のFFT分析の結果を以下に示します。 FFT画像では、低周波領域は画像の中心にあり、高周波領域は画像の角にあります。誰かがFFT画像の形成について教えてもらえますか?たとえば、中心を通る白い水平線があるのはなぜですか?また、なぜFFT画像は「太陽」を発するビームのようですか?

6
最良の結果を得るには、常に後処理が必要ですか?
古いカメラを使用している間、Photoshopで写真を後処理することは不自然で、偽物で、欺くようなものだと考えていました。しかし、DSLRを購入した後は、絞り、シャッタースピード、ISO設定などの多くのパラメーターだけでなく、撮影した写真にどのフォーマットを選択するかも考えます:RAWまたはJPEG。そして、アドバイスのほとんどはRAWを使用することです。 RAW形式の主な利点は、品質を損なうことなく後処理を行うことができることです。そのため、良い画像を得るためには後処理が常に必要な部分であるという結論を導きます。私はこの結論に正しいですか? 経験豊富な写真家が最高の(またはちょうど良い)結果を得るために、後処理はどの程度使用されますか?

4
ヘッドショットのスタックを自動調整する方法は?
私は自分の「毎日の顔」プロジェクトに取り組んでいます-自分の写真を撮り、その後それらを順番に組み合わせます。 私の目がすべての写真でまったく同じ位置になるように、すべての写真を調整する最も簡単で最速の方法は何だと思います。 顔からカメラまでの距離やすべての写真の頭の位置などのパラメータは非常に似ていますが、写真ごとに少し異なります。 目の位置に基づいて画像を調整する最も速い方法は何ですか?

11
カメラがシャッター全体を通して光データを記録しないのはなぜですか?
質問のタイトルが紛らわしい場合は申し訳ありませんが、これを表現する最善の方法はわかりません。カーテンを使用するメカニカルシャッターを使用する代わりに、電子シャッターで画像を一度にキャプチャできることを学びました。これは私にアイデアを与えました。与えられたショットが1/200秒で適切に露出されると仮定しますが、画像のダイナミックレンジが広すぎてカメラがキャプチャできません。 光データを収集して最終的に1つの画像として保存するのではなく、電子シャッターを備えたカメラが、シャッターの全期間を通じて画像から光データを連続的にキャプチャおよび記録できないのはなぜですか?部屋が暗闇から始まり、徐々に明るさを増すのを見るようなものです。カメラは、HDRの複数の露出を必要とせずに、画像のダイナミックレンジ全体をキャプチャし、データを1枚の写真でダイナミックレンジ全体の画像にコンパイルすることができます。また、カメラは露出の全範囲からの光データを保存しているため、情報を失うことなく後処理で露出調整を行うことができます。なぜこのアイデアは現在実装されていないのですか?

4
最新のデジタル一眼レフでは、なぜ物理的なアンチエイリアシングフィルターが依然として必要なのですか?
アンチエイリアシング(AA)フィルターの目的はモアレを防ぐことだと理解しています。デジタルカメラが最初に登場したとき、モアレパターンを防ぐのに十分なぼかしを作成するためにAAフィルターが必要でした。当時、カメラプロセッサのパワーは非常に限られていた。しかし、なぜ最新のデジタル一眼レフカメラのセンサーにAAフィルターを配置する必要があるのでしょうか? これは、センサーからの出力がデモザイキングされているときに適用されるアルゴリズムによって、同じくらい簡単に達成できませんか?カメラで利用可能な現在の処理能力により、数年前よりもはるかに多くのことが可能になりました。キヤノンの現在のDigic 5+プロセッサの処理能力はDigic IIIプロセッサの100倍を超えています。特にRAWファイルを撮影する場合、後処理段階でAAブラーを行うことはできませんか?これは、ニコンD800Eの基本的な前提ですが、最初のフィルターに対抗するために2番目のフィルターを使用していますか?

3
SLRを使用して写真の「グリーン」を測定するにはどうすればよいですか?
バックグラウンド 私のデジタル写真は、MatlabやRなどのコンピュータープログラムにamxnx 3マトリックスとして読み込むことができます。ここで、mxnは3つの(赤、緑、青)センサーのそれぞれによって観測されるピクセル数で、マトリックスの各セルには数字がありますセンサーが観測した明るさを反映した1〜255から。 私はこの情報を使用して、写真の緑の客観的な測定値を取得したいと思います。なぜなら、緑と植物の成長を相関させたい(トウモロコシ畑の1日につき1枚の写真を想像する)ためです。 この方向の前の仕事は、緑のインデックスを次のいずれかで計算することにより、ある程度成功しました。 緑%=緑/(青+赤)または 緑の発散= 2 *緑-赤-青 各mxnピクセルのウェブカメラ画像から取得しましたが、開口部または入射放射(太陽角)を制御できませんでした。 緑の「絶対的な」尺度を探しているわけではないことに注意してください。数字のスケールと分布は重要ではありません-緑の一貫した相対的な尺度を提供する必要があります。 質問 SLRを使用して、次のいずれかまたはすべてで不変である緑の堅牢な測定値を取得できますか。 雲カバー? 時刻? 年の日?(これが唯一の要件です) 背景の空/地面の割合? 現在の状態 私は次のアイデアを思いつきましたが、どれが必要なのか、または緑/(赤+青)の比率に影響を与えないのかはわかりません 白い部分のプラスチックの写真を撮り、この画像を使用して他の値を正規化します 絞りを固定 シャッター速度を修正 白い紙を使用してホワイトバランスを設定します 同じ角度からすべての写真を撮る 太陽の正午にすべての写真を撮る

2
ボケをシミュレートするためにどのアルゴリズムを使用できますか?
写真の各ピクセルをループし、画像全体にボケを適用するスクリプトを作成しようとしています。 このリンクに基づいてスクリプトを作成しましたが、それはハックのようです。 3つの入力画像があります:黒と白の深度マップ、写真、およびボケの「ブラシ」画像(現在は六角形です)。写真のすべてのピクセルに対して、ボケブラシをスタンプし、そのピクセルの中心とそのピクセルの色に合わせます。 見た目は...小さなボケブラシでは大丈夫ですが、ボケブラシのサイズを大きくすると、ガウスぼかしのように見えます。これが私のアルゴリズムでぼやけたタイムスクエアの写真です: 暗いエッジを気にしないで、私はそれを修正することができます。 ガウス分布とは異なると言えますが、それでもボケと呼ばれるものからは程遠い、鮮明なエッジがあります: 私のアルゴリズムがそれを行う理由を理解しています...どうすればボケをより正確にシミュレートできますか?

4
複数の低品質の写真を1つの高品質の写真に結合できますか?
携帯電話から撮影した低品質の写真を組み合わせる簡単なツールはありますか?どうすればそれらを高品質に組み合わせることができますか? 編集:どうやらコンセプトは積み重ねられているようです:「フォーカススタッキングは、部分的に焦点が合っている同じオブジェクトの複数の画像を撮影し、それらを鋭い部分を保ちぼやけたものを取り除くように組み合わせます」

7
カメラでまったく異なる原色を使用するとどうなりますか?
つまり、多くの人が知っているように、人間には3つの錐体細胞があり、3つの異なる「原色」を見ることができます。一方、他の多くの動物には4つ以上の錐体細胞があり、さらに広い、またはより明確なスペクトルを見ることができます。 現在、デジタルカメラは通常、感光性の「ピクセル」のアレイを使用して光を記録します。ピクセルは一般に4つのグループに配置され、2つは(フィルター材料を使用して)緑、1つは赤、1つは青に特化しています。各ピクセルで検出された強度は、アルゴリズムを使用してRGBファイルに変換されます。各専用ピクセルによって記録された強度は、以下の色相スペクトルにマッピングできます。 結果として得られる画像は私たちの目に完全に理解でき、ほとんどの目的と目的でシーンを記録するのに十分であるため、これは私たちが一般的に望んでいることです。しかし、なぜ人間がそれを見るのと同じように、カメラに光の取り込みと記録を制限する必要があるのでしょうか。 感光性「ピクセル」のフィルターを変更して、異なる波長、特に通常は見られない波長、またはより詳細な特定の色範囲で互いに近づく波長を最適に受け入れるとしましょう。そこから、色相スペクトルをストレッチできます。0/ 360が最初の色、120が2番目の色、240が最終色です。 たとえば、800 nm、400 nm、および200 nmの波長を選択して、赤外線と紫外線を少し見た場合、この結果がどうなるかを知りたいと思います。または、青く見えるコラージュがある場合、450 nm、475 nm、500 nmの波長を選択して、同様の色合いをより簡単に区別できます。別の可能性は、4つの異なる波長を検出し、これらを色相スペクトルにマッピングすることです。これにより、「四色」写真のようなものが可能になります。 以下は、予想されるモックアップです(質問をより適切に反映するように変更されています)。 ここに答えるいくつかのものがあります: これはすでに行われていますか?そうでない場合、なぜでしょうか?(私は以前に紫外線と赤外線の写真を見たことがありますが、通常は黒/白または黒/マゼンタです。なぜ1次元を使用し、スペクトルを引き伸ばさないのですか?) この方法で画像を撮るための消費者向け技術の観点から何が存在しますか? キャプチャできる波長にテクノロジーの制限はありますか?

4
特定の画像ファイル形式を使用するメリットは何ですか?
GIMP、Photoshop、MS Paintなどのアプリケーションを使用して画像ファイルを編集すると、保存中に必要なファイル形式を選択するよう求められます。利用可能なさまざまな形式がありますが、一般的な形式はJPEG、PNG およびBMP、GIFおよびTIFFです。一部のプログラムでは、JP2のようなさらに多くの形式があります。 それでは、どのオプションを選択する必要がありますか?特定のファイル形式を使用するメリットとデメリットは何ですか?




2
中心が同じで周辺コンテンツが異なる画像をどのようにステッチできますか?
この問題を解決するための助けを探しています。一連の画像をつなぎ合わせたい。それを説明する最も簡単な方法は、たとえば、両側に建物の繰り返しのパターンがある長い通りを歩いているとしましょう。それで、私は通りを下に向けて写真を撮り、建物を周辺のビューのようなものにします。次に、設定された数のステップを移動して、別の写真を撮る、というように続きます。これらの写真をどのように貼り合わせますか? ここに私がステッチしようとしている画像のサンプルがあります: これらはカメラショットではなく、エミッタに垂直な光子検出器タイルからの読み取り値です。

3
RAW撮影時の画像処理はカメラに関係ありますか?
カメラが出てきたとき、同社はしばしば画像プロセッサがアップグレードされていると述べています。 Does such an upgrade matter when one only shoots in RAW? RAWを撮影する場合、画像はセンサーから直接取得されます。処理はコンピュータのカメラ外で行われます。 Does the on-camera image processor process the RAW image or is it just used when the camera outputs JPEG? If it comes into play when shooting RAW, what does it exactly do?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.