信号処理

信号、画像およびビデオ処理の芸術および科学の実務家のためのQ&A

2
短時間フーリエ変換(STFT)の時間分解能
STFTの時点がどのように計算されるかを理解するのに苦労していますが、決定的な答えを見つけることができません。4Hzの定常信号があり、3秒のオーバーラップがある64秒のウィンドウを使用するとします。つまり、256ポイントのウィンドウと12ポイントのオーバーラップです。 で開始しtime=0、最初の64秒を取り、FFT /パワースペクトル密度などを実行するとします。次に、それがの値であると言えt=32ますか?次のウィンドウは、3秒のスライドがにローカライズされた後t=35ですか? もしそうなら、そして私が本当に始めたいと思ったt=0なら、私は事実上から始めてt=-32、最初の128ポイントをゼロで埋め、最初の128ポイントを信号から取得しt=0ます。
8 fft  stft 

1
セグメンテーションアルゴリズムのパフォーマンスを評価するにはどうすればよいですか?
私は現在、肝臓腫瘍セグメンテーションのプロジェクトに参加しています。成長領域を使用して肝臓をセグメント化し、結果の精度を評価する必要があります。Tanimoto Coefficient、Correlationなど、領域拡張アルゴリズムのセグメンテーションの精度を評価するための特定のメトリックがあることを最近知りました。しかし、それらをMatlabに実装する方法がわかりません。/programming/9553204/tanimoto-coefficient-using-matlabをチェックしてください

3
スカログラム用のどの母親ウェーブレット?
スペクトログラムのスタイルで(1次元信号から)リアルタイムのスカログラムを作成しようとしています。 さまざまな論文と本を調べます。ガボールウェーブレット、または複雑なモーレットは、周波数と密接な関係を維持するために好まれているようです。 計算の複雑さの懸念から、実際の値のウェーブレットを使用したいと思っていましたが、どのウェーブレットが推奨されますか?
8 wavelet 

3
STFTでの窓関数の選択はどの程度重要ですか?
時間-周波数分析を使用してもつれを解こうとしている周期的な信号の合計があります。ウィンドウの長さと形によって、結果が大きく異なるようです。自動化された、うまくいけば逐次アルゴリズムを開発して仕事をしたいので、これは問題です。
8 stft 

4
DSP用に最適化されたAnsi Cライブラリ
DSPは初めてですか?オープンソースDSPアルゴリズムの優れたリソースはどこにありますか? MATLABはプロトを作成するのに優れていますが、Cコーディングに移行すると、時間がかかり、多くの間違いを犯します。フィルターなどのさまざまな実装のためのCコードの適切なリポジトリーが必要だと思います。どのポインターも良いでしょう。
8 algorithms  c 


2
異なる画像の品質(または品質の違い)を測定する方法は?
カラー画像の品質を、別の画像との違いとして、できればそれだけでも測定したいと考えています。 この質問は、私たちにビジョンアプリケーションがあり、照明条件、計算、および同様の周囲条件を改善しているという事実から来ています。次のような画像の品質の向上を測定したいと考えています。 詳細の量 コントラスト 画像の品質や画像内の情報量を説明するその他のもの このためのアイデアはありますか?多分ヒストグラムの比較、またはヒストグラムの高度な距離測定?私はいくつかの良いアイデアを聞きたいです! 編集: もちろん、ビジョンアプリケーションの結果は、画像の品質の尺度です。だが: 品質の測定を意図したものではなく、他の何かの測定です アプリケーションの結果に影響を与えるパラメーターが他にもある(たとえば、画像自体)、したがって、それは画像の品質の大まかな尺度にすぎません 人間の評価を使用することもできますが、特に人間の目は客観的ではないため、私は本当に客観的な測定が必要です(私たちの心はトリックを演じ、監視するモニターは画像に影響を与えるなど)。 最終編集: 画像の品質について議論した後、この質問はそのままにしておきます。私自身(および私の同僚)のアイデアは次のとおりです。 RGBチャネルの範囲(可能な限りすべての色を使用していますか) ソーベル振幅の平均(詳細の量または焦点の大まかな尺度。詳細については、この質問も参照してください) クリッピングされるピクセルの量または0(これらのピクセルには情報がありません) また、RGBチャネルとYCbCrチャネルの平均(変換後)。平均色が変化したかどうかを確認できます(他の光源からの光の調査につながるか、独自の照明を変更した後)。 これらの統計を組み合わせることで、単に画像を見るのではなく、より客観的な観点から品質の印象を得ることができます。また、変更が発生する可能性のある場所へのポインタにもつながります。

2
Pythonを使用してパターン検出を行うアプリのGUIでボタンを検出するにはどうすればよいですか?
Windowsの電卓アプリのGUIを例に説明します。この電卓アプリケーションが開いていて集中している場合、すべてのボタンを検出する方法を見つける必要があります。非侵入型のメソッドしか使用できないため、ボタンIDなどは問題外です。これは私を画像認識に導きます。あるいは、特定の画像ではなく、特定のパターンに従う一連の画像が必要なので、画像検出と言います。特定のボタン画像と画像認識を使用して、クリック、右クリック、dblクリックなどを行う方法を知っています[1]。逆にどうすればよいかわかりません。GUIをスキャンして、ボタンであるという要件を満たす領域を見つけます(長方形、テキスト/アイコン/グラフィックラベルなど)。より大きな取り組みは、長方形の形状を持たないアイテムを検出することです(たとえば、Windowsデスクトップ上のアイコン)。 私が必要としているものに最も近いのは、写真から顔を検出することです。[2] しかし、これを私の場合に適用する方法がわかりません。人間の顔の検出では、Haarカスケード生成で顔の何百枚もの写真を使用する必要があることがわかりました(10〜15個のボタンのスナップショットだけでこれを行う方法がわからない)。リンゴのような別の種類のオブジェクトを検出する必要がある場合は、多くの画像を使用して、そのオブジェクトのHaarカスケードを再度生成する必要があります。 あなたは、パターン検出のみを使用して、GUIでボタン、アイテムなどを検出しようとしたことがありますか?「これはアイコン/ボタンです」と言って、その領域をスナップショットで取得できるようにするだけです。 [1] PythonでSikuliXを使用して、特定のパターンでアクションを実行します。 [2] OpenCVおよびHaarカスケード(XML形式)を使用すると、これが簡単にできることがわかりました。Haarカスケードを作成するには、少しの忍耐とスキルが必要です。

4
周波数範囲の「変動性」を判断する方法は?
これは前の質問の続きです。 私は呼吸といびきの音を分析しようとしています。今はいびきをかなりうまく検出できていますが、呼吸はより大きな課題です。 分析した周波数範囲(約4KHz、フレームサイズ1024で約8KHzでサンプリング)を約5つのサブレンジに分割すると、サブレンジの1つが(スペクトル差を使用して)良好な感度を示すことがよくあります。全体の範囲でノイズ。秘訣は、どの部分範囲をいつ「信頼」するかを決定することです。 おそらく「信頼できる」サブレンジは約2Hzと0.05Hzの間のレートで変動性を示しますが、「悪い」サブレンジはよりランダムに振る舞い、それらの変動のほとんどは短い間隔です。 ある種のアルゴリズムを組み合わせて、1秒未満の解像度で値を平滑化し、より長い間隔で変動性を計算することもできますが、この種の「缶詰」アルゴリズムはないのでしょうか。その背後にある理論の小片? 助言がありますか? [注:理論的には、FFTを使用してこの情報を抽出できることは承知していますが、野球のバットを使ってノミを殺しているようです。多分もう少し軽量なものでしょうか?] 追加: ある意味で(類推を使用して)、RF送信で「ベースバンド」信号を検出しようとしています(「RF」のみがオーディオ周波数であり、「ベースバンド」は8Hz未満です)。そして、ある意味では、「RF」は「スペクトラム拡散」です。検出したい音は、多くの高調波を生成したり、複数の周波数成分を分離したりする傾向があるため、スペクトルの1つの帯域にノイズが多すぎると、おそらく別のものを利用してください。ほとんどの「ノイズ」が2Hzを超え、信号が2Hz未満であるという前提で、さまざまな周波数帯域のSNRに似たメトリックを基本的に決定することが目標です。 このアルゴリズムへの入力として、8Hz間隔で測定された各帯域の生の振幅(含まれるすべての周波数でのFFT振幅の合計)があります。 (私は正式なSNR測定を行っていませんが、処理されたスペクトル全体のSNRはしばしば1.0に近いかそれ以下に見えることに注意してください-Audacityなどのツールでサウンドエンベロープを視覚的に観察すると、エンベロープは目立ちます(耳が呼吸音を明確に識別できる場合でも)。このため、バンドを分析してSNRが適切なものを見つける必要があります。

2
データの2Dマップの主な方向
それは非常に単純な質問かもしれません。コメント、ガイド、または完全な解決策をお願いします。ただし、不完全な解決策ではなく、斬新で実用的なアイデアを優先します。 -変動の主な方向、つまり次の図の例(北東、南西)の主対角線を見つける方法は? アルゴリズムやコーディングやスニペットのアイデアは大歓迎です。 更新: 承認された回答に記載されている手順は、最も単純な実装ではほぼPCA(主成分分析)であることがわかりました。PCAは非常によく機能しました。結果として生じる方向は、視覚的に予想できるものと完全に一致しています。

3
シンプル、ストリーミング、ロスレスの画像圧縮
次の特性を持つ画像圧縮技術を知っていますか? 無損失の ストリーミング-オンザフライでピクセル単位で圧縮したい。 メモリ不足のオーバーヘッド-単一の行をバッファリングする余裕がありますが、理想的にはそれもできません。 動的辞書なし 「実世界」の画像のみなので、チェッカーボードのような「厄介なケース」でのパフォーマンスは重要ではありません 2-3x圧縮(5x-10xはさらに良いでしょうが、それは私が知っている多くを求めています) 10-16ビットピクセルで動作できます(カメラによって異なります) 私の画像は、幅が〜1kピクセル、ピクセルレートが〜20Mpix /秒になります。ピクセル深度は、1ピクセルあたり10〜16ビットです(カメラの選択によって異なります)。サブ16ビットピクセル幅は、連続ビットストリームから抽出する必要はなく、現時点では16ビットワード内で表されると想定します。 何らかの形のデルタ+算術コーディング?

4
ビデオフレーム間のハリスコーナートラッキングを改善するための前処理?
無人航空機のグレースケールビデオ画像安定化アプリケーションでは、フレームNから選択されたフレームN + 1の「良い」ハリスコーナーを見つけるのが困難です。問題の原因は、フレーム間の急激な不均一なピクセルコントラストの変化にあるようです。おそらく空中にいて、遅いフレームレート(約3 fps)を使用していることが、ピクセルコントラストのシフトの根本的な原因です。 フレームN + 1の「良い」ハリスコーナーの追跡を改善するために、フレーム間のピクセルコントラストを滑らかにするために、さまざまなヒストグラム均等化手法を試しました。結果は依然として悪いままです。 誰かが遅いフレームレートの日中の空中環境でビデオフレーム間のハリスコーナートラッキングを改善する方法について何か提案がありますか?よろしくお願いします。 編集:2012年1月30日、テストケース(実際のフレームサイズではない)画像を追加 概要の更新:2012年2月8日。人々は、Harrisコーナーはグレースケールビデオ機能の追跡ではそれほど有用ではないことを示唆しています。以下の回答は、さまざまな代替案へのリンクを提案および提供しています。これらの代替案を評価しており、その時点で結果を報告します。コメントと回答をありがとうございました。 これは、35個の「良好な」5x5ハリスコーナーが選択された前のフレームNです。元のフレームは8 bppのrawピクセルです。 59列266列目にある5x5のハリスコーナーは次のとおりです。 追跡された5x5のHarrisコーナーがいくつかある現在のフレームN + 1。そのうちの1つだけが有効です。 r47 c145のフレームN + 1に表示される前のフレーム5x5 Harrisコーナー: 選択した5x5のピクセル強度がすべて、前のフレームから現在のフレームまで不均一に変化していることに注意してください。フレーム間のコントラストイコライゼーションテクニックは、現在のフレームで選択された5x5ピクセルの前のフレームを検出するのに役立ちません。すべての提案を歓迎します。

1
FIRフィルターを異なるサンプルレートのデータに適用する
フィルターの設計がありますが、1〜2 kHzの範囲でフィルターします。 設計されたサンプルレートとは異なるサンプルレートのデータに適用したい場合はどうすればよいですか? ベッセルとチェビシェフのフィルターで構成されているとしましょう。任意のサンプルレートで各フィルターの係数を定義する関数を見つけるにはどうすればよいですか?または私はこれを手作業で行うべきですか?

1
業界標準のJPEG / H.264よりも優れた圧縮を提供する、非常に計算量の多い画像/ビデオ圧縮スキーム
広く採用されている業界標準(JPEG / H.264など)と比較して優れた圧縮性能(画像品質を一定に保つ)を提供する画像/ビデオ圧縮スキームを検索しようとしていますが、計算上またはリソースが多すぎるためです。 CPUベースのワークステーションに集中的に実装することは実行不可能であるため、一般的な標準では採用されていません。 フラクタル圧縮は良い例だとしか思いませんでした。コミュニティはそのような例をこれ以上知っていますか?

1
バイナリイメージ登録用の2D変位ベクトルを計算する方法は?
私の入力は次のようないくつかのバイナリイメージです。 それらは全体的に同じコンテンツを持っていますが、ハンドカメラから作成されているため、登録解除される場合があります。私が計算したいのは、最初の画像から2番目の画像への2D変位ベクトルです。私はOpenCVを使用しており、最初の試みは、特徴点(SURFアルゴリズム)と両方の画像間のアフィン変換を計算することでした。しかし、もちろん、特徴の説明はバイナリ画像ではやや不十分なので、マッチングは困難であり、マッチングマップは非常に不正確です。 誰か私がこれをどうやってできるのか考えていますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.