タグ付けされた質問 「pattern-recognition」

類似性に基づいてデータをカテゴリーに分類する手法を指します(これは、以前に知られているか、学習されている可能性があります)。

9
マハラノビス距離の一番下の説明?
私はパターン認識と統計を研究しており、マハラノビス距離の概念にぶつかる主題について私が開くほとんどすべての本です。本は一種の直観的な説明を提供しますが、それでも私が実際に何が起こっているのかを実際に理解するには十分ではありません。誰かが「マハラノビス距離とは何ですか?」私は答えることしかできませんでした:「それはある種の距離を測定するこの素晴らしいことです」:) 定義には通常、固有ベクトルと固有値も含まれていますが、マハラノビス距離との接続には少し問題があります。固有ベクトルと固有値の定義を理解していますが、それらはマハラノビス距離とどのように関係していますか?線形代数などでベースを変更することに関係していますか? 私はまた、主題に関するこれらの以前の質問を読みました: マハラノビス距離とは何ですか?パターン認識でどのように使用されますか? ガウス分布関数とマハラノビス距離の直感的な説明(Math.SE) 私もこの説明を読みました。 答えは素晴らしく良いと絵ですが、まだ私はしていない、本当に私はアイデアを持っているが、それは暗闇の中で、まだだ...それを得ます。誰かが「おばあちゃんにそれをどのように説明しますか」という説明を与えることができますか?:)それはどこから来たのですか、何で、なぜですか? 更新: マハラノビスの式を理解するのに役立つものを次に示します。 https://math.stackexchange.com/questions/428064/distance-of-a-test-point-from-the-center-of-an-ellipsoid

9
2Dバイナリマトリックスのエントロピー/情報/パターンの測定
2次元バイナリマトリックスのエントロピー/情報密度/パターンらしさを測定したい。説明のためにいくつかの写真を見せてください: このディスプレイには、かなり高いエントロピーが必要です。 A) これには中程度のエントロピーが必要です: B) 最後に、これらの写真はすべてエントロピーがゼロに近いはずです。 C) D) E) エントロピー、それぞれをキャプチャするインデックスがあります。これらのディスプレイの「パターンらしさ」? もちろん、各アルゴリズム(たとえば、圧縮アルゴリズム、またはttnphnsによって提案された回転アルゴリズム)は、ディスプレイの他の機能に敏感です。次のプロパティをキャプチャしようとするアルゴリズムを探しています: 回転対称および軸対称 クラスタリングの量 繰り返し より複雑かもしれませんが、アルゴリズムは心理的な「ゲシュタルト原理」の特性に敏感である可能性があります。特に、 近接の法則: 対称性の法則:対称的な画像は、距離があっても集合的に知覚されます: これらのプロパティを持つディスプレイには、「低エントロピー値」が割り当てられます。かなりランダム/非構造化されたポイントを持つディスプレイには、「高いエントロピー値」が割り当てられます。 ほとんどの場合、単一のアルゴリズムでこれらの機能をすべてキャプチャすることはありません。したがって、一部の機能または単一の機能のみに対処するアルゴリズムの提案も大歓迎です。 具体的には、具体的な既存のアルゴリズム、または具体的な実装可能なアイデアを探しています(これらの基準に従って賞金を授与します)。

1
MantelのテストがMoranのIよりも優先されるのはなぜですか?
Mantelのテストは、動物の空間的分布(空間内の位置)と、たとえば遺伝的関連性、攻撃率、またはその他の属性との相関関係を調べるために、生物学的研究で広く使用されています。多くの優れたジャーナルがそれを使用しています( PNAS、動物行動、分子生態学...)。 自然界で発生する可能性のあるパターンをいくつか作成しましたが、マンテルのテストはそれらを検出するのにまったく役に立たないようです。一方、モランの私はより良い結果を得ました(各プロットの下のp値を参照)。 なぜ科学者はモランのIを代わりに使用しないのですか?見えない隠れた理由はありますか?そして、何らかの理由がある場合、マンテル検定またはモラン検定を適切に使用するためにどのように知ることができますか(仮説をどのように構成する必要があるか)?実際の例が役立ちます。 この状況を想像してください。カラスが各木に座っている果樹園(17 x 17本)があります。各カラスの「ノイズ」のレベルが利用可能であり、カラスの空間分布が彼らが作るノイズによって決定されるかどうかを知りたいです。 (少なくとも)5つの可能性があります。 「羽の鳥が集まってきます。」カラスが似ているほど、それらの間の地理的距離は小さくなります(単一クラスター)。 「羽の鳥が集まってきます。」繰り返しますが、似ているカラスは、それらの間の地理的距離が小さくなります(複数のクラスター)が、ノイズの多いカラスの1つのクラスターは、2番目のクラスターの存在に関する知識を持ちません(そうでなければ、1つの大きなクラスターに融合します) 「単調トレンド。」 「反対は引き付ける。」同様のカラスは互いに立つことができません。 「ランダムパターン。」ノイズのレベルは、空間分布に大きな影響を与えません。 それぞれの場合について、ポイントのプロットを作成し、マンテル検定を使用して相関を計算しました(その結果が重要でないことは驚くことではありません。そのようなポイントのパターン間の線形関連を見つけることは決してありません)。 サンプルデータ:( 可能な限り圧縮) r.gen <- seq(-100,100,5) r.val <- sample(r.gen, 289, replace=TRUE) z10 <- rep(0, times=10) z11 <- rep(0, times=11) r5 <- c(5,15,25,15,5) r71 <- c(5,20,40,50,40,20,5) r72 <- c(15,40,60,75,60,40,15) r73 <- c(25,50,75,100,75,50,25) rbPal <- colorRampPalette(c("blue","red")) my.data <- data.frame(x …

3
文字列(単語)の長いリストを類似グループにクラスタリングする
私には次の問題があります:非常に長い単語のリスト、おそらく名前、姓などがあります。この単語リストをクラスタ化する必要があります。同じクラスター。たとえば、「algorithm」と「alogrithm」は同じクラスターに表示される可能性が高いはずです。 パターン認識の文献で、k-meansクラスタリング、EMクラスタリングなどの古典的な教師なしクラスタリング手法をよく知っています。ここでの問題は、これらのメソッドがベクトル空間にあるポイントで機能することです。私はここで手に弦の言葉を持っています。私のこれまでの調査努力によれば、数値ベクトル空間で文字列を表現し、文字列クラスタの「平均」を計算する方法の問題は十分に答えられていないようです。この問題を攻撃するための単純なアプローチは、k-Meansクラスタリングとレーベンシュタイン距離を組み合わせることですが、「ストリングの「手段」をどのように表現するのか?」という疑問は残ります。TF-IDFウェイトと呼ばれるウェイトがありますが、それは単一の単語のクラスタリングではなく、「テキストドキュメント」クラスタリングの領域にほとんど関連しているようです。 http://pike.psu.edu/cleandb06/papers/CameraReady_120.pdf この分野での検索はまだ続いていますが、ここからもアイデアを得たいと思いました。この場合、何をお勧めしますか?この種の問題の方法を知っている人はいますか?

4
SVMのカーネルの違いは?
誰かがSVMのカーネルの違いを教えてください: リニア 多項式 ガウス(RBF) シグモイド なぜなら、カーネルは入力空間を高次元の特徴空間にマッピングするために使用されることがわかっているからです。そして、その特徴空間で、線形に分離可能な境界を見つけます。 それらはいつ(どのような条件下で)使用されますか、そしてなぜですか?

2
「非線形次元削減」のように「非線形」を理解する方法は?
線形次元削減法(PCAなど)と非線形法(Isomapなど)の違いを理解しようとしています。 この文脈で(非)線形性が何を意味するのか、私にはまったく理解できません。ウィキペディアから読んだこと 比較すると、PCA(線形次元削減アルゴリズム)を使用してこの同じデータセットを2つの次元に削減すると、結果の値はあまり整理されません。これは、この多様体をサンプリングする高次元ベクトル(それぞれが文字「A」を表す)が非線形に変化することを示しています。 何をする この多様体をサンプリングする高次元ベクトル(それぞれ文字「A」を表す)は、非線形に変化します。 平均?それとももっと広い意味で、この文脈における(非)線形性をどのように理解すればよいのでしょうか?

1
畳み込みニューラルネットワークの特徴マップの数
たたみ込みニューラルネットワークを学習するとき、次の図に関する質問があります。 1)レイヤー1のC1には6つの機能マップがありますが、これは6つの畳み込みカーネルがあることを意味していますか?各畳み込みカーネルは、入力に基づいて機能マップを生成するために使用されます。 2)レイヤー2のS1には6個の機能マップがあり、C2には16個の機能マップがあります。S1の6つの機能マップに基づいてこれらの16の機能マップを取得するプロセスはどのように見えますか?


3
パターン認識タスクにおける最先端のアンサンブル学習アルゴリズム?
この質問の構造は次のとおりです。最初にアンサンブル学習の概念を提供し、さらにパターン認識タスクのリストを提供し、次にアンサンブル学習アルゴリズムの例を挙げ、最後に私の質問を紹介します。すべての補足情報を必要としない人は、単に見出しを見て、私の質問にまっすぐ進むかもしれません。 アンサンブル学習とは何ですか? ウィキペディアの記事によると: 統計および機械学習では、アンサンブルメソッドは複数の学習アルゴリズムを使用して、構成学習アルゴリズムのみの場合よりも優れた予測パフォーマンスを取得します。通常は無限である統計力学の統計アンサンブルとは異なり、機械学習アンサンブルは代替モデルの具体的な有限セットのみを参照しますが、通常、これらの代替モデルの間にはるかに柔軟な構造が存在します。 パターン認識タスクの例: 光学式文字認識 バーコード認識 ナンバープレートの認識 顔検出 音声認識 画像認識 文書分類 アンサンブル学習アルゴリズムの例: PRタスクに使用される次のアンサンブル学習アルゴリズム(Wikiによる): アンサンブル学習アルゴリズム(複数の学習アルゴリズムを組み合わせるための教師付きメタアルゴリズム): ブースティング(主にバイアスを減らすための機械学習アンサンブルメタアルゴリズム、教師あり学習の分散、および弱い学習者を強い学習者に変換する機械学習アルゴリズムのファミリー) ブートストラップ集約(「バギング」)(統計的分類と回帰で使用される機械学習アルゴリズムの安定性と精度を改善するために設計された機械学習アンサンブルメタアルゴリズム)。 アンサンブル平均化(1つのモデルを作成するのではなく、複数のモデルを作成し、それらを組み合わせて目的の出力を生成するプロセス。モデルのさまざまなエラーが「平均化」されるため、モデルのアンサンブルのパフォーマンスは個々のモデルよりも優れていることがよくあります。 ) エキスパートの混合、エキスパートの階層的混合 異なる実装 ニューラルネットワークのアンサンブル(個々のモデルの結果を平均して決定を下す一連のニューラルネットワークモデル)。 ランダムフォレスト(分類、回帰、およびその他のタスクのためのアンサンブル学習方法。トレーニング時に多数の決定木を構築し、個々のクラスのモード(分類)または平均予測(回帰)であるクラスを出力することにより動作します。木)。 AdaBoost(他の学習アルゴリズム(「弱学習器」)の出力は、ブーストされた分類器の最終出力を表す加重合計に結合されます)。 さらに: 1つのニューラルネットワークを使用して異なる分類器を組み合わせる方法 コンピテンスエリアメソッド 私の質問 現在、最先端の技術であると考えられており、実際に企業や組織によって実際に使用されているアンサンブル学習アルゴリズムはどれですか(顔検出、車両登録プレート認識、光学文字認識など)。アンサンブル学習アルゴリズムを使用すると、認識精度が向上し、計算効率が向上します。しかし、問題は現実にこのように成り立っていますか? パターン認識タスクで、より良い分類精度とパフォーマンスを示す可能性のあるアンサンブル方法はどれですか?おそらく、一部の方法は現在古くなっているか、効果がないことが示されています。また、いくつかの新しいアルゴリズムの強さでは、アンサンブルメソッドが使用されなくなっている可能性もあります。この分野での経験があるか、この分野で十分な知識がある人は、問題を明確にするのに役立ちますか?

3
隠れマルコフモデルのしきい値処理
私はmfccおよび非表示のマルコフモデルを使用した音声認識のための概念実証システムを開発しました。既知の音でシステムをテストすると、有望な結果が得られます。システムは、未知の音が入力されると、最も近い一致で結果を返しますが、スコアは考案するのにそれほど明確ではありません。 私は、スピーチ用、水道の蛇口から出る水用、机の上でノックするための3つの隠れたマルコフモデルを訓練しました。それから、私はそれらを目に見えないデータでテストし、次の結果を得ます: input: speech HMM\knocking: -1213.8911146444477 HMM\speech: -617.8735676792728 HMM\watertap: -1504.4735097322673 So highest score speech which is correct input: watertap HMM\knocking: -3715.7246152783955 HMM\speech: -4302.67960438553 HMM\watertap: -1965.6149147201534 So highest score watertap which is correct input: knocking HMM\filler -806.7248912250212 HMM\knocking: -756.4428782636676 HMM\speech: -1201.686687761133 HMM\watertap: -3025.181144273698 So highest score knocking which is correct input: …

3
画像が空間的に接続された別々の領域で構成されているかどうかの統計的尺度
次の2つのグレースケール画像を検討してください。 最初の画像は、蛇行する川のパターンを示しています。2番目の画像はランダムノイズを示しています。 画像が川のパターンを示している可能性があるかどうかを判断するために使用できる統計的尺度を探しています。 川の画像には2つの領域があります:川=高い値とそれ以外の場所=低い値。 その結果、ヒストグラムはバイモーダルになります。 そのため、川のパターンのある画像には高い分散が必要です。 ただし、上記のランダム画像も同様です。 River_var = 0.0269, Random_var = 0.0310 一方、ランダム画像の空間的連続性は低いのに対し、河川画像の空間的連続性は高く、実験バリオグラムに明確に示されています。 分散が1つの数値のヒストグラムを「要約」するのと同じように、実験バリオグラムを「要約」する空間的連続性の尺度を探しています。 この方法では、大きなラグよりも小さなラグで大きな半分散を「罰する」ようにしたいので、次のように思いつきました。 s v a r = ∑nh = 1γ(h )/ h2 svar=∑h=1nγ(h)/h2\ svar = \sum_{h=1}^n \gamma(h)/h^2 lag = 1から15までしか加算しない場合、次のようになります。 River_svar = 0.0228, Random_svar = 0.0488 川の画像の分散は大きくなければならないが、空間分散は低くする必要があるため、分散比を導入します。 r a ti o = v a r / …

2
完全に分散した点パターンでモランの私が「-1」に等しくないのはなぜですか
ウィキペディアは間違っていますか...それとも理解できませんか? ウィキペディア:白と黒の正方形(「チェスパターン」)は完全に分散しているため、モランのIは-1になります。白い四角がボードの半分に積み重ねられ、黒い四角がもう一方に積み重ねられた場合、モランのIは+1に近くなります。正方形の色のランダムな配置は、Moran's Iに0に近い値を与えます。 # Example data: x_coor<-rep(c(1:8), each=8) y_coor<-rep(c(1:8), length=64) my.values<-rep(c(1,0,1,0,1,0,1,0,0,1,0,1,0,1,0,1), length=64) rbPal <- colorRampPalette(c("darkorchid","darkorange")) my.Col <- rbPal(10)[as.numeric(cut(my.values,breaks = 10))] # plot the point pattern... plot(y_coor,x_coor,col = my.Col, pch=20, cex=8, xlim=c(0,9),ylim=c(0,9)) ご覧のとおり、ポイントは完全に分散しています # Distance matrix my.dists <- as.matrix(dist(cbind(x_coor,y_coor))) # ...inversed distance matrix my.dists.inv <- 1/my.dists # diagonals are "0" diag(my.dists.inv) …

1
マウス(またはキーボード)クリックのパターンとコンピューターユーザーのアクティビティの予測
マウスクリックの時間パターン(クリック時間のリスト)のみに基づいて、コンピューターユーザーのアクティビティを予測できますか?[t1,t2,t3,…][t1,t2,t3,…][t_1,t_2,t_3,\ldots] 例:Facebookでの作業、時間の使用、写真の視聴、コンピュータゲームの再生など。 それらがさらに細かい予測である場合(たとえば、StarCraft対Counter Strike対SimCityをプレイする場合)、私も同様に興味があります。 (間違いなく)誰かが遊んでいる(高速でバーストの多いクリックにより)か、写真を見ている(等間隔のクリック)のが聞こえますが、その件に関してさらに客観的な結果(出版物、ブログの調査など)があるかどうか興味があります。 。 編集: 私は、キーボードのクリック(どのキーが押されているかを区別せず)または組み合わせたアプローチ(マウス+キーボード)にも同様に興味があります。

4
コックスハザードモデルの生存曲線を解釈するにはどうすればよいですか?
コックス比例ハザードモデルから生存曲線をどのように解釈しますか? このおもちゃの例ではage、kidneyデータの変数にcox比例ハザードモデルがあり、生存曲線を生成するとします。 library(survival) fit <- coxph(Surv(time, status)~age, data=kidney) plot(conf.int="none", survfit(fit)) grid() たとえば、時間、どのステートメントが正しいですか?または両方が間違っていますか?200200200 ステートメント1:被験者は20%残ります(たとえば、人がいる場合、200日目までに、およそ200人が残っているはずです)。 100010001000200200200200200200 ステートメント2:特定の人に対して、彼/彼女は200日目に生存する可能性がます。20%20%20\%200200200 βTxβTx\beta^Tx

3
ICAは最初にPCAを実行する必要がありますか?
私は、ICAを適用する前に(fastICAパッケージを使用して)PCAを適用するというアプリケーションベースの論文をレビューしました。私の質問は、ICA(fastICA)ではPCAを最初に実行する必要があるのですか? この論文では、 ... PCAを事前に適用すると、(1)ホワイトニングの前に小さな後続の固有値を破棄し、(2)ペアごとの依存関係を最小限に抑えることで計算の複雑さを軽減することで、ICAのパフォーマンスが向上することも主張されています。PCAは入力データを非相関化します。残りの高次依存関係はICAによって分離されます。 また、他の論文はICAの前にPCAを適用しています、例えばこれ。 ICAの前にPCAを実行する他の長所と短所はありますか?理論を参考にしてください。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.