タグ付けされた質問 「manifold-learning」

3
多様体とは何ですか?
主成分分析、LDAなどの次元削減手法では、多くの場合、マニホールドという用語が使用されます。技術用語ではない多様体とは何ですか?ポイントが次元を削減したい球体に属し、ノイズyがあり、xとyが無相関の場合、実際のポイントxはノイズのため互いに遠く離れます。したがって、ノイズフィルタリングが必要になります。したがって、次元削減はz = x + yで実行されます。したがって、ここでxとyは異なる多様体に属しますか?バツxxyyyバツxxyyyバツxxz= x + yz=x+yz = x+yバツxxyyy 私はロボットビジョンでよく使用されるポイントクラウドデータに取り組んでいます。取得時のノイズのために点群はノイズが多く、次元を減らす前にノイズを減らす必要があります。そうしないと、誤った次元削減が行われます。それでは、ここでの多様体とは何ですか?また、ノイズは属する同じ多様体の一部ですか?バツxx

2
「非線形次元削減」のように「非線形」を理解する方法は?
線形次元削減法(PCAなど)と非線形法(Isomapなど)の違いを理解しようとしています。 この文脈で(非)線形性が何を意味するのか、私にはまったく理解できません。ウィキペディアから読んだこと 比較すると、PCA(線形次元削減アルゴリズム)を使用してこの同じデータセットを2つの次元に削減すると、結果の値はあまり整理されません。これは、この多様体をサンプリングする高次元ベクトル(それぞれが文字「A」を表す)が非線形に変化することを示しています。 何をする この多様体をサンプリングする高次元ベクトル(それぞれ文字「A」を表す)は、非線形に変化します。 平均?それとももっと広い意味で、この文脈における(非)線形性をどのように理解すればよいのでしょうか?

2
半教師あり学習の多様な仮定とは何ですか?
半教師あり学習における多様な仮定の意味を理解しようとしています。誰でも簡単に説明できますか?私はその背後にある直感をつかむことができません。 データは、高次元の空間に埋め込まれた低次元の多様体上にあると言います。意味がわかりませんでした。

1
カーネルPCAのカーネルを選択するには?
カーネルPCA(主成分分析)による最終的なデータ出力で適切なデータ分離をもたらすカーネルを選択する方法と、カーネルのパラメーターを最適化する方法は何ですか? できればレイマンの用語を大いに歓迎し、そのような方法を説明する論文へのリンクもいいでしょう。

2
多様体上の統計のグラフィカル直観
で、この記事は、文を読むことができます: モデルは通常、有限次元多様体上の点θθ\thetaで表されます。 上の微分幾何学と統計マイケル・K・マレーとジョン・W・ライスによってこれらの概念は、数学的な表現を無視して散文読めるでもで説明されています。残念ながら、イラストはほとんどありません。同じことがのために行くこの記事 MathOverflowに。 トピックをより正式に理解するための地図または動機として役立つ視覚的表現の支援をお願いしたいと思います。 マニホールドのポイントは何ですか?このオンライン検索からのこの引用は、データポイントまたは分布パラメーターのいずれかである可能性があることを示しているようです: 多様体と情報幾何学に関する統計は、微分幾何学が統計学と出会う2つの異なる方法です。多様体に関する統計では、多様体上にあるのはデータですが、情報幾何学では、データはRnRnR^nにありますが、パラメーター化された対象の確率密度関数のファミリーは多様体として扱われます。このような多様体は統計的多様体として知られています。 ここで、接線空間の説明に触発されてこの図を描きました。 C∞C∞C^\infty(M)(M)(\mathcal M)p∈Mp∈Mp\in \mathcal M(ψ:R→M)(ψ:R→M)(\psi: \mathbb R \to \mathcal M)p.p.p.p,p,p,C∞(t)→R,C∞(t)→R,C^\infty (t)\to \mathbb R,(f∘ψ)′(t)(f∘ψ)′(t)\left(f \circ \psi \right )'(t)ψψ\psiMM\mathcal Mp,p,p,f,f,f,fffppp 同等性(または統計に適用される同等性の1つ)はここで説明されており、次の引用に関連しています。 sss RsRs\mathcal R^ss.s.s. RR\mathbb Rψ:R→Mψ:R→M\psi: \mathbb R \to \mathcal Mfff(f∘ψ)′(t).(f∘ψ)′(t).\left(f \circ \psi \right)'(t).f:M→Rf:M→Rf: \mathbb M \to \mathbb Rψψ\psifff 背景が追加されたもの: 注目に値するのは、これらの概念がMLの非線形次元削減に直接関係しないことだと思います。それらは情報ジオメトリに似ています。ここに引用があります: RnRnR^nnnn Oren Freifeldによる形状変形のモデリングへの応用を伴う多様体に関する統計からの以下の情報: MMMTpMTpMTpMp∈Mp∈Mp …

1
多様体学習と非線形次元削減の違いは何ですか?
多様性学習と非線形次元削減の違いは何ですか? これら2つの用語が同じ意味で使用されているのを見てきました。例えば: http://www.cs.cornell.edu/~kilian/research/manifold/manifold.html: 多様体学習(非線形次元削減とも呼ばれる)は、本来、高次元空間にあるデータを低次元空間に埋め込む一方で、特性を維持するという目標を追求します。 http://www.stat.washington.edu/courses/stat539/spring14/Resources/tutorial_nonlin-dim-red.pdf: このチュートリアルでは、「多様体学習」と「次元削減」は互換的に使用されます。 https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3337666/: 次元削減法は、多次元クラスの統計的サンプリングに数学的に定義された多様体を使用して、保証された統計的精度の識別ルールを生成するアルゴリズムのクラスです。 ただし、http://scikit-learn.org/stable/modules/manifold.htmlはより微妙です。 多様体学習は、非線形次元削減へのアプローチです。 私が見ることができる最初の違いの1つは、多様体が線形である可能性があることです。したがって、非線形多様体学習と非線形次元削減を比較する必要があります。

2
多様体の仮定が正しいことを証明する方法は?
機械学習では、データセットが滑らかな低次元多様体(多様体の仮定)にあると想定されることがよくありますが、特定の条件が満たされていると仮定すると、データセットが実際に(ほぼ)生成されることを証明する方法はありません低次元の滑らかな多様体から? たとえば、データシーケンスが与えられた場合、(角度の異なる顔画像のシーケンスと言います)および対応するラベルシーケンスここで、 (フェイスシーケンスの角度など)。とが非常に近い場合、それらのラベルとも非常に近いと仮定すると、{X1…Xn}{X1…Xn}\{\mathbf{X}_1 \ldots \mathbf{X}_n\}Xi∈RdXi∈Rd\mathbf X_i \in \mathbb{R}^d{y1…yn}{y1…yn}\{ y_1 \ldots y_n\}y1⪯y2…⪯yny1⪯y2…⪯yny_1 \preceq y_2 \ldots \preceq y_nXiXiX_iXi+1Xi+1X_{i+1}yiyiy_iyi+1yi+1y_{i+1}{X1…Xn}{X1…Xn}\{\mathbf{X}_1 \ldots \mathbf{X}_n\}低次元の多様体にあります。これは本当ですか?もしそうなら、どうすればそれを証明できますか?または、多様体の仮定が真であると証明できるように、シーケンスはどのような条件を満たす必要がありますか?

1
非線形次元削減:幾何学的/トポロジーアルゴリズムと自動エンコーダ
私が理解しているように、非線形次元削減には3つの主要なアプローチがあります。 多様体学習(ISOMAP、LLE、LTSAなどの幾何学的/トポロジーアルゴリズム) オートエンコーダー 最初の2つのカテゴリに当てはまらないもの(確率に基づくt-SNE、カーネルPCAなど) 最初の2つのアプローチの利点と欠点は何ですか? オートエンコーダーが、ディープラーニングのようなマニホールドラーニングを完全に上回って、パフォーマンスの点でほとんどの機械学習アルゴリズムに影を落とすのではないでしょうか。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.