タグ付けされた質問 「dimensionality-reduction」

データに関する多くの情報を可能な限り保持しながら、データにまたがる多数の変数または次元を少数の次元に削減するための手法を指します。主な手法には、PCA、MDS、Isomapなどがあります。テクニックの2つの主要なサブクラス:特徴抽出と特徴選択。

2
問題は何ですか?
これが線形方程式問題の解法であることを知っています。 しかし、私の質問は、なぜ観測数が予測子数よりも少ないことが問題なのか、どうしてそのようなことが起こり得るのでしょうか。 データ収集は、彼らが少なくともこのことについて考えている範囲で、繊細な調査計画または実験計画から来ていませんか? データ収集で45の変数を収集して調査を行う場合、なぜ彼は45未満の観測値を収集するのでしょうか。私は何かを見逃しましたか?モデル選択部分は応答の非改善変数も排除しましたが、収集された変数は常に排除されますか? 45−(45−p)45−(45−p)45-(45-p) それでは、なぜそのような場合に非固有のソリューションに直面するのでしょうか。

2
オートエンコーダーは距離を維持しますか?
私の理解に基づいて、オートエンコーダを使用して、重要な基本情報を含む入力機能のコンパクトな表現を見つけます。 元の入力空間のL2距離と縮小(コンパクト)空間の間に関係はありますか?そうでない場合、コンパクトな表現が変換後の距離を維持するようにネットワークをトレーニングできますか?

1
非線形次元削減:幾何学的/トポロジーアルゴリズムと自動エンコーダ
私が理解しているように、非線形次元削減には3つの主要なアプローチがあります。 多様体学習(ISOMAP、LLE、LTSAなどの幾何学的/トポロジーアルゴリズム) オートエンコーダー 最初の2つのカテゴリに当てはまらないもの(確率に基づくt-SNE、カーネルPCAなど) 最初の2つのアプローチの利点と欠点は何ですか? オートエンコーダーが、ディープラーニングのようなマニホールドラーニングを完全に上回って、パフォーマンスの点でほとんどの機械学習アルゴリズムに影を落とすのではないでしょうか。
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.