13 特徴選択と次元削減の両方が、元の特徴セットの特徴の数を減らすことを目的としていることを知っています。両方で同じことをしている場合、両者の正確な違いは何ですか? machine-learning pca feature-selection dimensionality-reduction — ロンドンの男 ソース
13 違いは、フィーチャ選択によって作成されたフィーチャセットは元のフィーチャセットのサブセットである必要があり、次元削減によって作成されたセットは必要がないことです(たとえば、PCAは、元のものを削除し、重要度の低いものを破棄します)。 このように、特徴選択は次元削減の特別なケースです。 — フェアマイル ソース
0 特徴選択は分散で機能し、次元削減は固有値と固有ベクトルで機能します。 特徴選択では、実際には属性に取り組んでおり、分散に基づいて属性を残しますが、次元削減の場合、共分散に基づいて新しい次元を作成します。 私の答えが質問をしてくれてありがとう。 — リーブス ソース うーん...特徴の選択は分散で機能しますか? — チョンサイゴー VarianceThresholdは、特徴選択に単純な基本的なアプローチである scikit-learn.org/stable/modules/feature_selection.html — リーブス