回答:
Torosの答えに加えて、
これら(下記の箇条書きを参照)3つは非常に似ていますが、微妙な違いがあります-(簡潔で覚えやすい)
特徴抽出と特徴エンジニアリング:生データのモデリングに適した特徴への変換。
特徴変換:アルゴリズムの精度を向上させるためのデータの変換。
機能の選択:不要な機能を削除します。
同じ例を追加するだけで、
特徴抽出とエンジニアリング(それらから何かを抽出できます)
特徴の変換(意味のあるものに変換する)
機能の選択(選択したこれらの機能に基づいてモデルを構築する)
お役に立てれば...
他の人が共有しているリンクを見てください。彼らはかなりいいです...
Adityaが言ったように、時々互いに混同される3つの機能関連の用語があります。私はそれらのそれぞれに要約説明をしようとします:
達成したい唯一のものが既存のデータセットの次元削減である場合、フィーチャ変換またはフィーチャ選択方法のいずれかを使用できます。しかし、「重要」と特定した機能の物理的解釈を知る必要がある場合、または分析のために収集する必要があるデータの量を制限しようとしている場合(機能変換にはすべての初期機能セットが必要です)、機能の選択のみが機能します。
機能の選択と次元削減の詳細については、次のリンクを参照してください。
それらは2つの異なるものだと思います
機能選択から始めましょう:
この手法は、ターゲット変数のほとんどを説明する機能を選択するために使用されます(ターゲット変数と相関関係があります)。このテストは、モデルがデータに適用される直前に実行されます。
それをよりよく説明するために、例を挙げてみましょう。10個の特徴と1個のターゲット変数があり、9個の特徴がターゲット変数の90%を説明し、10個の特徴が一緒にターゲット変数の91%を説明します。したがって、1変数は大きな違いを生まないので、モデリングする前にそれを削除する傾向があります(ビジネスにとっても主観的です)。予測因子の重要度とも呼ばれます。
次に、特徴抽出について説明します。
これは、教師なし学習、画像の輪郭の抽出、テキストからのバイグラムの抽出、音声テキストの録音からの音素の抽出で使用されます。データディクショナリがないなど、データについて何も知らない場合、機能が多すぎるため、データが理解できる形式ではありません。次に、この手法を適用して、ほとんどのデータを説明する機能を取得してみます。特徴抽出には、特徴の変換が含まれます。これは、次元削減の過程で一部の情報が失われるため、多くの場合、可逆的ではありません。
指定されたデータに特徴抽出を適用して特徴を抽出し、ターゲット変数に関して特徴選択を適用して、良いモデルを作成して良い結果を得るために役立つサブセットを選択できます。
これらのLink-1、Link-2を通過できますを使用して、理解を深めることができます。
R、Python、SPSSで実装できます。
さらに説明が必要な場合はお知らせください。
機械学習プロジェクトの成功の重要な部分は、訓練するための優れた機能セットを考え出すことです。機能エンジニアリングと呼ばれるこのプロセスには、以下が含まれます。
•機能の選択:既存の機能の中からトレーニングする最も有用な機能を選択します。
•特徴の抽出:既存の特徴を組み合わせて、より有用な特徴を生成します(前述のとおり、次元削減アルゴリズムが役立ちます)。
•新しいデータを収集して新しい機能を作成する