(ハムナーの答えは素晴らしいので、完全性のためにMetaOptimizeから私の答えをクロスポストしてください。)
私が提供するものとして生成的アルゴリズムを考え、実際にデータが生成される方法のモデルを(私はあなたの両方のモデルを与えると考えるし、というのよりも、、私はそれは同等だと思います)、そして単に分類分割を提供するような(そして必ずしも確率的な方法でではない)判別アルゴリズム。P(X|Y)P(Y)P(X,Y)
たとえば、ガウス混合モデルとk平均クラスタリングを比較します。前者には、ポイントの生成方法に関する優れた確率モデルがあります(ある程度の確率でコンポーネントを選択し、コンポーネントのガウス分布からサンプリングすることでポイントを出力します)が、後者について実際に言えることはありません。
あなたが得ることができるので、生成的アルゴリズムは、弁別特性を有していることに注意してくださいあなたが持っている一度と差別的アルゴリズムは、実際に生成的な性質を持っていないものの、(ベイズの定理によって)。P(Y|X)P(X|Y)P(Y)
1:判別アルゴリズムを使用すると、ポイントが実際に生成される方法のモデルを提供することなく、ポイントを分類できます。したがって、これらは次のいずれかです。
- 確率的アルゴリズムはを学習しようとします(例、ロジスティック回帰)。P(Y|X)
- または、ポイントからクラスへのマッピングを直接学習しようとする非確率的アルゴリズム(たとえば、パーセプトロンとSVMは単純に分離した超平面を提供しますが、新しいポイントを生成するモデルは提供しません)。
そのため、はい、識別分類子は生成的でない分類子です。
これについてのもう1つの考え方は、生成アルゴリズムがモデルに対して何らかの構造の仮定を行うが、判別アルゴリズムは仮定を少なくするというものです。たとえば、Naive Bayesはフィーチャの条件付き独立性を前提としていますが、ロジスティック回帰(Naive Bayesの識別「カウンターパート」)はそうではありません。
2:はい、Naive Bayesはおよびキャプチャするため生成的です。たとえば、およびわかっている場合、英語とフランス語の単語の確率とともに、最初にドキュメントの言語を選択して新しいドキュメントを生成できます(確率0.7の英語、確率0.3のフランス語)、選択した言語の単語確率に従って単語を生成します。P(X|Y)P(Y)P(Y=English)=0.7P(Y=French)=0.3
はい、そのような方法でロジスティック回帰を生成できると思いますが、それはロジスティック回帰にまだ存在しないものを追加しているからです。つまり、単純ベイズ分類を実行している場合、(右側の用語、およびは、新しいドキュメントを生成できるようにするものです); しかし、ロジスティック回帰でを計算するときは、これら2つのことを計算するのではなく、ロジスティック関数をドット積に適用するだけです。P(Y|X)∝P(X|Y)P(Y)P(X|Y)P(Y)P(Y|X)
3:ジェネレーティブモデルは多くの場合、小さいデータセットの判別モデルよりも優れています。なぜなら、ジェネレーティブな仮定は、過剰適合を防ぐ構造をモデルに配置するからです。たとえば、単純ベイズ対ロジスティック回帰を考えてみましょう。もちろん、単純ベイズの仮定が満たされることはめったにないため、ロジスティック回帰は、単純ベイズではできない依存関係をキャプチャできるため、データセットが大きくなるにつれて単純ベイズを上回る傾向があります。ただし、データセットが小さい場合、実際には存在しない偽のパターンでロジスティック回帰が検出される可能性があるため、Naive Bayesはモデルの一種の正規化子として機能し、過剰適合を防ぎます。Andrew NgとMichael Jordanによる、判別分類器と生成分類器に関する論文があります。
4:それは、モデルを正しく指定し、モデルが実際に保持されている場合、生成モデルはデータの基本構造を実際に学習できるが、生成的仮定が満たされていない場合、識別モデルがパフォーマンスを上回る可能性があることを意味すると思います(識別アルゴリズムは特定の構造にあまり縛られておらず、現実世界は乱雑であり、とにかく仮定が完全に満たされることはめったにありません。(混乱を招く場合は、おそらくこれらの引用符を無視してください。)