生成的対差別的
生成は「P(x,y)P(x,y)P(x,y)基づいて」を意味し、識別は「P(y|x)P(y|x)P(y|x)に基づいて」を意味することを知っていますが、いくつかの点で混乱しています: ウィキペディア(およびWeb上の他の多くのヒット)では、SVMや意思決定ツリーなどを差別的なものとして分類しています。しかし、これらには確率的な解釈すらありません。ここでの差別とはどういう意味ですか?差別的というのは、生成的ではない何かを意味するようになったのでしょうか? Naive Bayes(NB)はP(x|y)P(x|y)P(x|y)およびをキャプチャするため生成的P(y)P(y)P(y)であり、したがってP(x,y)P(x,y)P(x,y)(およびP(y|x)P(y|x)P(y|x))があります。同様の方法で単純に計算することで、ロジスティック回帰(判別モデルのポスターボーイ)を「生成」するのは簡単ではありません(P (x )= P (x 0P(x)P(x)P(x)P(x)=P(x0)P(x1)...P(xd)P(x)=P(x0)P(x1)...P(xd)P(x) = P(x_0) P(x_1) ... P(x_d)、 MLEP(xi)P(xi)P(x_i)は単なる周波数です)? 識別モデルは生成モデルよりも性能が優れている傾向があることは知っています。生成モデルを使用する実用的な用途は何ですか?データを生成/シミュレートできることが挙げられますが、これはいつ発表されますか?個人的には、回帰、分類、コラボの経験しかありません。構造化データをフィルタリングするので、ここでの使用は私とは無関係ですか?「失われたデータ」引数(P(xi|y)P(xi|y)P(x_i|y)不足しているためxixix_i)学習データのみで、あなたにエッジを与えるように思われる(あなたが実際に知っているときyyyとオーバー過小評価する必要はありませんP(y)P(y)P(y)取得します比較的愚かなP(xi)P(xi)P(x_i)とにかく直接推定することができます)、それでも代入ははるかに柔軟です(だけでyyyなく他のも基づいて予測できxixix_iます)。 ウィキペディアからの完全に矛盾した引用とは何ですか?「生成モデルは通常、複雑な学習タスクで依存関係を表現する際に識別モデルよりも柔軟性が高い」対「識別モデルは一般に、観測変数とターゲット変数の間のより複雑な関係を表現できる」 これについて考えさせられた関連質問。