教師あり学習のためのディリクレプロセス?


8

ニューラルネットワーク、ブーストツリー、サポートベクターマシン、ランダムフォレストなどのファッショナブルな学習アルゴリズムを見ていると、教師あり学習問題が促進されているようです。ディリクレプロセスとその同類は、ドキュメントや画像のクラスタリングなど、教師なし学習の問題で主に言及されているようです。私はそれらが回帰問題に使用されているのを見たり、ノンパラメトリックまたはセミパラメトリックな方法でベイジアン統計を実行したい場合の一般的な事前(たとえば、特定のモデルでの変量効果の分布の柔軟な事前)として使用していますが、私の限られた経験から、これは、従来の統計学者からの場合ほど、機械学習の群衆からのものではありません。私はこれについて少しグーグルをやった、そして私は

では、ディリクレプロセスとその従兄弟は、柔軟なクラスタリングモデルの先行として最も効果的ですか?教師あり学習問題のブースティング、SVM、ニューラルネットワークと競合していませんか?これらはこれらの問題の特定の状況でのみ有用ですか?それとも私の一般的な印象は間違っていますか?


どのような回帰が意味するのですか?DPのベース配布では?またはミキシングパラメーターで?そのようなモデルをフィッティングするのは難しいと思います。
確率

または、多変量DPを周辺分布と結合分布に当てはめる、ある種の一般的な「回帰」を意味しますか。
確率

@probabilityislogicフィット分布をDPからジョイントに引き、次に条件を取得することは、そのテーマのバリエーションを使用して、私が頭に描いたようなものです。スティック破壊構造のウェイトのモデリングも同様です。

回答:


1

この質問はあまり注目されていないので、私が見つけたものを更新するために回答し、(うまくいけば)議論を刺激します。私は、DPMを使用して分類(Shahbaba and Neal、2007)を行い、タンパク質の折りたたみデータでテストした記事を楽しみにしています。基本的に、彼らが使用したのは、上記のコメントで提案したものと同様のことをしたようです。ニューラルネットワークとサポートベクターマシンの両方に対して有利でした。これは、教師付き機械学習の問題に目を向けてこれらのモデルに多くの時間を費やしてきたので、(おそらく)時間を無駄にしていないように見えるので、少し安心しました。


1

RのDPpackageを見てください。ディリクレプロセスは、少なくとも変量効果の事前として使用でき、回帰のノンパラメトリックエラー分布を構築できます。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.