ニューラルネットワーク、ブーストツリー、サポートベクターマシン、ランダムフォレストなどのファッショナブルな学習アルゴリズムを見ていると、教師あり学習問題が促進されているようです。ディリクレプロセスとその同類は、ドキュメントや画像のクラスタリングなど、教師なし学習の問題で主に言及されているようです。私はそれらが回帰問題に使用されているのを見たり、ノンパラメトリックまたはセミパラメトリックな方法でベイジアン統計を実行したい場合の一般的な事前(たとえば、特定のモデルでの変量効果の分布の柔軟な事前)として使用していますが、私の限られた経験から、これは、従来の統計学者からの場合ほど、機械学習の群衆からのものではありません。私はこれについて少しグーグルをやった、そして私は
では、ディリクレプロセスとその従兄弟は、柔軟なクラスタリングモデルの先行として最も効果的ですか?教師あり学習問題のブースティング、SVM、ニューラルネットワークと競合していませんか?これらはこれらの問題の特定の状況でのみ有用ですか?それとも私の一般的な印象は間違っていますか?