ロジスティック回帰やランダムフォレストなどの分類器に事前クラス確率分布を組み込む方法についての記事や講義が見つからないことに驚いています。
だから私の質問は:
以前のクラスの確率分布をロジスティック回帰またはランダムフォレストに組み込むにはどうすればよいですか?
以前のクラス確率分布を組み込むことは、ベイジアン機械を使用する必要があることを意味しますか?
私はクラスaがクラスbよりもはるかに可能性が高いことを知っている分類タスクに直面しています。
アドホックな解決策は、クラスAのサンプルをトレーニングセットに含めるだけですが、これに関する理論的な結果はありますか?
私が考えたのは、決定しきい値を0.5からこの以前の不均衡を考慮した値に変更することでした。しかし、それが理論的に理にかなっているのかどうかさえわかりません。決定を下す準備ができた時点で、すでにすべての特徴値を調べているため、事前確率ではなくクラスの条件付き確率を気にする必要があるためです。