タグ付けされた質問 「bagging」

バギングまたはブートストラップ集約は、モデル平均化の特殊なケースです。標準のトレーニングセットが与えられると、バギングはブートストラップによって新しいトレーニングセットを生成し、生成されたデータセットに対して何らかのトレーニングメソッドを使用した結果が平均化されます。バギングは、木などのいくつかの不安定な方法からの結果を安定させることができます。 mm


1
バギング手法に関連する混乱
少し混乱しています。私はこの論文を読んでいて、バギング手法は分散を大幅に減らし、バイアスをわずかに増やすだけだと説明しました。どうして分散が小さくなるのかわかりませんでした。私は分散とバイアスが何であるかを知っています。バイアスとは、モデルがデータを学習できないことです。分散は、過適合に似ています。バギングによって分散がどのように減少するかはわかりません。

1
バギング技術を使用して、多くの勾配ブースティングツリーを組み合わせることができますか?
勾配ブースティングツリーとランダムフォレストに基づいています。GBDTとRFは、バイアスと分散に取り組むために異なる戦略を使用しています。 私の質問は、複数のGBDTをトレーニングし、それらの予測を最終結果として組み合わせるために、データセットを(置き換えて)リサンプリングできるということです。 GBDTを基本学習者として使用してランダムフォレストを構築するのと同じです アイデアは、GBDTがデータセットをオーバーフィットする可能性があることです(完全に成長する決定木と同様、低バイアス、高分散)。バギング手法を使用することでこの問題も軽減でき、パフォーマンスを向上させたいと思います。 なにか提案を?

1
(決定木を使用した)バギングの剪定は避けるべきですか?
木の「袋詰め」アンサンブルでの剪定は不要であると主張するいくつかの投稿と論文を見つけました(1を参照)。 ただし、アンサンブル内の個々のツリーに対してプルーニング(たとえば、OOBサンプルを使用)を実行することは、必ずしも(または少なくともいくつかの既知のケースでは)損傷を与えるのでしょうか。 ありがとう!
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.