回答:
この序論は、いくつかの直観的な説明を提供するかもしれないことがわかりました。
- 勾配ブースティングでは、(既存の弱学習器の)「欠点」は勾配によって識別されます。
- Adaboostでは、「欠点」は高データポイントによって識別されます。
私の理解では、Adaboostの指数関数的損失は、より良く適合したサンプルにより多くの重みを与えます。とにかく、序論で提供された勾配ブースティングの歴史に示されているように、アダブーストは損失関数の観点から勾配ブースティングの特別なケースと見なされます。
- 最初に成功したブースティングアルゴリズムであるAdaboostの発明[Freund et al。、1996、Freund and Schapire、1997]
- Adaboostを特別な損失関数を持つ勾配降下として定式化する[Breiman et al。、1998、Breiman、1999]
- さまざまな損失関数を処理するためにAdaboostを勾配ブースティングに一般化する[Friedman et al。、2000、Friedman、2001]
@Randelの優れた答えに基づいて、次の点を説明しましょう
- Adaboostでは、「欠点」は高データポイントによって識別されます
最終予測は、重み付き多数決によるすべての分類子からの予測の組み合わせです
最初の反復:
2回目の反復:
10回の反復後の最終結果
([1.041、0.875、0.837、0.781、1.04、0.938 ...
予想どおり、最初の反復は、誤分類が最も少ない係数であるため、最大の係数を持ちます。
勾配ブースティングの直感的な説明-完了予定