2
Gradient Boosting Trees(GBM)とAdaboostの違いの直感的な説明
GBMとAdaboostの違いを理解しようとしています。 これらは私がこれまでに理解したことです: 前のモデルのエラーから学習し、最終的にモデルの加重和を作成するブースティングアルゴリズムがあります。 GBMとAdaboostは、損失関数を除いてかなり似ています。 しかし、それでも私はそれらの間の違いのアイデアをつかむことは困難です。誰かが直感的な説明をくれますか?