stats.SEに関する同様の質問も参照してください。
高めるようなアルゴリズムのAdaBoostとLPBoostを「弱い」学習者が唯一のウィキペディアから、有用であることがより良いチャンスよりも実行する必要が合成されることが知られています:
使用する分類器は弱い(つまり、かなりのエラー率を表示する)場合がありますが、パフォーマンスがランダムでない限り(バイナリ分類のエラー率が0.5になる場合)、最終モデルが改善されます。ランダムな分類器から予想されるエラー率よりも高いエラー率の分類器でさえ、分類器の最終線形結合に負の係数を持ち、したがってその逆のように動作するため、有用です。
強い学習者ではなく、弱い学習者を使用する利点は何ですか?(たとえば、「強力な」学習方法でブーストしない理由-過剰適合しやすいのでしょうか?)
弱い学習者にとってある種の「最適な」強さはありますか?そして、これはアンサンブルの学習者の数に関連していますか?
これらの質問に対する答えを裏付ける理論はありますか?