予測子の処理(切り株などの基本学習器による)とブースティングにおける損失関数の処理を混同しないでください。AdaBoostは、誤学習エラーを最小限に抑えるための基本学習者の組み合わせを見つけることと考えることができますが、引用した「加法ロジスティック回帰」論文は、指数損失関数を最小限に抑えるように定式化できることも示しています。この洞察は、勾配ブースティングによって、微分可能な損失関数を最小限に抑える幅広いクラスの機械学習問題へのブースティングアプローチを切り開きました。各ステップで適合する残差は、損失関数の勾配から計算された疑似残差です。予測子がバイナリスタンプとしてモデル化されている場合でも、モデルの出力はバイナリ選択である必要はありません。
別の答えが述べるように、線形ベース学習器はブースティングには機能しない可能性がありますが、線形ベース学習器は標準またはロジスティックのいずれかの意味での「ブースト回帰」には必要ありません。明らかに非線形の切り株は、適切な損失関数を最小限に抑えるために、低速の基本学習器として組み合わせることができます。予測子の係数で線形の標準的な回帰モデルとはかけ離れていますが、それでも「ブースト回帰」と呼ばれています。損失関数は、線形モデルと、予測子として切り株またはツリーを使用する「ブースト回帰」モデルの機能は同じです。ISLRの第8章はこれをかなり明確にします。
したがって、ブースト回帰と同等のロジスティック回帰が必要な場合は、基本学習者ではなく損失関数に焦点を当てます。それは、あなたが引用した論文のLogitBoostアプローチが行うことです:adaboostに内在する指数損失ではなく、ログ損失を最小化します。ウィキペディアのAdaBoostページでは、この違いについて説明しています。
このサイトの多くの参加者は、厳密なイエス/ノー分類予測よりもログオッド/確率ベースの予測の方が非常に好ましいと主張しています。 。関連する質問への回答が示すように、AdaBoostから導出された強力な分類子から推定確率を取得することは可能ですが、LogitBoostはより優れたパフォーマンスを提供する可能性があります。
分類のための勾配ブースティングの実装は、基礎となる確率に関する情報を提供できます。たとえば、勾配ブースティングに関するこのページではsklearn
、ロジスティック回帰の逸脱損失とAdaBoostの指数損失の間でコードがどのように選択できるかを示し、勾配ブーストモデルから確率を予測する関数を説明します。