バックグラウンド:
でxgboost反復は、ツリー収まるようにしようとすべての上に以下の目的最小限の例:f t n
ここで、は、以前の最良の推定(反復)に対する1次および2次導関数です。、Y、T - 1
そしては損失関数です。
質問(最終的に):
を構築し、特定のスプリットの特定の特徴を検討する場合、次のヒューリスティックを使用して一部のスプリット候補のみを評価します。すべての例をでソートし、ソートされたリストを渡して、2次導関数を合計します。合計がより大きく変化する場合にのみ、分割候補を考慮します。何故ですか??? k x k h i ϵ
彼らが与える説明は私を逃れています:
彼らは、以前の方程式を次のように書き換えることができると主張している。
そして、代数をたどることができません-なぜそれが等しいのか示していただけますか?
そして、彼らは「これはラベルと重みによる正確に重み付けされた2乗損失である」と主張します-私は同意する声明ですが、それが彼らが使用している分割候補アルゴリズムとどのように関連するのか理解していません...h i
これがこのフォーラムには長すぎる場合は、ありがとうございます。