Lasso
回帰などの前に変数を標準化する3つの主な理由を読みました。
1)係数の解釈可能性。
2)収縮後の係数推定値の相対的な大きさにより、係数の重要度をランク付けする機能。
3)傍受の必要はありません。
しかし、私は最も重要な点について疑問に思っています。標準化によってモデルのサンプル外の一般化が改善されると考える理由はありますか?また、モデルにインターセプトが必要ないかどうかは気にしません。追加しても問題はありません。
1
明確化:「標準化がオプション(結果が異なる大きさで歪まない特別なケースの1つ)である場合、標準化はサンプル外の一般化を改善しますか?」これは正しいです?
—
Drew75
@ Drew75ケースの内訳が好きです。たとえば、結果が「異なる大きさで歪んでいる」ときに役立ちますか、結果が歪んでいないときに役立ちますか、など、最良の答えはさまざまな状況をカバーします。
—
ジェイス14
その場合、あなたの質問は投げ縄に関するものではありません(投げ縄の前に一般的な標準化が必要だからです)。より一般的です。おそらく、質問のタイトルと最初の文を変更してください。
—
Drew75 14
@ドリュー:それはむしろ質問をすることです:なぜそれが必要なのですか(そうではないのですか?)?結果を歪めるとはどういう意味ですか(何と比較して?)質問は現状のままで良いと思います。
—
Scortchi -復活モニカ
@ Drew75私の質問は投げ縄についてです。
—
ジェイス