なげなわ回帰、最適なソリューション(最小テストエラーなど)でk個の特徴が選択され、その結果、帽子{\ベータ} \ \帽子{\ベータ} ^ {投げ縄} = \左(\ハット{\ベータ} _1 ^ {投げ縄} \帽子{\ベータ} _2 ^ {投げ縄}、... _k ^ {lasso}、0、... 0 \ right)。
我々はそれを知っているです\ left(\ beta_1、\ beta_2、...、\ beta_k \ right)の偏った推定値なので、なぜ「合理的」ではなくを最終解として採用するのですか?、ここでは、部分モデル。(は、選択されたk個のフィーチャに対応するXの列を示します)。
手短に言えば、変数選択だけでなく、選択した特徴の推定をOLSに任せるのではなく、特徴選択とパラメーター推定の両方にLassoを使用するのはなぜですか?
(また、「Lassoは最大で機能を選択できる」とはどういう意味ですか?はサンプルサイズです。)