リッジとラッソの線形回帰では、重要なステップはチューニングパラメーターラムダを選択することです。多くの場合、ログスケールで-6-> 4のグリッド検索を使用します。これはリッジでうまく機能しますが、ラッソでは次数を考慮する必要があります出力yの大きさの?たとえば、出力yがナノスケール(-9)の場合、ログラムダの検索範囲は-15-> -5になります。
すべての入力パラメータは正規化され、それらは-3,3の中にあります
リッジとラッソの線形回帰では、重要なステップはチューニングパラメーターラムダを選択することです。多くの場合、ログスケールで-6-> 4のグリッド検索を使用します。これはリッジでうまく機能しますが、ラッソでは次数を考慮する必要があります出力yの大きさの?たとえば、出力yがナノスケール(-9)の場合、ログラムダの検索範囲は-15-> -5になります。
すべての入力パラメータは正規化され、それらは-3,3の中にあります
回答:
はい、出力のスケールとの共変量のスケールを考慮する必要があります。
ましょ、その行の各エントリは一緒にしようとすることが共変量であるとベクトルでデザイン行列、であることを説明応答。応答の各エントリ()は、共変量に依存する信号とiidはゼロノイズを付加的に構成します。信号をほぼ線形としてモデル化することを選択すると、LASSO推定一次条件により、
プラグインこの式に、我々が見ること、製造
もし、次に減少できた(と平等を維持するために増加)とLASSO推定値はです。したがって、で、の最小値生成、我々は、その取得
これは、LASSOを調整するときにを考慮する必要がないことを示しています。現在、実際には、ほとんどのソルバーはの列を標準化しているので、直接考慮する必要はありません。(測定単位は推定係数に影響を与えないため、共変量を標準化するのが妥当であることに注意してください。)
リッジのケースについては、ここで詳しく説明しています:リッジ回帰の最大ペナルティ
Rパッケージglmnet
では、関数cv.glmnet
はモデルをデータセット全体に適合させて適切な正則化パスを選択し、そのパスを使用して相互検証を行います。これは実際にはうまくいくようです。