LASSOとフォワード/バックワードモデルの選択には、どちらも長所と制限があります。徹底的な推奨はできません。これに対処するために、シミュレーションをいつでも探索できます。
どちらも次元の意味で理解できますはモデルパラメーターの数、は観測数のことです。後方モデル選択を使用してモデルを適合させることができた場合、おそらくがありませんでした。その場合、「最適な」モデルは、すべてのパラメーターを使用するモデルです...内部で検証されたとき!これは単に過剰適合の問題です。pんP » N
モデルの評価に分割サンプル相互検証(CV)を使用して、過剰適合が修正されます。あなたはこれを説明しなかったので、私はあなたがそれをしなかったと思います。段階的なモデル選択とは異なり、LASSOは調整パラメーターを使用して、モデル内のパラメーターの数にペナルティを課します。調整パラメーターを修正するか、複雑な反復プロセスを使用してこの値を選択できます。LASSOはデフォルトで後者を行います。これは、予測のMSEを最小限に抑えるためにCVで行われます。そのような洗練された手法を使用する段階的モデル選択の実装については知りません。基準としてのBICでさえ、内部検証バイアスの影響を受けるでしょう。私の説明では、これによりLASSOは「すぐに使える」段階的なモデル選択よりも自動的に活用されます。
最後に、段階的なモデルの選択には、さまざまなリグレッサを含める/除外するためのさまざまな基準があります。特定のモデルパラメーターのWald検定または結果のモデルR ^ 2にp値を使用すると、主に内部検証バイアスのためにうまくいきません(ここでも、CVで修正できます)。これが、このようなモデルが実装される傾向がある方法であることは驚くべきことです。AICまたはBICは、モデル選択のはるかに優れた基準です。
それぞれの方法にはいくつかの問題があります。段階的なモデル選択の問題は、はるかによく理解されており、LASSOの問題よりもはるかに悪いです。私があなたの質問で見る主な問題は、予測を評価するために特徴選択ツールを使用しているということです。それらは異なるタスクです。LASSOは、特徴選択または疎モデル選択に適しています。リッジ回帰はすべての変数を使用するため、より良い予測を与える可能性があります。
LASSOの大きな強みは、順方向(ただし逆方向ではない)の段階的回帰の場合と同様に、であるモデルを推定できることです。どちらの場合も、これらのモデルは、非常に強力な予測子が少数ある場合にのみ、予測に効果的です。結果が多くの弱い予測子によってより適切に予測される場合、リッジ回帰またはバギング/ブースティングは、ロングショットで前方ステップワイズ回帰とLASSOの両方を上回ります。LASSOは、順方向の段階的回帰よりはるかに高速です。P » N
機能の選択と予測の間にはかなりのオーバーラップがあることは明らかですが、レンチがハンマーとしてどれだけ役立つかについては、決して触れません。一般的に、モデル係数の数が少なく、を使用した予測の、フォワードステップワイズモデル選択よりもLASSOを優先します。P » N