これらの方法(LASSOとスパイクアンドスラブ)の両方は、異なるパラメーターを指定しているベイズ推定問題として解釈できます。主な違いの1つは、スパイクとスラブが実質的なポイントマスを配置するのに対し、LASSOメソッドは事前のポイントマスをゼロに設定しないことです(つまり、パラメータはアプリオリでほぼ確実にゼロではありません)ゼロ。
私の謙虚な意見では、スパイクアンドスラブ法の主な利点は、パラメーターの数がデータポイントの数よりも多く、かなりの数のパラメーターを完全に排除する問題に適していることです。モデルから。この方法は、事前に大きなポイントマスをゼロに設定するため、パラメーターのごく一部のみを含む傾向がある事後推定値を生成し、データの過剰適合を回避することが望まれます。
前者が変数選択方法を実行していないと教授が言ったとき、彼はおそらくこれを意味しています。LASSOでは、各パラメーターはほぼ確実にアプリオリにゼロではありません(つまり、すべてがモデル内にあります)。パラメータのサポートに関して尤度も非ゼロであるため、これはそれぞれがアプリオリでほぼ確実に非ゼロであることを意味します(つまり、それらはすべてモデル内にあります)。さて、これを仮説検定で補完し、パラメーターをそのようにモデルから除外することもできますが、それはベイジアンモデルの上に課される追加の検定になります。
ベイズ推定の結果は、データからの寄与と事前からの寄与を反映します。当然のことながら、ゼロ付近でより密集した事前分布(スパイクアンドスラブなど)は、実際には、より集中していない事前分布(LASSOなど)と比較して、結果のパラメーター推定量を「縮小」します。もちろん、この「縮小」は、指定した事前情報の効果にすぎません。LASSO事前分布の形状は、より平坦な事前分布と比較して、すべてのパラメーター推定値を平均に向かって縮小していることを意味します。