2つの高度に相関した予測変数があり、両方が中央に配置され、スケーリングされている(ゼロ、分散1を意味する)と仮定します。そして、パラメータベクトルのリッジペナルティはあるβ 2 1 + β 2 2投げ縄ペナルティ項がある一方、| β 1 | + | β 2 |。ここで、モデルは共直線性が高いと想定されているため、xとzがYを予測する際に多かれ少なかれ相互に置き換えることができるため、x 、zの多くの線形結合では部分的に単純に置き換えますx,zβ21+β22∣β1∣+∣β2∣xzYx,z for z、予測子として非常によく機能します。たとえば、 0.2 x + 0.8 x 、0.3 x + 0.7 zまたは 0.5 x + 0.5 zxz0.2x+0.8x,0.3x+0.7z0.5x+0.5z予測子とほぼ同じくらい良いでしょう。これら3つの例を見てみましょう。3つの場合すべての投げ縄ペナルティは等しく、1です。一方、リッジペナルティは異なり、それぞれ0.68、0.58、0.5です。選択することはできません。これは、リッジ(より一般的には、投げ縄とリッジのペナルティの線形結合であるエラスティックネット)が共線形予測子でよりうまく機能する理由の1つです:データが共線形予測子の異なる線形結合から選択する理由をほとんど与えない場合、投げ縄は単に「うねり」は、尾根が均等な重みを選択する傾向がある間 その最後は、将来のデータで使用するためのより良い推測かもしれません!そして、もしそれが現在のデータでそうであれば、リッジでのより良い結果としてクロス検証に現れる可能性があります。
これをベイジアンの方法で見ることができます。リッジと投げ縄は異なる事前情報を意味し、リッジによって暗示される事前情報はそのような状況ではより合理的である傾向があります。(ここでのこの説明は、Trevor Hastie、Robert Tibshirani、Martin Wainwrightの著書「スパース性のなげなわと一般化」から多かれ少なかれ学びましたが、現時点では直接引用を見つけることができませんでした)。