タグ付けされた質問 「shrinkage」

モデルフィッティングプロセスに追加の制約を含める(通常は複雑さのペナルティ)。過剰適合の防止/予測精度の向上に使用されます。

3
リッジ回帰とLASSOでは、
ベータ版を小さくした方がよい理由を直感的に理解できる人はいますか? LASSOの場合、私はそれを理解できます。ここに機能選択コンポーネントがあります。機能が少ないほどモデルが単純になるため、過剰適合しにくくなります。 ただし、尾根については、すべての機能(要素)が保持されます。値のみが小さくなります(L2ノルムの意味で)。これにより、モデルはどのように単純になりますか? 誰もがこれについて直感的な見解を提供できますか?

1
L2正則化とランダム効果の縮小
変量効果回帰の基本的な特性は、ランダムな切片の推定値が、各推定値の相対分散の関数としての応答の全体的な平均に向かって「縮小」されることです。 ρJ=τ2/(τ2+σ2/NJ)。U^j= ρjy¯j+ (1 - ρj)y¯U^j=ρjy¯j+(1−ρj)y¯\hat{U}_j = \rho_j \bar{y}_j + (1-\rho_j)\bar{y}ρj= τ2/( τ2+ σ2/ nj)。ρj=τ2/(τ2+σ2/nj).\rho_j = \tau^2 / (\tau^2 + \sigma^2/n_j). これは、ロジスティック回帰などの一般化線形混合モデル(GLMM)にも当てはまります。 その収縮は、ID変数のワンホットエンコーディングによる固定効果ロジスティック回帰よりも、またはL2正則化による収縮よりどのように優れていますか? 固定効果モデルでは、L2正規化のペナルティ変更することで収縮量を制御できますが、変量効果モデルでは、収縮量を制御できません。「目標が推論である場合は変量効果モデルを使用し、目標が予測である場合は固定効果モデルを使用する」というのは正しいでしょうか?λλ\lambda
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.