私はさまざまな場所で見た線形回帰法についての主張を誤解しているようです。問題のパラメーターは次のとおりです。
入力:
それぞれ「応答」量と 「予測」量から構成される量のデータサンプル
望ましい結果は「良好な線形適合」であり、これは予測子に基づいて応答を予測し、良好な適合は予測と観測された応答(他の基準の中で)との間にわずかな違いがあります。
出力:係数 whereは、予測変数から応答量を予測するための「適切な適合」です。
この問題に対する "リッジ回帰"アプローチについて混乱しています。Hastie、Tibshirani、およびFriedmanの63ページの「Elements of Statistical Learning」では、リッジ回帰が2つの方法で定式化されています。
まず、制約付き最適化問題として:
P Σ J = 1 β 2 I ≤T
2つ目は、ペナルティ付きの最適化問題です: 、いくつかの正のパラメータです。 λ
テキストは、これらの定式化は同等であり、「パラメーターと間には1対1の対応がある」と述べています。私はこの主張(および同様の主張)をこの本に加えていくつかの場所で見ました。私はそれを理解しているので、配合がどのように同等であるかを見ていないので、私は何かが足りないと思います。トン
および、、および、の場合を考えます。パラメータ選択する と、制約付き定式化は次のようになります。、P = 1 、Y 1 = 0 、X 1 、1 = 0 、Y 2 = 1 、X 1 、2 = 1 T = 2
に拡大
これを解決するには、とに関する偏導関数 がゼロで ある解を見つけます 、ソリューションはおよびです。必要に応じて、注意してください。β 1 4 β 0 + 2 β 1 - 2 = 0 2 β 0 + 2 β 1 - 2 = 0 β 0 = 0 β 1 = 1 β 2 0 + β 2 1 ≤ T
この導出は他の公式とどのように関連していますか?説明によると、に一意に対応する値があり、問題のペナルティ付きの定式化を最適化すると、同じとます。この場合、ペナルティ付きの形式は に拡張 これを解くには、に関してT β 0 β 1 A R G M I N β 0、β 1(λ (β 2 0 + β 2 1)+ β 2 0 + (1 - (β 0 + β 1))2)A R G M I N β 0、β 1(β 2 0
要約すると、私は2つのプレゼンテーションに完全に混乱しており、それらがどのように互いに対応しているのか理解できません。1つのフォームを最適化して他のフォームに対して同じソリューションを取得する方法、またはがどのように関連するかを理解できません。これは、この種の対応の1つの例にすぎません。なげなわなどの他のアプローチには他にもありますが、それらのどれも理解できません。トン
誰か助けてください。