Coursera機械学習コースごとの正則化線形回帰コスト関数の導出


12

私はAndrew Ngのコース「機械学習」を数か月前にCourseraで受講しましたが、ほとんどの数学/派生物に注意を払うことなく、実装と実用性に焦点を合わせていました。それ以来、私は根本的な理論のいくつかを研究し始め、Ng教授の講義のいくつかを再訪しました。私は彼の "Regularized Linear Regression"についての講義を読んでいましたが、彼が次のコスト関数を与えることがわかりました。

J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθj2]

次に、このコスト関数に次の勾配を与えます。

θjJ(θ)=1m[i=1m(hθ(x(i))y(i))xj(i)λθj]

私は彼がどのように一方から他方へと移るのかについて少し混乱しています。自分で導出しようとすると、次の結果が得られました。

θjJ(θ)=1m[i=1m(hθ(x(i))+y(i))xj(i)+λθj]

違いは、元のコスト関数とNg教授の公式の正則化パラメーターの間の「プラス」記号が勾配関数で「マイナス」記号に変化することですが、それは私の結果では発生していません。

直感的に、それが負の理由を理解します。シータパラメーターを勾配の数値で減らし、過適合を避けるために、パラメーターを変更する量を正則化パラメーターで減らします。私はこの直感を裏付ける微積分学に少しこだわっています。

FYI、あなたはデッキを見つけることができ、ここで、スライド15と16の上に、。


1
結果では、y ^(i)の前に「+」があります-それはタイプミスですか?
スティーブS

回答:


12

J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθj2]

θj(hθ(x(i))y(i))2=2[(hθ(x(i))y(i))θj{hθ(x(i))}]

θj(hθ(x(i))=[x(i)]j

θjλj=1nθ2=2λθj

したがって、線形の場合

θjJ(θ)=1m[i=1m(hθ(x(i))y(i))xj(i)+λθj]

あなたとアンドリューの両方にタイプミスがあるかもしれません。ええと、私たち3人のうち少なくとも2人はそうです。


Andrewのメモの誤植であることが確認されましたが、+記号である必要があります。そして、直感θ(1-α(λ/ m))を含むすべてを正しく説明し、正則化が導入される前に、θが通常の部分を差し引いてθを縮小するたびに意味を説明します。
Gob00st


1

実際、それは単なるタイプミスだと思います。

αλθα

理にかなっていますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.