私はAndrew Ngのコース「機械学習」を数か月前にCourseraで受講しましたが、ほとんどの数学/派生物に注意を払うことなく、実装と実用性に焦点を合わせていました。それ以来、私は根本的な理論のいくつかを研究し始め、Ng教授の講義のいくつかを再訪しました。私は彼の "Regularized Linear Regression"についての講義を読んでいましたが、彼が次のコスト関数を与えることがわかりました。
次に、このコスト関数に次の勾配を与えます。
私は彼がどのように一方から他方へと移るのかについて少し混乱しています。自分で導出しようとすると、次の結果が得られました。
違いは、元のコスト関数とNg教授の公式の正則化パラメーターの間の「プラス」記号が勾配関数で「マイナス」記号に変化することですが、それは私の結果では発生していません。
直感的に、それが負の理由を理解します。シータパラメーターを勾配の数値で減らし、過適合を避けるために、パラメーターを変更する量を正則化パラメーターで減らします。私はこの直感を裏付ける微積分学に少しこだわっています。
FYI、あなたはデッキを見つけることができ、ここで、スライド15と16の上に、。