私の質問は、線形回帰とロジスティック回帰の正則化に関するものです。私は現在、Coursera でAndrew Ngの機械学習コースの第3週を行っています。過剰適合が一般的な問題になる可能性があることを理解しています。また、正規化によって過剰適合を減らす方法について直観があります。私の質問は、さまざまな方法でさまざまなパラメーターを正則化することによってモデルを改善できるかどうかです。
例:
フィットしようとしているとしましょう 。この質問は、なぜ私たちが高 高いと罰するのと同じ方法で値 値。
私たちの機能について何も知らない場合 構築された場合、正則化を行うときはすべて同じように扱うことが理にかなっています。 価値は、高値と同じくらいの「ペナルティ」 値。
しかし、追加情報があるとしましょう。最初は2つの機能しかなかったとします。 そして 。ラインがトレーニングセットに適合していなかったため、より波状の決定境界が必要だったため、 そして 。これで、より複雑なモデルを使用できるようになりますが、モデルが複雑になるほど、モデルをトレーニングデータに過剰適合させるリスクが高まります。したがって、コスト関数の最小化とモデルの複雑さの最小化の間でバランスをとる必要があります。さて、より高い指数を表すパラメータ(、 )モデルの複雑さが大幅に増大しています。だから私たちは高額に対してもっとペナルティを課すべきではない、 私たちが高いと罰するよりも価値 値?