エラー指標としてのエントロピーがなぜ過剰適合につながるのですか?


11

ジョン・ラングフォード投稿を引用したKDnuggetsに関するこの投稿は、エラーの指標として使用するとエントロピーと相互情報が過剰適合につながる可能性があると述べています。これについて詳しく説明していただけますか?


3
ラングフォードによる元の投稿では、これらの対策が「もろい」(そして過剰適合につながる可能性がある)方法についてのAleksのコメントで始まる議論があることに注意してください。
ステファンコラサ

@StephanKolassa私は気づきましたが、これに関するより詳細なコメントに興味があります。
Tim

回答:


0

システムの複雑さに不利にならないエラー測定は、エントロピーなどの過剰適合につながる可能性があります。

あなたが新しいデータにも一般化したいモデルにあなたのトレーニングデータをフィットする際、一般的には、このトレーニングステップは、いくつかのエラー対策を最小化することによって達成される、あなたのパラメータに、多くのもののうち、依存するそのベクトル(トレーニング中に適合されるすべてのモデルパラメータで構成されます)。E(w)w

エラーメジャーがトレーニングデータのフィッティングをますます重視する場合、モデルが非常に柔軟でトレーニングデータが完全である可能性があるため、膨大な数のパラメーター(追加で任意の値をとることがある)でモデルを構築するのが良い場合があります。学んだ。一方、トレーニングデータにノイズが多い場合(通常はそうです)、この方法でモデルをノイズに適合させることができます。これがオーバーフィッティングの目的です。

これを回避するための手法があり、これらはまとめて「正則化」手法と呼ばれ、最も一般的なものは誤差関数に正則化項を追加するため、。は、適合度(エントロピーなど)を測定するエラーであり、は、複雑なモデル(多くのパラメーターまたは大きなパラメーター値を持つモデルの場合)のです。E(w)=ED(w)+EW(w)EDEW


3
これは質問に答えていないようです。ジョンラングフォードは、過剰適合につながる尺度としてエントロピーを明示的に言及し、「任意の尺度」については言及していません。問題は、過剰適合の観点からエントロピーについて具体的/具体的には何ですか?
Tim

正則化は、通常、すべての測定値の検証/テストセットでは考慮されません。ラングフォードは特にエントロピーと相互情報について話していたようです。
カルロ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.