回答:
はい、(もう少し)厳密な定義があります:
一連のパラメーターを持つモデルが与えられた場合、一定数のトレーニングステップの後、サンプル(テスト)エラーが増加し始めている間にトレーニングエラーが減少し続ける場合、モデルはデータを過剰適合していると言えます。
この例では、サンプル(テスト/検証)からのエラーが最初にトレインエラーと同期して減少し、次に90のエポック頃、つまりオーバーフィットが開始されたときに増加し始めます。
もう1つの見方は、バイアスと分散の観点です。モデルのサンプル誤差は、2つのコンポーネントに分解できます。
推定モデルは次のとおりです。
(厳密に言えば、この分解は回帰の場合に適用されますが、同様の分解は損失関数、つまり分類の場合にも機能します)。
上記の定義は両方とも、モデルの複雑度(モデル内のパラメーターの数で測定)に関連付けられています。モデルの複雑度が高いほど、過剰適合が発生する可能性が高くなります。
トピックの厳密な数学的処理については、統計学習の要素の第7章を参照してください。
バイアスと分散のトレードオフと分散(オーバーフィット)は、モデルの複雑さとともに増加します。ESL Chapter 7から取得