目的が実際には予測であり、推論ではない場合、不適切なスコアリングルールを使用することが適切です。私が予測を行う予定のときに、他の予測者が不正行為を行っているかどうかはあまり気にしません。
適切なスコアリングルールにより、推定プロセス中にモデルが真のデータ生成プロセス(DGP)に近づくことが保証されます。これは有望なように思えます。なぜなら、真のDGPに近づくにつれて、損失関数の下での予測に関しても良い結果が得られるからです。問題は、ほとんどの場合(実際にはほとんど常に)、モデルサーチスペースに真のDGPが含まれていないことです。最終的に、私たちが提案する機能的な形式で真のDGPを近似します。
このより現実的な設定では、予測タスクが真のDGPの密度全体を把握するよりも簡単である場合、実際により良い結果を得ることができます。これは特に分類に当てはまります。たとえば、真のDGPは非常に複雑な場合がありますが、分類タスクは非常に簡単です。
Yaroslav Bulatovは彼のブログで次の例を提供しました。
http://yaroslavvb.blogspot.ro/2007/06/log-loss-or-hinge-loss.html
X ≥ 0x < 0
上記の正確な密度と一致する代わりに、真のDGPからはほど遠い下の粗いモデルを提案します。ただし、完全に分類されます。これは、ヒンジ損失を使用することでわかりますが、これは適切ではありません。
一方、ログ損失のある真のDGPを見つけることにした場合(これが適切です)、先験的に必要な正確な関数形式がわからないため、いくつかの関数の適合を開始します。しかし、それを一致させるためにますます努力するにつれて、物事を誤分類し始めます。
どちらの場合も同じ機能フォームを使用したことに注意してください。不適切な損失のケースでは、ステップ関数に縮退し、完全な分類が行われました。適切なケースでは、密度のすべての領域を満たそうとして凶暴になりました。
基本的に、正確な予測を得るために真のモデルを達成する必要は必ずしもありません。または、実際には密度のドメイン全体で良いことをする必要はありませんが、その特定の部分でのみ非常に良いことがあります。