機械学習の重要なアイデアのいくつかについてグローバルな視点を得ようとしていますが、さまざまな損失の概念(2乗、ログ、ヒンジ、プロキシなど)の包括的な処理があるかどうか疑問に思っていました。私は、John LangfordのLoss Function Semanticsに関する優れた投稿の、より包括的で正式なプレゼンテーションに沿って何かを考えていました。
機械学習の重要なアイデアのいくつかについてグローバルな視点を得ようとしていますが、さまざまな損失の概念(2乗、ログ、ヒンジ、プロキシなど)の包括的な処理があるかどうか疑問に思っていました。私は、John LangfordのLoss Function Semanticsに関する優れた投稿の、より包括的で正式なプレゼンテーションに沿って何かを考えていました。
回答:
エネルギーベースの学習のチュートリアル LeCunら。あなたがそこにいる方法の良い部分を得るかもしれません。彼らは多くの損失関数を説明し、エネルギーベースのモデルにとってそれらが何が「良いか悪い」かを議論します。
私はこの質問がちょっと古くなっていることを知っていますが、現在私が興味を持っているものです。
凸損失関数と分類子の一貫性に関するトピックに関する非常に優れた論文は、Tong Zhangによる「統計的挙動と凸リスク最小化に基づく分類手法の一貫性」です。