仮定離散確率変数との相互に排他的な結果の集合であり効用関数であり、等、
場合均一に分配される及びある確率質量関数、シャノンエントロピーであります最大化(、および 1つの要素がすべてのの質量を持っている場合、シャノンエントロピーは最小化されます(実際は)。これは、驚き(または不確実性の低減)および結果と不確実性(または予想される驚き)および確率変数に関する直観に対応します。
- とき均一に分布され、不確実性が最大化され、そしてより多くの成果があっ質量が均一に分散させるために、より多くの不確実我々はされています。
- とき、そのすべての質量が一つの結果に集中しており、私たちは何の不確実性を持っていません。
- 結果に確率を割り当てると、実際に観察しても情報は得られません(「驚きません」)。
- に近い確率を結果に割り当てると、実際に発生する結果の観察はますます有益になります(「驚くべき」)。
(もちろん、これははるかに具体的ですが、認識論的ではありませんが、シャノンの情報/エントロピーのコーディング解釈については何も述べていません。)
ただし、効用関数の解釈がある場合、l o g 1の意味的な解釈はありますか?または∑f(ω)log1?あるかもしれないように私には思われる:
- 場合 PMFとしては、一様分布を表しΩを、次に、fのに効用関数の対応として無関心大きくすることができなかった結果オーバー*
- 1つの結果にすべての効用があり、残りには何もない効用関数(存在する可能性があるように効用が歪んでいる)は、非常に強い相対的な好み、つまり無関心の欠如に対応します。
これを拡張するリファレンスはありますか?離散質量変数に対する確率質量関数と正規化された相対効用の比較の制限について何か見落としましたか?
*私は無差別曲線を知っていますが、カテゴリカルなサンプル空間への私の焦点から始めて、「無差別」自体には興味がないという事実から始めて、さまざまな理由でそれらが私の質問にどのように関連しているのかわかりません、むしろ、ユーティリティを確率として解釈する方法、および問題の(離散)「確率分布」が実際に、または(さらに)ユーティリティ関数の解釈を持っている場合に、確率の汎関数を解釈する方法。