ジェフリーズ前に考えてみ、ここでiはフィッシャー情報です。
私はこの事前情報が情報価値のない事前情報として言及されているのを見続けていますが、なぜそれが情報価値がないのかという議論を見たことはありません。結局のところ、それは定数の前ではないので、他の引数が必要です。
再パラメータ化に依存しないことを理解しているため、次の質問に進みます。フィッシャー情報の決定要因は再パラメーター化に依存しないということですか?フィッシャーの情報は間違いなく問題のパラメーター化に依存するからです。
ありがとう。
ジェフリーズ前に考えてみ、ここでiはフィッシャー情報です。
私はこの事前情報が情報価値のない事前情報として言及されているのを見続けていますが、なぜそれが情報価値がないのかという議論を見たことはありません。結局のところ、それは定数の前ではないので、他の引数が必要です。
再パラメータ化に依存しないことを理解しているため、次の質問に進みます。フィッシャー情報の決定要因は再パラメーター化に依存しないということですか?フィッシャーの情報は間違いなく問題のパラメーター化に依存するからです。
ありがとう。
回答:
ジェフリーズ事前分布は、1次元パラメーター空間(および「正規」モデル)の事前のベルナルド参照と一致します。大まかに言えば、これは事前と事後の間のカルバック・ライブラーの発散が最大になる事前です。この量は、データによってもたらされる情報の量を表します。これが、事前確率が情報価値がないと見なされる理由です。これは、データが最大量の情報をもたらすものです。
ところで、私はジェフリーズが彼の前のこの特徴づけを知っていたかどうかわかりませんか?
私はそれが絶対に有益ではないが、最小限の情報であると思います。これは、以前の知識の状態がパラメーター化(測定単位など)に依存していないことがわかっている(かなり弱い)事前知識をエンコードします。あなたの以前の知識の状態が正確にゼロであったなら、あなたはあなたの事前知識がそのような変換に不変であることを知りません。