私はしばらくの間、相互情報を扱ってきました。しかし、分布の独立性、いわゆる「距離相関」(ブラウン相関とも呼ばれる)の測定にも使用できる「相関世界」で、最近の測定値を見つけました。http://en.wikipedia.org/wiki/Brownian_covariance。私は、この手段が導入されている論文をチェックしましたが、相互情報を暗示することはありませんでした。
だから、私の質問は:
- 彼らはまったく同じ問題を解決しますか?そうでない場合、問題はどのように異なりますか?
- そして、前の質問が肯定的に答えられる場合、どちらかを使用する利点は何ですか?
簡単な例として、「距離相関」と「相互情報」を明示的に書き留めてください。2番目の場合は対数を取得しますが、最初の場合は-を取得しません。
—
ピョートルミグダル
@PiotrMigdalはい、私はその違いを知っています。なぜそれが重要なのか説明していただけますか?統計学者ではないことを考慮に入れてください
—
...-
確率分布の相互依存性を測定する標準ツールは、相互情報です。たくさんの素晴らしいプロパティがあり、その解釈は簡単です。ただし、距離の相関関係が優先される特定の問題がある場合があります(しかし、私の人生ではそれを使用したことがありません)。では、解決しようとしている問題は何ですか?
—
ピョートルミグダル
このコメントは数年遅れていますが、コロンビア大学の統計部は、学年2013-2014を依存の測定に焦点を当てた年にしました。2014年4月から5月にかけて、Reshef Brothers(MIC)、Gabor Szekely(距離相関)、Subhadeep Mukhopadhayなど、この分野で活躍するトップアカデミックを集めたワークショップが開催されました。プレゼンテーションの多くのpdfを含むプログラムへのリンクは次のとおりです。 dependence2013.wikischolars.columbia.edu/...
—
マイク・ハンター