距離相関と相互情報


15

私はしばらくの間、相互情報を扱ってきました。しかし、分布の独立性、いわゆる「距離相関」(ブラウン相関とも呼ばれる)の測定にも使用できる「相関世界」で、最近の測定値を見つけました。http//en.wikipedia.org/wiki/Brownian_covariance。私は、この手段が導入されている論文をチェックしましたが、相互情報を暗示することはありませんでした。

だから、私の質問は:

  • 彼らはまったく同じ問題を解決しますか?そうでない場合、問題はどのように異なりますか?
  • そして、前の質問が肯定的に答えられる場合、どちらかを使用する利点は何ですか?

簡単な例として、「距離相関」と「相互情報」を明示的に書き留めてください。2番目の場合は対数を取得しますが、最初の場合は-を取得しません。
ピョートルミグダル

@PiotrMigdalはい、私はその違いを知っています。なぜそれが重要なのか説明していただけますか?統計学者ではないことを考慮に入れてください
...-

確率分布の相互依存性を測定する標準ツールは、相互情報です。たくさんの素晴らしいプロパティがあり、その解釈は簡単です。ただし、距離の相関関係が優先される特定の問題がある場合があります(しかし、私の人生ではそれを使用したことがありません)。では、解決しようとしている問題は何ですか?
ピョートルミグダル

2
このコメントは数年遅れていますが、コロンビア大学の統計部は、学年2013-2014を依存の測定に焦点を当てた年にしました。2014年4月から5月にかけて、Reshef Brothers(MIC)、Gabor Szekely(距離相関)、Subhadeep Mukhopadhayなど、この分野で活躍するトップアカデミックを集めたワークショップが開催されました。プレゼンテーションの多くのpdfを含むプログラムへのリンクは次のとおりです。 dependence2013.wikischolars.columbia.edu/...
マイク・ハンター

回答:


9

情報/相互情報は可能な値に依存せず、確率にのみ依存するため、感度は低くなります。距離相関は、より強力で簡単に計算できます。比較については

http://www-stat.stanford.edu/~tibs/reshef/comment.pdf


2
こんにちは、あなたの答えをありがとう!あなたが言及する論文はMICに関するものであり、それはMIよりももう少し多いと信じています。距離相関測定を実装しましたが、離散カテゴリ変数の要素の場合、MIよりも単純ではないと思います。繰り返しになりますが、DCMは連続変数に対して適切に定義され、適切に動作しますが、MIの場合は、MICのビニングまたは派手な操作を行う必要があります。
12

3
ただし、DCMでは、辺がサンプル数である正方行列が必要なようです。つまり、空間の複雑さは二次的に拡大します。または少なくともそれが私の印象です、私は間違いを犯したいと思います。MICは、精度とパフォーマンスの間の何らかの妥協で調整できるため、より優れています。
12
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.