情報理論はきちんとした組み合わせステートメントを証明するために使用されましたか?


54

情報理論を使用して簡潔な組み合わせステートメントを簡単な方法で証明するお気に入りの例は何ですか?

私が考えることができるいくつかの例は、ローカルでデコード可能なコードの下限に関連しています。たとえば、このペーパーでは、長さのバイナリ文字列の束に対して、すべてのに対して異なるとますペア{ }、この場合、mは少なくともnの指数関数であり、指数は平均比に線形に依存します。 N iはkはI 、J 1J 2 、EをI = X jの1X J 2k i / mx1,...,xmnikij1,j2

ei=xj1xj2.
ki/m

別の(関連する)例は、ブールキューブの等周不等式です(回答でこれについて詳しく説明してください)。

もっと良い例はありますか?できれば、短く簡単に説明できます。


誰かが「別の(関連する)例はブールキューブ上の等周不等式である」の参照を与えることができますか?
vzn

回答:


40

建設的なLovasz Local Lemmaの Moserの証明。彼は基本的に、ローカル補題の条件下で、SATの2番目に単純なアルゴリズムが機能すると考えることができることを示しています。(最初の最も簡単な方法は、1つが機能するまでランダムな割り当てを試みることです。2番目の最も簡単な方法は、ランダムな割り当てを選択し、不満足な句を見つけて満たしてから、他の句を確認し、完了するまで繰り返します。)これが多項式時間で実行されることの証明は、おそらく私がこれまで見た中で最もエレガントな情報理論(またはコルモゴロフの複雑さ、この場合はそれを呼び出したいもの)の使用です。


1
モーザーの美しいコルモゴロフの複雑さの証明は、ここで説明されています:blog.computationalcomplexity.org/2009/06/…、しかし、エントロピー/相互情報/
ダナモシュコヴィッツ

この質問への回答として与えコルモゴロフ複雑性のかなり興味深いのアプリケーションがあります。cstheory.stackexchange.com/questions/286は
arnab

:テリー・タオはまた、自身のブログ上でモーザーの引数を議論terrytao.wordpress.com/2009/08/05/...
アンソニーLeverrier

5
実際、彼の2番目の論文(Tardosとの)では、再帰への頼りは必要ありません。満たされていない句を探し、その変数のランダムな割り当てを選択して、繰り返します。それでおしまい。何らかの理由で、より単純なアルゴリズム(同じ分析を使用)が停止していません。
ユヴァルフィルマス

@DanaMoshkovitz:あなたのコメントに応えて、これがなぜ私にすぐに言わなかったのかわかりません:コルモゴロフの複雑さとエントロピーは、多くの点で本質的に同等です。たとえば、Hammer-Romaschenko-Shen-Vershchagin:dx.doi.org/10.1006/jcss.1999.1677を参照してください。たとえば、[HRSV]に基づいて、arnabの答えのShearerの補題の証明は、エントロピーの代わりにKolmogorovの複雑さを使用して本質的に同じ証明で証明できます。違いは単なる視点です。Kは記述の長さについて、Hは約 ...時には一方が他方よりも簡単/自然です。pilogpi
ジョシュアグロチョウ14

33

このタイプの私のお気に入りの例は、シアラーの補題のエントロピーベースの証明です。(私はこの証明と他のいくつかの非常にきれいなものをJaikumar RadhakrishnanのEntropy and Countingから学びました。)

クレーム:あなたが持っていると仮定しの点R 3N xは上の別個の突起のY のZ -plane、nはY上の別個の突起のx のz -plane及びnは、Z上の異なる突起のx のy -planeを。その後、N 2N X N Y N ZnR3nxyznyxznzxyn2nxnynz

証明:n個の点からランダムに一様に選択された点とします。聞かせたp Xp個のYPのZは上にその突起を示すY軸、ZXとZXとYはそれぞれ平面。 p=(x,y,z)npxpypzyzxzxy

一方で、H [ PのX ] ログn個のXはH [ PのY ] ログN Y及びH [ PのZ ] ≤はログN Zをエントロピーの基本的な特性によって、。H[p]=lognH[px]lognxH[py]lognyH[pz]lognz

一方、およびH [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + H [ z

H[p]=H[x]+H[y|x]+H[z|x,y]
H[px]=H[y]+H[z|y]
H [ p z ] = H [ x ] + H [ y | x ] 最後の3つの方程式を追加すると、次のようになります。H [ p x ] + H [ p y ] + H [ p z ] = 2 H [ x ] + H [ y ] + H [ y | x ] + H
H[py]=H[x]+H[z|x]
H[pz]=H[x]+H[y|x]
H[px]+H[py]+H[pz]= 2H[x]+H[y]+ H[y|x]+ + H [ z | Y ] 2 H [ X ] + 2 H [ Y | x ] + 2 H [ z | X Y ] = 2 H [ P ]我々は、一般的に(コンディショニングがエントロピーを減少するという事実を利用し、 H [ A ] H [ | B ]H[z|x] +H[z|y] 2H[x]+2H[y|x]+2H[z|x,y]= 2H[p]H[a]H[a|b]ランダム変数)。a,b

したがって、我々は、又はN 2N X N Y N Z2lognlognx+logny+lognzn2nxnynz


6
関連する論文は、Ehud Friedgutによる「ハイパーグラフ、エントロピー、および不等式」です。エントロピーの観点、具体的には一般化されたシアラーの補題が、多くの標準的な不等式、およびいくつかの非標準の複雑に見える不等式を簡単に回復できることを示しています。それは照明の視点を与えると思います。リンク: ma.huji.ac.il/~ehudf/docs/KKLBKKKL.pdf
アンディドラッカー

26

ラダクリシュナンのエントロピー証明完璧なマッチングの数があることブレグマンの定理の、部グラフにおけるL R Eは以下であるΠのV LD V 1 / D V 。この証明では、2つの非常に巧妙なアイデアを使用しています。証拠のスケッチは次のとおりです。p(LR,E)vL(d(v)!)1/d(v)

  • 完全に一致する均一に選択します。この変数のエントロピーは、H M = log pです。MHM=ログp
  • 以下のために、聞かせてXのVが中頂点であるRと一致するVにおけるMvLバツvRvM
  • 変数同じ情報有するMをので、H M = H X バツ=バツvvLMHM=Hバツ
  • 巧妙なアイデア1:ランダムに(かつ均一に)順を選択L、ラダクリシュナンは述べ"無作為連鎖ルール"を提供HをXは= ΣのV Lの H XのV | XのUU < VをLHバツ=vLHバツv|バツあなたはあなたは<v
  • 条件の情報()からN v = | N v X uu < v | (大まかに:vに一致する選択肢の数)。バツあなたはあなたは<vNv=|Nvバツあなたはあなたは<v|v
  • ため、この情報から決定され、調整さエントロピーは等価では変化しないH XのV | XのUU < V= H XのV | XのUU < VN VNvHバツv|バツあなたはあなたは<v=Hバツv|バツあなたはあなたは<vNv
  • 賢いアイデア2:情報の"忘れる"ことで、我々は唯一のエントロピーを増やすことができます:H XのV | XのUU < VN VH X V | N vバツあなたはあなたは<vHバツv|バツあなたはあなたは<vNvHバツv|Nv
  • Crazy Fact:変数は集合1 d v )に均一に分布しています。Nv1,,d(v)
  • さて、エントロピー計算する、我々はすべての値の総和NのVH XのVを| N V= ΣのD V I = 1 1H(Xv|Nv)NvHバツv|Nv==1dv1dvHバツv|Nv=1dv=1dvログ=ログdv1/dv
  • 結果は、すべての不等式を結合し、指数を取ることにより得られます。

この不等式の一般化は、カーン- Lovász定理である:任意のグラフにおける完全マッチングの数最大であるΠのV V G D V 1 / 2 D V 。この結果のエントロピー証明は、カトラーとラドクリフによって証明されました。GvVGdv1/2dv


1
素晴らしい例!小さな点:を推定するとき、おそらくH X vN v = i log iの上限であるとしか言えません。HバツvNvHバツvNv=ログ
スリカンス

あなたは絶対に正しいです、そして、私は不平等を使うために答えを編集しました。
デリックストリー

20

非常に良い例が、コンペナトリアル理論における情報理論的方法であるピッペンガーの2つの論文に含まれています。J.コーム 理論、Ser。A 23(1):99-104(1977)およびブール関数のエントロピーおよび列挙。IEEE Transactions on Information Theory 45(6):2096-2100(1999)。実際、Pippengerによるいくつかの論文には、エントロピー/相互情報による組み合わせの事実のかわいい証拠が含まれています。また、2冊の本:Jukna、Extrememal Combinatorics With Applications in Computer ScienceとAigner、Combinatorial Searchにはいくつかの良い例があります。マディマンらの2つの論文も好きです。Additive Combinatoricsの情報理論的不等式、およびTerence Tao、エントロピーサムセット推定値(Google Scholarで見つけることができます)。それが役に立てば幸い。


素晴らしい読書リストのように見えます!
ダナモシュコヴィッツ

17

もう1つの優れた例は、Terry Tao によるSzemerédiグラフの規則性補題代替証明です。彼は情報理論的観点を使用して、規則性補題の強力なバージョンを証明します。これは、ハイパーグラフの規則性補題の証明に非常に役立つことが判明しました。タオの証明は、超グラフ規則性補題の最も簡潔な証明です。

この情報理論的観点について非常に高いレベルで説明してみましょう。

2つの頂点セットV 1およびV 2とエッジセットEがV 1 × V 2のサブセットである2部グラフがあるとします。Gのエッジ密度はρ = | E | / | V 1 | | V 2 | 。私たちは言うGがあるε -regularすべてのための場合はU 1V 1およびU 2V 2GV1V2V1×V2Gρ=|E|/|V1||V2|GϵU1V1U2V2U 2によって誘導される部分グラフのエッジ密度はρ ± ϵ | U 1 | | U 2 | / | V 1 | | V 2 | U1U2ρ±ϵ|U1||U2|/|V1||V2|

今、頂点選択検討からV 1及び頂点のx 2からV 2ランダムに独立して均一。場合はεが小さく、あるU 1U 2が大きく、我々は解釈することができεの-regularity Gをそのコンディショニングを言うように、X 1にあるようにU 1及びX 2にあるようにU 2というくらいの確率に影響を与えませんX 1x 2x1V1x2V2ϵうん1うん2ϵGバツ1うん1バツ2うん2Gにエッジを形成します。言い換えると、 x 1 U 1にあり、 x 2 U 2にあるという情報を与えた後でも、x 1x 2がエッジであるかどうかに関する多くの情報を取得していません。バツ1バツ2Gバツ1うん1バツ2うん2バツ1バツ2

Szemeredi規則補題(非公式)のためにことを保証する任意のグラフ、一つのパーティションを見つけることができとの仕切りV 2サブセットのほとんどようなペアのように一定の密度のサブセットにU 1V 1U 2Vを2U 1 × U 2で誘導された部分グラフはϵ正則です。2つの高エントロピー変数x 1およびx 2が与えられ、イベントE xV1V2うん1V1うん2V2うん1×うん2ϵバツ1バツ2、低エントロピー変数 U 1x 1および U 2x 2 -サブセット U 1および U 2が一定密度であるため、「低エントロピー」を見つけることができます-などその Eはおよそ無関係です X 1 | U 1および x 2 | U 2Eバツ1バツ2うん1バツ1うん2バツ2うん1うん2Eバツ1|うん1バツ2|うん2、または変数間の相互情報が非常に小さいこと。Taoは実際に、このセットアップを使用して規則性補題のはるかに強力なバージョンを作成します。たとえば、彼はx 2が独立変数であることを要求しません(私が知る限り、この一般化の適用はまだありません)。 バツ1バツ2


15

基本的に、この質問に専念するコース全体があります。

https://catalyst.uw.edu/workspace/anuprao/15415/86751

コースはまだ進行中です。そのため、これを書いている時点ですべてのメモが利用できるわけではありません。また、コースからのいくつかの例はすでに言及されました。


3
ナイスポインター:素晴らしいクラスのように見えます。
スレシュVenkatさん

1
私が知る限り、この製品は半分のコースであり、私の質問に適切な回答をするいくつかの例を含むメモと、コミュニケーションの下限、抽出器、並列反復などの例を含む半分のセミナーがあります。情報理論(ここにはメモはなく、元の論文へのリンクのみ)。
ダナモシュコヴィッツ

7

我々が持っていると仮定しの点をℓのD 2と次元削減をしたいです。ペアワイズ距離を最大で1 ± ϵ変化させたい場合、次元をdからO log n / ϵ 2)に減らすことができます。これはジョンソン・リンデンシュトラウスの補題です。10年間、次元の最もよく知られた下限Ω log n /ϵ 2 log 1 / ϵ でしたn2d1±ϵdO(logn/ϵ2)Ω(logn/(ϵ2log(1/ϵ)))サイズのギャップがあったアロンによって、よう。最近、Jayramとウッドラフは閉じアロンの下限を改善することにより、このギャップを。それらの証明は、幾何学的構造にほとんど依存していません。彼らがしていることは、より良い限界が可能であれば、それが特定の通信の複雑さの下限に違反することを証明することです。そして、この限界は情報理論ツールを使用して証明されます。log(1/ϵ)


4
メトリック埋め込み他の例:Regevが最近示されているに埋め込むための最良の範囲の非常に短い証明エントロピー引数を使用して、。1d
arnab

これらの純粋に幾何学的な結果がTCSの人々によって証明されたことは非常に自然で素晴らしいようです!
イリヤラス

6

mu[m]x[m]x=utt

O(m1/t)logmuti[t](logm)/tiu

X[m]H[X]=logmX1,,XttH[X]=H[X1]+H[X2|X1]++H[Xt|X1,,Xt1]tlogsssm1/t

t>1



3

コルモゴロフ計算量を使用したアルゴリズムの平均ケース分析、 Jiang、Li、Vitanyiによる。

「アルゴリズムの平均的なケースの複雑さを分析することは、非常に実用的ですが、コンピューターサイエンスでは非常に難しい問題です。過去数年間で、コルモゴロフの複雑さはアルゴリズムの平均ケースの複雑さを分析するための重要なツールであることを実証しました。非圧縮性メソッドを開発しました[7]。このホワイトペーパーでは、いくつかの簡単な例を使用して、このような方法の威力とシンプルさをさらに実証します。順次または並列のQueueusortまたはStacksortのソートに必要なスタック(キュー)の平均ケース数の限界を証明します。

たとえば、コルモゴロフの複雑性とハイルブロン型の三角形問題も参照してください。


3

スコットアーロンソンによるサンプリングと検索の同等性。ここで彼は、拡張教会チューリング論文の有効性に関する複雑性理論におけるサンプリングと検索の問題の等価性を示しています。標準情報理論、アルゴリズム情報理論、およびコルモゴロフの複雑性は、基本的な方法で使用されます。

彼は、
コルモゴロフの複雑さを単に技術的な便宜として、またはカウント引数の省略形として使用していないことを強調しましょう。むしろ、コルモゴロフの複雑さは検索問題を定義するためにも不可欠です。


0

この1のシンプルでも近似:10件のどのように多くの組み合わせが6物事10のうち9、重複を許可しますか?正しい式は

N =(10 6 + 10 9)!/(10 6!10 9!)〜= 2 11409189.141937481

しかし、10億個のバケツの列に沿って歩き、その途中で100万個の大理石をバケツに落とすよう指示することを想像してください。〜10 9個の「次のバケットへのステップ」指示と10 6個の「大理石を落とす」指示があります。合計情報は

log 2(N)〜= -10 6 log 2(10 6 /(10 6 + 10 9))-10 9 log 2(10 9 /(10 6 + 10 9))〜= 11409200.432742426

これは面白いですが、(ログの)カウントを概算するのに非常に良い方法です。組み合わせ論のやり方を忘れても機能するので、気に入っています。それは言うことと同等です

(a + b)!/ a!b!〜=(A + B)(A + B) / BのB

これは、スターリングの近似を使用したり、キャンセルしたり、何かを見逃したりするようなものです。


2
これは、特定の数値ではなく一般的な境界を行う方が読みやすい場合があります。あなたは、ハミングボールの体積のエントロピーベースの近似について話していると思います。
サショニコロフ14

0

LinialとLuriaによる高次元順列の上限を与える非常に良い最近のアプリケーションはこちらです:http ://www.cs.huji.ac.il/~nati/PAPERS/hd_permutations.pdf

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.