タグ付けされた質問 「it.information-theory」

情報理論における質問

13
情報理論はきちんとした組み合わせステートメントを証明するために使用されましたか?
情報理論を使用して簡潔な組み合わせステートメントを簡単な方法で証明するお気に入りの例は何ですか? 私が考えることができるいくつかの例は、ローカルでデコード可能なコードの下限に関連しています。たとえば、このペーパーでは、長さのバイナリ文字列の束に対して、すべてのに対して異なるとますペア{ }、この場合、mは少なくともnの指数関数であり、指数は平均比に線形に依存します。 N iはkはI 、J 1、J 2 、EをI = X jの1 ⊕ X J 2。k i / mx1,...,xmx1,...,xmx_1,...,x_mnnniiikikik_ij1,j2j1,j2j_1,j_2ei=xj1⊕xj2.ei=xj1⊕xj2.e_i = x_{j_1} \oplus x_{j_2}.ki/mki/mk_i/m 別の(関連する)例は、ブールキューブの等周不等式です(回答でこれについて詳しく説明してください)。 もっと良い例はありますか?できれば、短く簡単に説明できます。

10
計算の複雑さにおけるコルモゴロフの複雑さの応用
非公式的に言えば、文字列のコルモゴロフ複雑性出力がその最短番組の長さ。それを使用して「ランダム文字列」の概念を定義できます(場合、はランダムです)。ほとんどの文字列がランダムであることがわかります(短いプログラムはそれほど多くありません)。X X K (X )≥ 150 | x |バツxxバツxxバツxxK(X )≥ 150 | x |K(x)≥0.99|x|K(x) \geq 0.99 |x| コルモゴロフ複雑性理論とアルゴリズム情報理論は、最近非常に発達しています。また、コルモゴロフの複雑さに関する記述に何も含まれていないさまざまな定理の証明でコルモゴロフの複雑さを使用するいくつかの面白い例があります(建設的なLLL、ルーミス-ホイットニーの不等式)。 計算の複雑さおよび関連分野でコルモゴロフの複雑さとアルゴリズム情報理論の優れたアプリケーションはありますか?Kolmogorovの複雑さを単純なカウント引数の単純な置換として使用する結果があるはずです。もちろん、これはそれほど興味深いものではありません。

3
情報量はどのくらいですか?
この質問は、コンピューターサイエンスに関するPCAST​​プレゼンテーションの後、Jeannette Wingに尋ねられました。 「物理学の観点から、私たちが持つことのできる情報の最大量はありますか?」(理論とは何ですか?」 「情報とは」を超えて この文脈で「ボリューム」が何を意味するのかを理解する必要がありますか?おそらく、情報の最大密度はより良い尺度です。

5
コルモゴロフ複雑性の効率的に計算可能なバリアント
コルモゴロフ接頭辞の複雑さ(つまり、は、を出力する最小の自己区切りプログラムのサイズですは、いくつかの優れた機能があります。K(x )K(x)K(x)バツxx これは、パターンまたは構造のある文字列に、文字列のない文字列よりも低い複雑さを与えるという直感に対応しています。 これにより、条件付き複雑度、またはさらに優れたをいくつかのOracleに定義できます。K (x | O )OK(x | y)K(x|y)K(x|y)K(x | O )K(x|O)K(x|O)OOO 準加法です。K(x 、y)≤ K(x )+ K(y)K(x,y)≤K(x)+K(y)K(x,y) \leq K(x) + K(y) しかし、これにはひどい欠点がありますが与えられると返すことは決定できません。 xK(x )K(x)K(x)バツxx Iコルモゴロフ複雑性の変異体が存在する場合に疑問に思っている(いずれかのTMよりも弱い言語を使用して、または資源不足有界TMを使用して)計算の制限されたモデルを使用しては、ジャムの特徴(1)及び(2)は(特徴( 3)ボーナスですが、必須ではありませんが、効率的に計算できますか?K′(x )K′(x)K'(x) この質問の動機は、進化のさまざまなおもちゃモデルのシミュレーション研究で使用するためです。したがって、以前に数値処理でコルモゴロフの複雑さの「大まかな近似」として使用された回答が優先されます。しかし、目標は、完全に実験に行く比較的単純な/きれいな記述言語/モデル・オブ・計算のためそうではなく、、どのように大幅に関するいくつかの合理的な定理を証明することは可能であるかもしれないように、好ましいから異なりますとどんな種類の弦。K ' KK′K′K'K′K′K'KKK 質問に関連する 弱い記述言語によるコルモゴロフの複雑さ 決定できない問題に対する近似アルゴリズムの賢明な概念はありますか?

1
線形サイズの回路で解読可能な良いコード?
次のタイプのエラー修正コードを探しています。 一定レートのバイナリコード、 サイズのブール回路としてデコーダの実現可能することによって、エラーのある一定の部分から復号可能な、符号長です。O(N)O(N)O(N)NNN 背景: Spielmanは、Linear-Time Encodable and Decodable Error-Correcting Codesで、対数コストRAMモデルで時間でデコード可能なコードを提供し、サイズの回路でもデコード可能です。O(N)O(N)O(N)O(NlogN)O(Nlog⁡N)O(N \log N) グルスワミとインディクは、ほぼ最適なレートの線形時間符号化/復号化可能コードの構造を改善しました。結果の回路の複雑さは分析されませんが、でもあると思います。Θ(NlogN)Θ(Nlog⁡N)\Theta(N \log N) 前もって感謝します!

2
大きな確率の文字がない場合、ハフマンコードはどれくらい良いですか?
確率分布のためのハフマン符号ppp最小加重平均符号語長を有する接頭コードである∑piℓi∑piℓi\sum p_i \ell_i、ここでℓiℓi\ell_iの長さでありiii番目codword。ハフマン符号のシンボルあたりの平均長は、H(p)H(p)H(p)と間であることがよく知られている定理ですH(p)+1H(p)+1H(p)+1。ここで、H(p)=−∑ipilog2piH(p)=−∑ipilog2⁡piH(p) = -\sum_i \, p_i \log_2 p_iは、確率分布のシャノンエントロピーです。 平均長がシャノンエントロピーをほぼ1超える標準的な悪い例は、ような確率分布{.999,.001}{.999,.001}\{.999, .001\}で、エントロピーはほぼ0で、平均コードワード長は1です。これによりギャップが生じます。エントロピーとほぼコードワード長の間111。 しかし、確率分布の最大確率に限界があるとどうなりますか?たとえば、すべての確率が1未満であるとします1212\frac{1}{2}。この場合に見つけることができる最大のギャップは、エントロピーが1よりわずかに大きく、平均コードワード長が1.5よりわずかに小さいなどの確率分布の場合です。0.5。これはあなたができる最善ですか?この場合、厳密に1未満のギャップの上限を指定できますか?{.499,.499,.002}{.499,.499,.002}\{.499, .499, .002\}0.50.50.5 ここで、すべての確率が非常に小さい場合を考えてみましょう。それぞれが確率1 / Mを持つMMM文字にわたる確率分布を選択するとします。あなたが選択した場合この場合、最大のギャップが発生したM ≈ 2 K LN 2を。ここでは、約1 + ln ln 2 − ln 2のギャップがあります。 1/M1/M1/MM≈2kln2M≈2kln⁡2M \approx 2^k \ln 21+lnln2−ln2ln2≈0.08607.1+ln⁡ln⁡2−ln⁡2ln⁡2≈0.08607. \frac{1 + \ln \ln 2 - \ln 2}{\ln 2} \approx 0.08607. これは、すべての確率が小さい状況でできる最善の方法ですか? この質問は、このTCS Stackexchange質問に触発されました。

3
ダイヤモンドの基準と関連する州の距離との間に関係はありますか?
量子情報理論では、2つの量子チャネル間の距離は多くの場合、ダイヤモンドノルムを使用して測定されます。トレース距離、忠実度など、2つの量子状態間の距離を測定する方法もいくつかあります。Jamiołkowski同型は、量子チャネルと量子状​​態の間に二重性を提供します。 ダイヤモンドのノルムは計算が難しいことで有名であり、Jamiołkowskiの同型は、量子チャネルの距離測定と量子状態との相関関係を暗示しているように思えるので、これは少なくとも興味深いことです。だから、私の質問はこれです:ダイヤモンドノルムの距離と関連する状態間の距離(何らかの尺度で)の間に既知の関係はありますか?

1
ブルームフィルターハッシュ:もっと多い?
ブルームフィルターの実装では、従来のアプローチでは複数の独立したハッシュ関数が必要です。 KirschとMitzenmacherは、実際には2つしか必要とせず、残りを線形結合として生成できることを示しました。 私の質問は、2つのハッシュ関数と2倍のエントロピーを持つハッシュ関数の違いは何ですか? これは、ハッシュ関数の出力で実際に何をするかを見ることに由来します。(たとえば)64ビットのハッシュ値を取得して、ビットベクトルのサイズにスケーリングします。64。これは明らかにエントロピーを失う変換です(まれに、ハッシュサイズとフィルター容量が完全に一致する場合を除きます)。フィルターのエントリが2 32未満であると仮定して、64ビットハッシュ値を2つの32ビットハッシュに分割し、それらの線形結合を取得するのを止めるものは何ですか?またはそれを使用してPRNGをシードしますか? 言い換えれば、標準の偽陽性率を確実に保持するために、ブルームフィルターに挿入する各要素について、実際にどれだけの情報を知る必要がありますか?またはより一般的には、要素をどれだけうまく区別できるか(それらを記述するために使用するビット数)とブルームフィルターのパフォーマンスとの関係は何ですか? 確かに、フィルタサイズがmの場合、ビット、または同等に2 (lg (− n ln p)− 2 lg (ln 2 ))ビットでn個の要素を偽陽性の確率で格納できるようですp ....2 lg(m )2lg⁡(m)2\lg(m)mmm2 (lg(− n lnp)−2lg(ln2 ))2(lg⁡(−nln⁡p)−2lg⁡(ln⁡2))2(\lg(-n\ln{p}) - 2\lg(\ln2))nnnppp

1
クエリアルゴリズムの情報の複雑さ
情報の複雑さは、通信の複雑さにおいて非常に有用なツールであり、主に分散問題の通信の複雑さの下限に使用されます。 クエリの複雑さに対する情報の複雑さの類似物はありますか?クエリの複雑さと通信の複雑さの間には多くの類似点があります。多くの場合(常にではありません!)、あるモデルの下限が他のモデルの下限に変換されます。この翻訳は非常に重要な場合があります。 問題のクエリの複雑さの下限に役立つ情報の複雑さの概念はありますか? 最初のパスは、情報の複雑さがあまり役に立たないことを示しているようです。たとえば、ORの計算のクエリの複雑さビットがあるランダム化アルゴリズムとするためのの情報の複雑さの概念の最も簡単な適応がことを示しているのに対し、量子アルゴリズムのクエリアルゴリズムによって学習された情報は最大で(入力で最初のが見つかったときにアルゴリズムが停止するため)。NNNΩ (N)Ω(N)\Omega(N)Ω (N−−√)Ω(N)\Omega(\sqrt{N})O (ログN)O(ログ⁡N)O(\log N)111

5
Renyiエントロピーの効用?
私たちのほとんどは、ランダム変数のシャノンエントロピー、および関連するすべての情報エントロピーなどの情報理論的尺度に精通している-または少なくとも聞いたことがある- 相互情報など。ランダム変数の最小エントロピーなど、理論的なコンピューターサイエンスや情報理論で一般的に使用されるエントロピーの他の測定値がいくつかあります。H(X)=−E[logp(X)]H(X)=−E[log⁡p(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] 文献を閲覧するにつれて、これらのいわゆるRenyiエントロピーがより頻繁に見られるようになりました。それらはシャノンのエントロピーと最小エントロピーを一般化し、実際にはランダム変数のエントロピー測定の全スペクトルを提供します。私は主に量子情報の領域で働いており、そこではレーニエントロピーの量子バージョンもかなり頻繁に考慮されています。 私が本当に理解していないのは、なぜそれらが役立つのかということです。シャノン/フォンノイマンエントロピーや最小エントロピーと言うよりも、分析的に扱うほうが簡単だとよく耳にします。しかし、それらはシャノンのエントロピー/最小エントロピーにも関連している可能性があります。 Renyiエントロピーを使用することが「正しいこと」である場合の例(古典的または量子)を提供できますか?私が探しているのは、Renyiエントロピーをいつ使用したいかを知るための「メンタルフック」または「テンプレート」です。 ありがとう!

4
関数のイータ等価性はHaskellのseq操作と互換性がありますか?
補題:我々はそれを持っているETA-同等と仮定すると(\x -> ⊥) = ⊥ :: A -> B。 証明:⊥ = (\x -> ⊥ x)イータ等価、および(\x -> ⊥ x) = (\x -> ⊥)ラムダの下での還元。 Haskell 2010レポートのセクション6.2では、seq2つの式で関数を指定しています。 seq :: a-> b-> b seq⊥b =⊥ seq ab = b、a≠ifの場合 その後、「seqを使用してそれらを区別できるため、notは\ x-> beと同じではありません」と主張します。 私の質問は、それは本当にの定義の結果seqですか? 暗黙の引数は、seq計算できない場合seq (\x -> ⊥) b = ⊥です。しかし、私はそのようseqなものが計算できないことを証明することができませんでした。私にはそのようなa seqは単調で連続的であるように思われ、それは計算可能という領域にそれを置きます。 seqなどを実装するアルゴリズムは、starting で始まるドメインを列挙することxで、どこを検索しようとすることで機能する場合f x …

5
ロスレス圧縮データの制限はどれですか?(そのような制限がある場合)
最近、私は圧縮関連のアルゴリズムを扱ってきましたが、ロスレスデータ圧縮で達成できる最高の圧縮率はどれなのか疑問に思っていました。 これまでのところ、このトピックで見つけることができた唯一のソースはウィキペディアでした。 ビデオ、デジタル化されたフィルム、オーディオなどのデジタル化されたデータのロスレス圧縮は、すべての情報を保持しますが、データの本質的なエントロピーにより、1:2圧縮よりもはるかに優れた結果を得ることができません。 残念ながら、ウィキペディアの記事には、この主張を裏付ける参照や引用は含まれていません。私はデータ圧縮の専門家ではないので、この件に関して提供できる情報、またはウィキペディアよりも信頼性の高い情報源を教えていただければ幸いです。

5
ハフマンコーディングが、Lempel-Zivができないエントロピーを排除するのはなぜですか?
人気のあるDEFLATEアルゴリズムは、Lempel-Zivの上にハフマンコーディングを使用します。 一般に、データのランダムなソース(= 1ビットエントロピー/ビット)がある場合、ハフマンを含むエンコードは平均して圧縮されません。Lempel-Zivが「完璧」である場合(長さが無限大になるにつれて、ほとんどのソースのクラスに近づきます)、ハフマンによるポストエンコーディングは役に立ちません。もちろん、Lempel-Ziv は少なくとも有限の長さでは完全ではないため、ある程度の冗長性が残っています。 ハフマン符号化が部分的に排除し、それによって圧縮を改善するのは、この残りの冗長性です。 私の質問は次のとおりです。この残りの冗長性は、LZではなくハフマンコーディングによって正常に除去されるのはなぜですか。ハフマン対LZのどの特性がこれを実現しますか?単純にLZを再度実行する(つまり、LZで圧縮されたデータをLZで2回エンコードする)と、似たようなことが行われますか?そうでない場合は、なぜですか?同様に、最初にハフマンで圧縮し、その後LZで圧縮しますか? 更新: LZの後でも、ある程度の冗長性が残ることは明らかです。数人がその点を指摘しています。明らかではないのは、なぜ残りの冗長性がLZよりもHuffmanによりよく対処されているのかということです。LZがハフマンよりもうまく機能する元のソースの冗長性とは対照的に、そのユニークな点は何ですか?

1
エントロピーと計算の複雑さ
消去ビットはエネルギーを消費する必要があることを示す研究者がいますが、計算の複雑さアルゴリズムのエネルギーの平均消費に関する研究はありますか?計算の複雑さF (n )はエネルギーの平均消費量と相関していると思います。ここで何らかの答えが得られることを願っています。F(n)F(n)F(n)F(n)F(n)F(n)

3
和のエントロピーについて
2つの独立した離散確率変数XとYの合計のエントロピーの限界を探しています。当然のことながら、H (X + Y )≤ H (X )+ H (Y )(* )ただし、の和に適用されるN個の独立したベルヌーイ・ランダム変数Z 1、... 、ZはN、これは得られる H (Z 1 +H(X+Y)H(X+Y)H(X+Y)XXXYYYH(X+Y)≤H(X)+H(Y) (∗)H(X+Y)≤H(X)+H(Y) (∗)H(X+Y) \leq H(X) + H(Y) ~~~~~~(*)nnnZ1,…,ZnZ1,…,ZnZ_1, \ldots, Z_nすなわち、結合はして直線的に成長する nは繰り返し適用される場合。ただし、 Z 1 + ⋯ Z nはサイズ nのセットでサポートされるため、エントロピーは最大で log nです。実際には、中心極限定理により、私は推測している H (Z 1 + ⋯ + Z N)≈ (1 / 2 )ログH(Z1+Z2+⋯+Zn)≤nH(Z1)H(Z1+Z2+⋯+Zn)≤nH(Z1) H(Z_1 …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.