タグ付けされた質問 「it.information-theory」

情報理論における質問

1
ハイパーキューブ上の畳み込みのエントロピー
我々は関数持っ言う、ようΣ X ∈ Z N 2 F (X )2 = 1(我々が考えることができるので、{ F (X )2 } のx ∈ Z N 2分布など)を。以下のように、このようなA関数のエントロピーを定義することが自然である: H (F )= - Σ X ∈ Z N 2 F (Xf:Zn2→ Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R}∑X ∈ Zn2f(x )2= 1∑バツ∈Z2nf(バツ)2=1\sum _{x\in \mathbb{Z}_2^n} f(x)^2 = 1{ f(x )2}X ∈ Zn2{f(バツ)2}バツ∈Z2n\{ f(x)^2\} _{x\in …

2
コルモゴロフ複雑度を使用したチャネルコーディング結果
通常、チャネルコーディング結果を証明するためにシャノンエントロピーが使用されます。ソースチャネル分離の結果でも、シャノンエントロピーが使用されます。シャノン(グローバル)とコルモゴロフ(ローカル)の情報の概念間の同等性を考えると、これらの結果にコルモゴロフの複雑さを利用する研究がありますか(少なくともソースチャネル分離結果のソースコーディング部分を置き換えるために)?

1
量子状態の区別
量子状態所与のセットからランダムに一様に選択されたNの混合状態がρ 1。。。ρ N、正しく特定の最大平均確率ものでAは?ρAρA\rho_ANNNρ1...ρNρ1...ρN\rho_1 ... \rho_NAAA この問題は、区別の問題考慮することによって、2つの状態識別性の問題に変えることができるからρ B = 1ρAρA\rho_A。ρB=1N−1∑i≠AρiρB=1N−1∑i≠Aρi\rho_{B} = \frac{1}{N-1}\sum_{i\neq A}\rho_i 2つの量子状態について、平均エラー確率を最小化するのではなく、最大エラー確率を最小化した場合の状態間のトレース距離の点で問題が良い解決策を持っていることを知っています。この場合。もちろん、POVMを介した最適化の観点から確率を記述することは可能ですが、最適化が既に実行されているものを期待しています。 量子状態の識別可能性に関する膨大な文献があることを知っており、この数日間、この質問の答えを見つけようとして多くの論文を読んでいますが、これに対する答えを見つけるのに苦労しています問題の特定のバリエーション。文学のほうが時間を節約できることを知っている人に期待しています。 厳密に言えば、正確な確率は必要ありませんが、良い上限は必要です。ただし、任意の1つの状態と最大混合状態との違いは非常に小さいため、その制限では境界が役立つ必要があります。

1
単純な(?)面白い組み合わせの問題!
0<E<10<E<100。 いずれかのためのnnnと、任意のベクトルに対してc¯∈[0,1]nc¯∈[0,1]n\bar{c} \in [0,1]^nよう∑i∈[n]ci≥E×n∑i∈[n]ci≥E×n\sum_{i\in [n]} c_i \geq E \times n Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)Ac¯:=|{S⊆[n]:∑i∈S ci≥E×t}|≥(E×nt)A_{\bar{c}} :=|\{ S \subseteq [n] : \sum_{i \in S}~ c_i \geq E \times t \}| \geq \binom{ E \times n}{ t } 文が真であるか偽であるかはわかりません。本当だと思う。 私の直観は、ベクトルc¯∈{0,1}nc¯∈{0,1}n\bar{c} \in \{0,1\}^n(合計に関して適切な特性を持つ)について、Ac¯=(E×nt)Ac¯=(E×nt)A_{\bar{c}}= \binom{ E \times n}{t} ; この場合、セット\ {i〜|〜c_i = 1 \}からのみサブセットを選択できます{i | ci=1}{i …

4
計算の複雑さと情報の関係
私は、ニューロンのペアまたはグループ間の相互情報を定量化する計算神経科学研究室で働いています。最近、ボスは「神経ダイナミクスの複雑さ」を測定することに焦点を移しました。私のグループの何人かの人々は、その研究を追求する際に、「複雑」を「高いエントロピーを持っている」と同一視しているように見えます。 計算の複雑さ(CSの意味で)と情報理論の意味でのエントロピーとの関係について、誰かが私を案内してくれませんか? もう少し詳しく説明すると、Lempel-Zivの複雑さのような測定は、有効な複雑さの測定ではないように思えます。のような他の測定方法[Causal State Splitting Reconstruction][1]はあまり知られていませんが、定常的なランダムプロセスを表すために必要な隠された状態がゼロであるため、ランダムプロセスの複雑さがゼロであるという魅力的な特性があります。

1
アルゴリズム情報理論はまだ進化していますか?
私は現在、論文の主題を探していて、アルゴリズム情報理論の分野に出会いました。フィールドは私にとって非常に興味深いようですが、すべてが何年も前に行われていたフィールドのようです。 だから私の質問は、フィールドは「生きている」のですか、それともかなり閉じているのですか?未解決の質問はありますか? ありがとう

2
ファーノの不平等の逆?
Fanoの不等式はさまざまな形で表すことができますが、特に有用なものの1つは(わずかな変更を加えて)Oded Regevによるものです。 LET XXX確率変数であり、およびlet Y=g(X)Y=g(X)Y = g(X)ここでランダムプロセスです。与えられたが確率を再構築できる手続き存在を仮定します。次に、 F 、Y = G (X )X P I (X ; Y )≥ P H (X )- H (P )g(⋅)g(⋅)g(\cdot)fffy= g(x )y=g(x)y = g(x)バツxxppp私(X; Y)≥ のp H(X)− H(p )I(X;Y)≥pH(X)−H(p) I(X; Y) \ge pH(X) − H(p) つまり、再構築できれば、システム内に相互情報がたくさんあります。 ファーノの不平等に対する「逆」はありますか:形の何か 「十分な相互情報を備えたチャネルを考えると、相互情報に依存するエラーのある出力から入力を再構築する手順があります。」 この手順も効率的であることを期待するには多すぎますが、再構成が存在するが非効率的でなければならない(自然な)例を見るのも興味深いでしょう。

1
コイン計量の最小数を決定する
論文では、情報理論の2つの問題について、エルデスとレニーは、コインのセット内の偽コインの数を決定するために実行する必要がある最小数の重み付けに下限を与えています。nnn より正式には: 偽のコインは正しいコインよりも重量が小さいです。正しいコインと偽のコインの両方の重みとがわかっています。スケールは、任意の数ののコインを一緒に計量できる手段によって与えられます。したがって、コインの任意のサブセットを選択し、それらをスケールにまとめると、スケールはこれらのコインの総重量を示します。そこから、計量されたコインの中で偽コインの数を計算するのは簡単です。問題は、正しい硬貨と偽の硬貨を分離できる最小数の計量です。aaab&lt;ab&lt;ab < a≤n≤n\leq nA(n)A(n)A(n) 彼らが最初に提供する自明な下限は次のとおりです。 n/log2(n+1)n/log2⁡(n+1)n / \log_2 (n + 1)。 これは、さまざまな情報理論的または組み合わせの議論を通じて、なぜその理由を理解することは難しくありません。問題は、これらの計量を行うためにそのようなセットをどのように構築するかです。建設的な証明を利用して、ランダム性に依存せずにこれらの下限を達成するアルゴリズムはありますか?これらの境界を達成するランダム化されたアルゴリズムはありますか?

1
Lovaszシータ関数と通常のグラフ(特に奇数サイクル)-スペクトル理論への接続
投稿は次に関連しています:https : //mathoverflow.net/questions/59631/lovasz-theta-function-and-independence-number-of-product-of-simple-odd-cycles Lovaszは通常のグラフのゼロ誤差容量からどのくらい離れていますか?Lovaszの境界が通常のグラフのゼロエラー容量と等しくないことがわかっている例はありますか?(これはOleksandr Bondarenkoによって以下で答えられました。) 特に、以上の辺の奇数サイクルに対して厳密な不等式が知られていますか?777 更新 ギャップが存在する場合のシャノン容量とLovaszシータのギャップを小さくできるように、ロバストシータ関数を改善するには、スペクトル理論にどのような改善が必要ですか?(私はスペクトルの観点からのみ心配しています)

2
サブセット番号
修正K ≥ 5k≥5k\ge5。十分な大きさのについて、サイズんんnが{ 1 .. n }{1 ..ん}\{1..n\}のすべてのサブセットにn / kん/kn/kを正の整数で正確にラベル付けします{ 1 ... T}{1 ...T}\{1...T\}。このラベル付けが次のプロパティを満たすようにしたい:整数のセットSSSあり、st 場合kkkサイズのサブセットn / kん/kn/k交差する(すなわち、これらのセットの和集合は、すべてのセットを形成しない{ 1 .. n }{1 ..ん}\{1..n\})は、そのラベルの合計はであるSSS。 そうでなければ、それらのラベルの合計はありませんSSS。 そこに存在するかK ≥ 5k≥5k\ge5とラベリング、ST T⋅ | S| =O( 1.99ん)T⋅|S|=O(1.99ん)T\cdot|S|=O(1.99^n)? たとえば、任意のkkkに対して、次の方法でサブセットにラベルを付けることができます。 T= 2んT=2んT=2^n、各サブセットが有するんんnその数のビットは:最初のビットが同じである111サブセットが含まれているときに限り111第2のビットが同じで、111サブセットが含まときに限り222などそれは、参照することは容易だSSS唯一の要素含ま2ん− 12ん−12^n-1。しかし、ここでT⋅ | S| =Θ( 2ん)T⋅|S|=Θ(2ん)T\cdot|S|=\Theta(2^n)。もっと上手くできる?

4
ネットワークコーディングに関する調査
ネットワークコーディングについて学びたい: http://en.wikipedia.org/wiki/Network_coding 上記のテーマについて(IEEEサーベイおよびチュートリアルなどから)良い調査を知っていますか。Googleで大学のコースをいくつか見つけましたが、良い情報源を既に読んで知っている人からの推薦をお願いします。 ありがとうVasilis

3
多項的に知っている情報への情報理論の一般化はありますか?
申し訳ありませんが、これは少し「やわらかい」質問です。 情報理論には計算の複雑さの概念はありません。たとえば、SATのインスタンス、またはSATのインスタンスと充足可能性を示すビットが同じ量の情報を伝送します。 「多項式で知っている」という概念を形式化する方法はありますか? そのようなフレームワークは、たとえば、ランダム変数X相対Y間の多項式KL発散の概念を、Yが与えられた多項式時間でXを計算するために必要なビット数として定義できます。 同様に、確率変数Xのエントロピーは、多項式時間でデコードできる方法でXをエンコードするために必要なビット数として定義できます。 そのような一般化は研究されましたか?一貫性を持たせることはできますか?

2
複数の試行で低いエントロピー値を推測する
アリスは分布があるとし(しかし、おそらく非常に大きい)ドメイン、有限の上の(シャノン)エントロピーようμは上部任意の小さな定数とによって制限されますε。アリスはμから値xを引き出し、ボブ(μを知っている)にxを推測するように依頼します。μμ\muμμ\muεε\varepsilonxxxμμ\muμμ\muxxx ボブの成功確率はどれくらいですか?彼は唯一の推測を許可されている場合、次のように一つは、この確率を下げることができる結合:エントロピ上限を最小エントロピーは、そう少なくとも確率有する要素がある。ボブは彼の推測として、この要素を選択した場合、彼の成功確率は次のようになります2 - ε。2−ε2−ε2^{-\varepsilon}2−ε2−ε2^{-\varepsilon} ここで、ボブが複数の推測、たとえば推測を行うことが許可されており、推測の1つが正しければボブが勝つと仮定します。ボブの成功確率を向上させる推測スキームはありますか?特に、ボブの失敗確率がtとともに指数関数的に減少することを示すことは可能ですか?tttttt

2
低確率座標のない高確率イベント
ましょ内の値を取る確率変数(いくつかの大規模なアルファベットのための非常に高いエントロピーあり、) -たとえば、任意に小さい定数。ましょうをサポートするイベントであるよう、\ varepsilonが任意に小さく一定です。XXXΣnΣn\Sigma^nΣΣ\SigmaH(X)≥(n−δ)⋅log|Σ|H(X)≥(n−δ)⋅log⁡|Σ|H(X) \ge (n- \delta)\cdot\log|\Sigma|δδ\deltaE⊆Supp(X)E⊆Supp(X)E \subseteq \rm{Supp}(X)XXXPr[X∈E]≥1−εPr[X∈E]≥1−ε\Pr[X \in E] \ge 1 - \varepsilonεε\varepsilon 私たちは、ペアがあると言う(i,σ)(i,σ)(i,\sigma)ある低い確率が座標のEEE場合Pr[X∈E|Xi=σ]≤εPr[X∈E|Xi=σ]≤ε\Pr[X \in E | X_i = \sigma] \le \varepsilon。私たちは、文字列があると言うx∈Σnx∈Σnx \in \Sigma^n 低い確率での座標が含まEEE場合(i,xi)(i,xi)(i, x_i)低い確率の座標であるEEEいくつかのためにiii。 一般的には、いくつかの文字列でEEE確率の低い座標含まれていてもよいEEE。質問は、私たちは常に高い確率事象見つけることができるであるE′⊆EE′⊆EE' \subseteq Eには、文字列ようなE′E′E'低い確率での座標が含まれていないE′E′E'(やないのEEE)。 ありがとう!

1
ノイズの多い分布のエントロピー
関数があり、 及び分布、すなわち、ある。f:Zん2→ Rf:Z2n→Rf:\mathbb{Z}_2^n \to \mathbb{R}FΣX∈Z N 2 F(X)=1∀ X ∈ Zん2f(x )∈ { 12ん、22ん、… 、2ん2ん}、∀x∈Z2nf(x)∈{12n,22n,…,2n2n},\forall x\in \mathbb{Z}_2^n \quad f(x) \in \left\{\frac{1}{2^n}, \frac{2}{2^n}, \ldots, \frac{2^n}{2^n} \right\},fffΣX ∈ Zん2f(x )= 1∑x∈Z2nf(x)=1\sum_{x\in \mathbb{Z}_2^n} f(x) = 1 のシャノンエントロピーは次のように定義されます: H (F )= - Σ X ∈ Z N 2 F (X )ログ(F (X ))。fffH(f)= − …

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.