タグ付けされた質問 「entropy」

1
Holevo情報の不平等の証明
古典-古典量子チャネルW:X×Y→D(H)W:X×Y→D(H)W : \mathcal{X}\times\mathcal{Y} \rightarrow \mathcal{D}(\mathcal{H})とします。ここで、X,YX,Y\mathcal{X},\mathcal{Y}は有限集合であり、D(H)D(H)\mathcal{D}(\mathcal{H})は有限次元の複雑なヒルベルト空間HH\mathcal{H}上の密度行列の集合です。 仮定pxpxp_x上に均一な分布でXX\mathcal{X}とpypyp_y上に均一な分布であるYY\mathcal{Y}。さらに、X上の分布p1p1p_1とY上のp 2を定義すると、Holevo情報 χ (p 1、p 2、W ):= H (∑ x 、y p 1(x )p 2(y )W (XX\mathcal{X}p2p2p_2YY\mathcal{Y}χ(p1,p2,W):=H(∑x,yp1(x)p2(y)W(x,y))−∑x,yp1(x)p2(y)H(W(x,y))χ(p1,p2,W):=H(∑x,yp1(x)p2(y)W(x,y))−∑x,yp1(x)p2(y)H(W(x,y))\chi(p_1, p_2, W) := H\left(\sum_{x,y}p_1(x)p_2(y)W(x,y)\right) - \sum_{x,y}p_1(x)p_2(y)H(W(x,y)) ここで、HHHはフォンノイマンエントロピーです。 p1:=supp{χ(p,py,W)},p2:=supp{χ(px,p,W)}p1:=supp{χ(p,py,W)},p2:=supp{χ(px,p,W)} p_1 := \sup_{p}\left\{ \chi(p, p_y, W)\right\}, p_2 := \sup_{p}\left\{ \chi(p_x, p, W)\right\}χ(p1,p2,W)≥χ(p1,py,W) and χ(p1,p2,W)≥χ(px,p2,W).χ(p1,p2,W)≥χ(p1,py,W) and χ(p1,p2,W)≥χ(px,p2,W).\chi(p_1, p_2, W) \geq \chi(p_1, …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.