タグ付けされた質問 「succinct」

3
コルモゴロフ複雑度を入力「サイズ」として使用
一連の問題インスタンス(入力の可能性)がある計算問題、たとえば3-SATがあるとしますSSS。通常、アルゴリズムの分析または計算の複雑さの理論では、いくつかのセット 長さのすべての入力の、及び関数、いくつかのソリューションアルゴリズムの実行時間が得られる入力に。最悪の場合の時間シーケンスを実行して、次にある 私(N )= { W ∈ S:| w | = n }I(n)={w∈S:|w|=n}I(n) = \{w \in S : |w| = n\}nnnT(w )T(w)T(w)AAAwwwAAAfn= 最大W ∈ I(n )T(w )。fn=maxw∈I(n)T(w). f_n = \max_{w \in I(n)} T(w). コルモゴロフ複雑度すべての入力のセット を定義し、シーケンス ここで、は平均実行時間シーケンスです。ただし、入力の「サイズ」は、長さではなくコルモゴロフの複雑さです。N F K N = 1私K(N )= { W ∈ S:K(w )= n }IK(n)={w∈S:K(w)=n} I^K(n) …

1
「経験的エントロピー」という言葉を誰が作ったのですか?
Shannonのエントロピーに関する作業を知っていますが、最近、ストレージ分析の一部として経験的エントロピーがよく使用される簡潔なデータ構造に取り組んでいます。 シャノンは、離散情報ソースによって生成された情報のエントロピーをと定義しました。ここで、p iはイベントiが発生する確率、たとえば特定の文字が生成され、k個のイベントが発生する可能性があります。− ∑ki = 1p私ログp私−∑i=1kpilog⁡pi-\sum_{i=1}^k p_i \log{p_i}p私pip_i私iikkk コメントでMCHにより指摘したように、経験的エントロピーは、これらのイベントの経験分布のエントロピーであり、したがって、によって与えられるここで、niはイベントiの観測された発生数、nは観測されたイベントの総数です。これは、ゼロ次の経験的エントロピーと呼ばれます。シャノンの条件付きエントロピーの概念には、同様の高次の経験的バージョンがあります。− ∑ki = 1ん私んログん私ん−∑i=1kninlog⁡nin-\sum_{i=1}^k \frac{n_{i}}{n} \log{\frac{n_{i}}{n}}ん私nin_{i}私iiんnn シャノンは経験的エントロピーという用語を使用しませんでしたが、彼は確かにこの概念のいくらかの信用に値します。誰がこのアイデアを最初に使用し、誰が(非常に論理的な)名前の経験的エントロピーを最初に使用してそれを説明しましたか?
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.