モンテカルロアルゴリズムに関するYaoのミニマックスの原理


22

有名なヤオのミニマックスの原則は、分布の複雑さとランダム化された複雑さとの関係を述べています。LET有限集合に問題が入力と有限集合の解決する決定論的アルゴリズムの。また、が入力分布を示し、が確率分布を示すものとします。そして、原則は PXAPDRA

minAAEcost(A,D)maxxXEcost(R,x)for all D and R.
この証明は、ゼロサムゲームのフォンノイマンのミニマックス定理から直接得られます。

ほとんどのYaoの原則は、ラスベガスのアルゴリズムのみを扱いますが、次のようにモンテカルロアルゴリズムに一般化できます。

12minAAEcost2ϵ(A,D)maxxXEcostϵ(R,x)for all DR and ϵ[0,1/2]
ここで、costϵ(,)は、確率が最大\ epsilonであるモンテカルロアルゴリズムのコストを示しϵます。

八尾の元の論文、モンテカルロアルゴリズムの関係を証明することなく、定理3で与えられます。それを証明するためのヒントはありますか?

回答:


6

これは、マルコスの表記法を使用した、マルコスの回答に対する拡張コメントです。私は彼の議論の詳細を追うことができず、以下の説明は非常に短く簡単です。

平均化により、

Aq(A)xd(x)ϵ(A,x)=xd(x)Aq(A)ϵ(A,x)λ.

上記の事実とマルコフの不等式は、\ sum_ {A \ in \ beta(2 \ lambda)} {q(A)} \ geq 1/2を意味しAβ(2λ)q(A)1/2ます。

だから我々は得る:

maxxAq(A)r(A,x)xd(x)Aq(A)r(A,x)=Aq(A)xd(x)r(A,x)Aβ(2λ)q(A)xd(x)r(A,x)(Aβ(2λ)q(A))minAβ(2λ)xd(x)r(A,x)12minAβ(2λ)xd(x)r(A,x)

8

これを試してみます。Yaoの元の表記法を使用します。このようにして、彼の論文と彼の定義との対比が容易になります。

してみましょう、入力の有限集合である、としましょういくつかの入力に対して正しい答えを与えるために失敗することがあり決定的アルゴリズムの有限集合になります。またましょうならばのための正しい答え与えし、そう。また、によって、入力でによって行われクエリの数、または同等に、の決定木の深さを示します。IA0ϵ(A,x)=0Axϵ(A,x)=1r(A,x)AxA

平均コスト:確率分布を考えるに、平均コストアルゴリズムのれる。dIAA0C(A,d)=xId(x)r(A,x)

分布複雑さ:レッツ。入力の分布について、をのサブセットとして、。計算問題誤差を持つ分布複雑度は、。λ[0,1]dβ(λ)A0β(λ)={A:AA0,xId(x)ϵ(A,x)λ}λPF1,λ(P)=maxdminAβ(λ)C(A,d)

λ -tolerance:分布ファミリーにである最大許容誤差なら。qA0λmaxxIAA0q(A)ϵ(A,x)λ

予想コスト:ランダム化されたアルゴリズム場合、を許容される確率分布とします。予想されるコストの所与の入力のためにある。RqλA0RxE(R,x)=AA0q(A)r(A,x)

ランダム化複雑さ:レッツ。エラー伴うランダム化された複雑度はです。λ[0,1]λF2,λ=minRmaxxIE(R,x)

これで、ビジネスを開始する準備が整いました。私たちは配布与えられていることを証明したい入力にして、ランダム化アルゴリズム(すなわち、配布上の)dRqA0

モンテカルロアルゴリズムのYaoのミニマックスの原理 のための。

maxxIE(R,x)12minAβ(2λ)C(A,d)
λ[0,1/2]

Fich、Meyer auf der Heide、Ragde、Wigdersonのアプローチに従います(補題4を参照)。彼らのアプローチは、ラスベガスのアルゴリズムの特性化(下限のみ)をもたらすものではありませんが、私たちの目的には十分です。彼らの証明から、およびA0I

要求1.maxxIE(R,x)minAA0C(A,d)

そこで正しい番号を取得するために、同様のことを行います。確率分布と仮定するランダム化アルゴリズムによって与えられるである最大許容誤差に我々はその ファミリをに置き換えた場合qRλA0

λmaxxI{AA0q(A)ϵ(A,x)}xId(x)AA0q(a)ϵ(A,x)=AA0q(a)xId(x)ϵ(A,x)minAA0{xId(x)ϵ(A,x)}.
A0β(2λ) 私たちはそれを見る

λmaxxI{AA0q(A)ϵ(A,x)}maxxI{Aβ(2λ)q(A)ϵ(A,x)}xId(x)Aβ(2λ)q(a)ϵ(A,x)=Aβ(2λ)q(a)xId(x)ϵ(A,x)minAβ(2λ){12xId(x)ϵ(A,x)},

ここで、第二の不等式は、次の理由、最後の不等式は、の定義によって与えられるの総和よりも大きくすることができない2で割っ。したがって、 β(2λ)A0β(2λ)λ

maxxI{AA0q(A)ϵ(A,x)}12minAβ(2λ){xId(x)ϵ(A,x)}.

ことを注目することによりにマッピング及びにマッピングと上記請求項1、今は安全機能に取って代わることができるによって上記不等式において得ること望ましい不等式。ϵ{0,1}rNϵr(A,x)


2の要因がどこから来るのかについての簡単な説明はありますか?
ロビンコタリ

要するに、これはの定義に由来します。定義の合計を2で割った値は最大でです。β(2λ)λ
マルコスヴィラグラ

何かが私には奇妙に思えます。定義により、、なぜ最小なのですか?maxAβ(2λ)){12xId(x),ϵ(A,x)}λ
サショニコロフ

そして、私は最後の文を理解していません。どのようにしてに関する引数全体を作成し、それを置き換えましたか?ϵr
サショニコロフ

最初の質問に関して、詳細を追加しました。
マルコスヴィラグラ
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.