モンテカルロアルゴリズムに関するYaoのミニマックスの原理
有名なヤオのミニマックスの原則は、分布の複雑さとランダム化された複雑さとの関係を述べています。LET有限集合に問題が入力と有限集合の解決する決定論的アルゴリズムの。また、が入力分布を示し、が確率分布を示すものとします。そして、原則は PPPXX\mathcal{X}AA\mathcal{A}PPPDD\mathcal{D}RR\mathcal{R}AA\mathcal{A}minA∈AEcost(A,D)≤maxx∈XEcost(R,x)for all D and R.minA∈AEcost(A,D)≤maxx∈XEcost(R,x)for all D and R.\min_{A\in\mathcal{A}}\quad\mathbb{E} cost(A,\mathcal{D}) \leq \max_{x\in\mathcal{X}}\quad\mathbb{E} cost(\mathcal{R},x) \quad\quad\text{for all $\mathcal{D}$ and $\mathcal{R}$}. この証明は、ゼロサムゲームのフォンノイマンのミニマックス定理から直接得られます。 ほとんどのYaoの原則は、ラスベガスのアルゴリズムのみを扱いますが、次のようにモンテカルロアルゴリズムに一般化できます。 12minA∈AEcost2ϵ(A,D)≤maxx∈XEcostϵ(R,x)for all D, R and ϵ∈[0,1/2]12minA∈AEcost2ϵ(A,D)≤maxx∈XEcostϵ(R,x)for all D, R and ϵ∈[0,1/2]\frac12 \min_{A\in\mathcal{A}}\quad\mathbb{E} cost_{2\epsilon}(A,\mathcal{D}) \leq \max_{x\in\mathcal{X}}\quad\mathbb{E} cost_{\epsilon}(\mathcal{R},x)\quad\quad\text{for all $\mathcal{D}$, $\mathcal{R}$ and $\epsilon\in [0,1/2]$} ここで、costϵ(⋅,⋅)costϵ(⋅,⋅)cost_\epsilon(\cdot,\cdot)は、確率が最大\ epsilonであるモンテカルロアルゴリズムのコストを示しϵϵ\epsilonます。 八尾の元の論文、モンテカルロアルゴリズムの関係を証明することなく、定理3で与えられます。それを証明するためのヒントはありますか?