私はいくつかの問題は、(近似することが困難であることを多くの場所で読ん NP-ハード近づけるために それらを)。しかし、近似は決定問題ではありません:答えは実数であり、YesまたはNoではありません。また、各望ましい近似係数に対して、正しい多くの答えと間違った多くの答えがあり、これは望ましい近似係数によって変わります!
それでは、この問題はNP困難であると言えるのでしょうか。
私はいくつかの問題は、(近似することが困難であることを多くの場所で読ん NP-ハード近づけるために それらを)。しかし、近似は決定問題ではありません:答えは実数であり、YesまたはNoではありません。また、各望ましい近似係数に対して、正しい多くの答えと間違った多くの答えがあり、これは望ましい近似係数によって変わります!
それでは、この問題はNP困難であると言えるのでしょうか。
回答:
あなたが言ったように、決定することはありません。そのため、最適化問題のNP硬さの適切な定義に到達するには、新しい複雑度クラスと新しいタイプの削減が必要です。
これを行う1つの方法は、最適化問題を含む2つの新しいクラスNPOとPOを作成し、もちろん決定問題のクラスNPとPを模倣することです。新しい削減も必要です。その後、意思決定問題で成功したラインに沿って、最適化問題のNP硬さのバージョンを再作成できます。しかし、最初に最適化問題とは何かに同意する必要があります。
定義:レッツことが最適化問題。は、文字列として適切にエンコードされた入力またはインスタンスのセットです。は、各インスタンスをインスタンス実行可能な解である文字列のセットにマッピングする関数です。最適化の問題には多くの解決策があるため、これはセットです。したがって、インスタンスのすべてのペアとそのコストまたは値を求める目的関数があります。のx ∈ X (X 、Y )Y ∈ L (X ) 最大化するか最小化するかを示します。
これは何を定義するために私達を可能にする最適解がある:うである最適解インスタンスの最適化問題のと多くの場合、最適解は示されます。のx ∈ X O = (X 、L 、F 、O 、P 、T )、F (X 、Y O のP T)= O 、P 、T { F (X 、Y ')| Y ' ∈ L (X )} 。y ∗
今、私たちは、クラス定義することができNPOみましょう:すべての最適化問題の集合とするして:O = (X 、L 、f 、o p t )
その背後にある直感は次のとおりです。
どのようにこれは、ミラー今のところ、定義されてPOしてみましょう:P Oはからのすべての問題の集合とするN P O多項式時間で決定性アルゴリズムによって解決することができます。
今、私たちは私たちが電話をかけたいものを定義することができます近似アルゴリズムを:近似アルゴリズム最適化問題の実現可能な解を計算するアルゴリズムであるY ∈ Lを(X )例えば、X ∈ X。
注:最適なソリューションを要求するのではなく、実行可能なソリューションのみを要求します。
今、我々はエラーの二つのタイプがある:絶対誤差実現可能な解のインスタンスのX ∈ X最適化問題のO = (Xは、L 、F 、O のp tが)です| f (x 、y )− f (x 、y ∗)| 。
我々は、近似アルゴリズムの絶対誤差呼び出し最適化問題のためのOによって境界K場合、アルゴリズムAのすべてのインスタンスのために計算するのx ∈ Xで囲まれた絶対誤差を有する可能溶液K。
例:Vizingの定理によれば、グラフの色指数(使用される色の数が最も少ないエッジカラーリングの色の数)はまたはΔ + 1のいずれかです。ここで、Δは最大ノード次数です。定理の証明から、Δ + 1色でエッジの色付けを計算する近似アルゴリズムを考案できます。したがって、M i n i m u m − E d g e C o l o r i nの近似アルゴリズム絶対誤差が 1で制限されている問題。
この例は例外であり、小さな絶対誤差はまれであるため、最適化問題O = (X 、L 、f 、o p t )のインスタンスxで近似アルゴリズムAの相対誤差 を定義します。F (X 、Y )> 0のすべてのためのx ∈ XとY ∈ L (X )であることが
ここで、は、近似アルゴリズムによって計算された実行可能な解です。A
現在、近似アルゴリズムを定義することができ最適化問題のためのであることが -approximationアルゴリズムのための相対誤差があればによって制限されるすべてのインスタンス、したがって O = (X 、L 、F 、O 、P T )δ O ε A(X )δ ≥ 0 のx ∈ X ε A(X )≤ δ
選択相対誤差の定義の分母には、最大化及び最小化のために定義対称を作るために選択しました。相対誤差。最大化問題の場合、解の値はより小さくなり、より大きくなることはありません問題を最小化するための。ε A(X )∈ [ 0 、1 ] (1 - ε A(X ))⋅ F (X 、Y *)1 /(1 - ε A(X ))⋅ F
多項式時間で実行される -approoximation-algorithmがある場合、最適化問題 -approximable を呼び出すことができます。δ A O
すべてのインスタンスエラーを調べたくないので、最悪のケースだけを調べます。したがって、私たちは定義、最大のする相対的エラー近似アルゴリズムのの最適化問題のためのなるように ϵ A(n )A O ϵ A(n )= sup { ϵ A(x )∣ | x | ≤ N } 。
どこインスタンスのサイズにする必要があります。
例:グラフ内の最大一致は、一致からのすべてのインシデントノードを頂点カバーに追加することにより、最小ノードカバー変換できます。したがって、エッジが覆われています。最適な頂点を含む各頂点のカバーには、カバーされた各エッジのノードの1つが必要であるため、それ以外の場合はます。その次 したがって、最大マッチングのための貪欲アルゴリズムである -approximatio-アルゴリズム。したがって、は約です。1 / 2 ⋅ | C | 1 / 2 ⋅ | C | ⋅ F (X 、Y *)| C | − f (x 、y ∗) 1/2MINiは、mはL-VERTEXCOのVEのRMiは、Niは、mはL-VERTEXCOVER1/2
残念ながら、次の例が示すように、相対誤差は常に近似の品質の最良の概念ではありません。
例:単純な欲張りアルゴリズムは近似できます。分析によると、、したがっては -およそ。| C |
相対誤差が近い場合、次の定義が有利です。
LETを有する最適化問題である全てに対してととの近似アルゴリズム。インスタンスの実行可能解の近似比は、
前と同じように、近似比率がすべての入力に対してによって制限されている場合、最適化問題の近似アルゴリズムを近似アルゴリズムと呼びます。 そして、まだ再び我々が持っている場合は -approximation-アルゴリズム最適化問題のためのその後、呼び出された -approximableを。繰り返しますが、最悪の場合にのみ注意を払い、最大近似比を と定義します
最適なおよびからの偏差が小さい場合、相対誤差は近似比よりも有利です。これは、偏差が大きい場合の強度およびます。
1つのバージョンには常にあり、もうつのバージョンには必ずため、2つのバージョンの -approximableは重複しません。の場合は、厳密な解を生成するアルゴリズムによってのみ到達し、結果として近似アルゴリズムとして扱う必要がないため、問題はありません。
別のクラスはしばしばAPXに表示されます。これは、すべての最適化問題の集合として定義されるからその避難所と-approximationアルゴリズム多項式時間で実行されています。
もうすぐです。複雑性理論から還元と完全性の成功したアイデアをコピーしたいと思います。観察によると、最適化問題のNP困難な決定バリアントの多くは互いに還元可能であり、最適化バリアントは近似可能性に関して異なる特性を持っています。これは、NP完全性の削減で使用される多項式時間のカープ削減のためです。これは、目的関数を保存しません。また、目的関数が保存されている場合でも、多項式時間-カープ削減により解の品質が変わる可能性があります。
必要なのはだけでなく、最適化の問題からインスタンスをマップ化、より強力なバージョンであるのインスタンスにから、だけでなく、優れたソリューションから良いソリューションに戻っ。
したがって、からの2つの最適化問題およびの近似保存削減を定義します。2つの関数およびと定数があり、として書かれた -に還元可能を呼び出します。
この定義では、とは解品質に依存します。したがって、品質が異なると、機能が異なる場合があります。この一般性は必ずしも必要ではなく、とです。
最適化問題の削減の概念が得られたので、ようやく複雑性理論から知っている多くのことを転送できます。たとえば、わかっていて、と表示されているそのもます。
最後に、最適化問題の -hardおよび -completeの意味を定義できます。
ましょうから最適化問題であるとから最適化問題のクラス次いで呼び出され -hardに対してすべてについてあればが成り立つ。
したがって、クラスで最も困難な問題の概念がもう一度あります。驚くべきことではない -hard問題は呼ばれるに対する-completeそれの要素である場合。
したがって、完全性や完全性などについて話すことができます。そしてもちろん、役割を引き継ぐ最初の完全問題を示すように求められます。が完全であることを示すことができるのはほぼ自然です。PCP定理の助けを借りて、があることを示すことさえできます。A P X N P O S A T W e
通常、表示されるのは、問題の「ギャップ」バージョンのNP硬さです。たとえば、SET COVERを2倍以内に近づけることが難しいことを示したいとします。
2-GAP-SET-COVERと呼ぶSET COVERの次の「約束」インスタンスを定義します。
数修正します。2-GAP-SET-COVERは、セットカバーのすべてのインスタンスで構成され、最適なセットカバーのサイズは次のいずれかです。
問題が2つのケースのどちらに該当するかを決定する問題がNP完全であることを示すと仮定します。次に、このようなアルゴリズムを使用してこれら2つのケースを区別できるため、SET COVERを2倍以内に近似することはNP困難であることを示しました。
2つの既存の答えは非常に有益ですが、どちらも本当に質問に答えるとは思いません。つまり、「NPが決定問題のクラスであるとき、決定問題ではない問題をNP困難にすることができます」 ?」
答えは、NP-hardの意味を思い出すことです。NPのすべての問題をに還元できる場合、問題 は、ある種の縮約ではNP困難 です。(そして、 NP困難でNPの場合、はNP完全です。)非公式に、NP困難は、この問題を解決できれば、NPですべてを解決できることを意味します。 NPのt。NP硬さはNPのメンバーシップを必要としませんが、正しい削減の概念が必要です。
いくつかの例。