背景:
私は、エラーを伴う学習(LWE)問題の「あまり知られていない」下限(または硬さの結果)を見つけることに興味があります。特定の定義などについては、Regevによる素晴らしい調査をご覧ください。http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf
(R)LWEスタイルの仮定の標準タイプは、(おそらく、量子)格子上の(おそらく、理想的な)Shortest Vector Problemへの還元によるものです。SVPの通常の定式化はNP困難であることが知られており、小さな多項式因子に近似するのは困難であると信じられています。(関連:/ almost-polynomial /要因内でCVPを概算することは困難です:http : //dl.acm.org/citation.cfm?id = 1005180.1005182)(量子アルゴリズムの観点から)特定の格子問題(SVPなど)を小さな多項式近似係数に近似することは、非アーベル隠しサブグループ問題(独自の理由で困難であると考えられています)に関連していますが、このための明示的で正式なソースを見たことはありません。
ただし、学習理論のノイジーパリティ問題の結果として生じる硬度結果(任意のタイプ)に興味があります。これらは、複雑度クラスの硬さの結果、具体的なアルゴリズムの下限、サンプルの複雑度の下限、またはプルーフサイズの下限(解像度など)である可能性があります。LWEは、ノイズのあるパリティ/ノイズ付き学習パリティ(LPN)問題の一般化として見ることができる(おそらく明らか)ことが知られています。学習。
自分の周りを見てみると、LPN問題の(わずかに指数関数的でない)上位境界のみが見つかりました。たとえば、http: //www.di.ens.fr/~lyubash/papers/parityproblem.pdf
質問:
学習コミュニティではLPNが難しいと信じられています。私の質問は:なぜですか?
誰もが一生懸命努力したが、まだ誰も優れたアルゴリズムを見つけていないからでしょうか?上記のイタリック体の下限(または私が除外した他の下限)は知られていますか?
答えが非常に明確である場合、既知の内容の簡潔な要約、および/または調査/講義ノートへの参照が素晴らしいでしょう。
多くが不明な場合は、「最先端の」論文が多いほど良いでしょう。:)(事前に感謝します!)