Ilya Baran、Erik D. Demaine、Mihai Patrascuによる論文「Subquadratic Algorithms for 3SUM」には、次の複雑さがあります。
3SUM問題: ようながある場合、整数のリストが与えられ
彼らは、「 bitワードの標準ワードRAMで、実行時間を取得し 。1つの非標準AC0動作の回路RAMでは、O(n ^ 2 / w ^ 2 \ log w)を取得します。外部メモリでは、標準的な仮定の下でもO(n ^ 2 /(MB))を実現しますキャッシュを無視して、O(n ^ 2 / MB \ log M)の実行時間を取得します。すべての場合において、高速化は、モデルが調整できる「並列性」でほぼ2次であり、これが最良である可能性がありますこちらのBaran、Demaine、Patrascuの論文をご覧ください。A C 0 O (n 2 / w 2 log w )O (n 2 /(M B ))O (n 2 / M B log M )
最近、GrondlundとPettieによる論文「Threesomes、Degenerates、and Love Triangles」は、「3SUMの決定木の複雑さはであり、時間で実行されるランダム化された3SUMアルゴリズム、および時間。
これらの結果は、3SUM予想の最も強力なバージョン、つまりその決定木(およびアルゴリズム)の複雑さはΩ(n ^ 2)であることに反論しています。」
この2つ目の論文はこちらをご覧ください。
明らかに、どちらも重要な論文です。この分野の専門家ではないので、私の質問は、複雑さのモデルが異なる場合、どちらの影響と重要性を比較するかについてです。この問題に関する他の洞察に満ちたコメントも歓迎します。たとえば、最初の論文で既に限界が除外されていたのでしょうか?