なぜ分散コンピューティングの統一された複雑性理論を開発できなかったのですか?
分散コンピューティングの分野は、分散アルゴリズムを記述するための単一の数学的理論を開発する上で非常に不十分です。単に相互に互換性のない分散計算のいくつかの「モデル」とフレームワークがあります。さまざまな時間プロパティ(非同期、同期、部分同期)、さまざまな通信プリミティブ(メッセージパッシングと共有メモリ、ブロードキャストとユニキャスト)、複数の障害モデル(フェイルストップ、クラッシュリカバリ、送信省略、ビザンチンなど)の爆発的な爆発on)は、難解な数のシステムモデル、フレームワーク、および方法論を残しており、これらのモデルとフレームワーク全体の相対的な可解性の結果と下限を比較することは困難で扱いにくく、時には不可能になります。 私の質問は非常に単純ですが、なぜそうなのですか?分散コンピューティングについて(シーケンシャルなものとは)根本的に何が異なり、研究を分散コンピューティングの統一理論にまとめることができなかったのですか?シーケンシャルコンピューティングでは、チューリングマシン、再帰関数、およびラムダ計算がすべて同等になるように調整されました。これは単なる幸運だったのでしょうか、それとも分散コンピューティングではまだ達成されていない方法でシーケンシャルコンピューティングをカプセル化するのに本当に良い仕事をしましたか? 言い換えれば、分散コンピューティングは本質的にエレガントな理論に屈しない(そしてそうであれば、どのように、なぜですか?)か、単にそのような理論を発見するのに十分にスマートではありませんか? この問題に対処できる唯一の参考文献は、Fischer and Merritt DOIによる「20年間の分散コンピューティング理論研究の評価」:10.1007 / s00446-003-0096-6です。 参照や説明は本当に役立つでしょう。