デジタルコンピューティングではできない、アナログコンピューターでできることはありますか?


7

アナログコンピューティングとデジタルコンピューティングの違いの核心は、利用可能な精度のビット数です。記憶媒体は無限のテープであるため、チューリングマシンでは、数値を任意の精度で格納できることを知っています。

しかし、現実の世界では、エネルギーや位置などの物理量は、バイナリにあるため、個別のチャンクでは増分されません。代わりに、それらの正確な値は、アナログ回路と同様に連続的に変化する可能性があります。

その上で、デジタルコンピューティングではできない、基本的にアナログコンピューターでできることはありますか。


1
アナログコンピューティングの1つのバージョンである無限精度の算術演算を許可すれば、多項式時間でNP困難な問題を解決できると思います。
レンビック2015年

1
アナログコンピュータやChurch-Turingの論文にかなり似ています。向こうに良い参考文献があります。チェックして、質問の違いを明確にしてください
vzn

@Lembik本当に面白い。それをソースでバックアップできますか?
kdbanman 2015年

回答:


4

電気回路に到達するまですべての抽象化レベルを下げると、デジタルコンピューターもアナログになります。唯一の違いは、信号の検出可能なアナログシフトのレベルのある種のグリッドでは、ビットまたはバイトと呼ばれる別の新しい抽象化レベルを作成するため、「カット」を選択することです。

たとえば、アナログフィルターの出力信号や、スプリングとダンパーシステムの質量が移動するミリメートルの量など、アナログコンピューターが計算するものも、最終的に最大解像度に達します。これは、検出器のノイズ、測定機器の誤差、量子現象などが原因です。ほんの少しの情報量として少し定義すると、アナログコンピュータの出力のデジタル抽象化が得られます。

言い換えると、計算に十分な解像度を達成できるデジタルコンピューターの正式な抽象化を使用する場合、その問題が計算する同等の現実のアナログコンピューターと同じものを計算できるようになります。

時間をデジタル化するときに同じ問題が発生します。たとえば、アナログフィルターとデジタルフィルターの同等性を調べると、アナログフィルターをデジタル化するときに必ず発生するエラーがあります。連続システムの離散化に使用されるタイムステップが小さくなると、その誤差は0になる傾向があります。


2

ある意味での答えは「はい」です。アナログコンピュータでできることは、デジタルコンピュータではできないことです。たとえば、Hava Siegelmannは、リカレントニューラルネットワーク(RNN)として知られている抽象アナログマシンのいくつかのクラス(TMが抽象デジタルマシンと同じように)を調査し、特定のマシンが、たとえば、ビットストリングの任意の言語。もちろん、これはチューリングマシンについては言えないため、これらのRNNはTMよりも強力です。詳細については、リンクをたどって彼女の出版物をご覧ください。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.