あなたはいくつかの異なることを1つの質問に尋ねています。たぶん、問題を自分で解決するのは良い考えです。あなたは物理学、業界の定義、ソフトウェア/コンピューターのアーキテクチャについて話しています。
マシンが理解できる最低限の言語は、1&0の2進数です。そして、入力するものはすべてバイナリに変換/変換する必要があります。
まず、この部分から始めましょう。現代のコンピューターは電気回路に基づいています。たとえば、ほとんどのARMプロセッサは5ボルトで実行できます。ARMプロセッサはファブリックに組み込まれているため、プロセッサは〜0ボルトの信号を0ビットとして、〜5ボルトを1ビットとして認識します。それは誰かが選んだ定義です。
しかし、2進数であることは、2進数を実際の機械語に変換するために別のインタープリター/コンパイラーが必要になることを意味しませんか?
私はあなたがここで何を求めているのか完全には理解していません。しかし、ソフトウェアの観点から見ているとしましょう。次に、プログラムは最終的に実際のビットの行とビットの行に変換され、ビットの処理方法をCPUに伝えます。これらはCPU(処理ユニット)に供給され、プロセッサアーキテクチャに基づいて、データに対してアクションが実行されます。
エレクトロニクスから、コンピューターは主にICなどのCPUで構成されているため、トランジスタなどで作られていることがわかります。これらのツールが理解できるのは電気だけなので、電気はコンピューターにとって最も理解しにくい言語です。だから私の懸念は、バイナリは本当に1s&0sなのか、それとも1s&0sが電気の有無を表すために使われているだけなのか?
上で少し述べたように、それはコンピュータが構築される方法です。他の電圧でプロセッサを実行することはできますが、機能しません(私は思います)。特定の定義は、ビットが0または1である電圧について行われるためです。
それが電気の有無の単なる表現であるとすると、入力するコマンドとバイナリの間に別の中間言語または下位言語がなく、回路がどこに電流を送信するか、どこに送信しないかがわかるでしょうか?
うん、基本的にアナログ信号。ただし、ほとんどの場合、これらはADC(アナログデジタルコンバーター)によって、そのラインの事前定義された電圧を表すビット値に変換されます。