タグ付けされた質問 「computer-architecture」

コンピュータアーキテクチャとは、互換性、パフォーマンス、およびインターフェイスに影響を与える可能性のあるコンピュータシステム設計のさまざまな側面を指します。コンピュータアーキテクチャに関連するいくつかの問題は、プロセッサのワードサイズ、メモリバスサイズ、またはプロトコルの実装です。

9
64ビットマシンが理論的に対応できるRAMの最大量はいくらですか?
この質問は、Super Userで回答できるため、Stack Overflowから移行されました。 10年前に移行され ました。 コンピューターアーキテクチャの本を読んでいますが、x86、32ビットCPUでは、プログラムカウンターは32ビットです。 したがって、アドレス可能なバイト数は2 ^ 32バイト、つまり4GBです。したがって、ほとんどの32ビットマシンでは、RAMの量が4GBに制限されています(PAEは無視されます)。 64ビットマシンが理論的に2 ^ 64バイト、または16 エクサバイトのRAMをアドレスできると仮定するのは正しいですか?!

3
ポートマップアクセスとメモリマップアクセスの違いは?
誰でもポートマッピングとメモリマッピングの違いを説明できますか?なぜポートがマップされるのか、構造がメモリマップとどのように異なるのか、多くのアーキテクチャが両方を使用する理由はありますか?また、この意味での「ポート」とは何ですか。ポートは異なるコンテキストで異なることを意味する可能性があるためです 例:ポート転送、通信エンドポイントとしてのポート、「ポートマッピング」。 たとえば、ポート400hにOUTを書き込みます(架空の例です)(x86-64など)。 メモリにない場合、何に、どこに書き込みますか?「ポート」はどのようにマッピングされますか?この意味では何ですか?

5
コア数が多いほど、またはクロック速度が高いほど、コンピューターのパフォーマンスにとって有益ですか?[閉まっている]
現在のところ、この質問はQ&A形式には適していません。回答は、事実、参考文献、または専門知識によってサポートされると予想されますが、この質問は、議論、議論、世論調査、または広範な議論を求める可能性があります。この質問を改善し、場合によっては再開できると思われる場合は、ヘルプセンターをご覧ください。 8年前に閉鎖されました。 シリコンコストの削減と消費者ニーズの高まりに伴い、メーカーはクロックスピードとコア数の2つのうちいずれかを推進しているようです。物事が進行している方法では、プロセッサのクロック速度はもはや上昇しているようには見えませんが、プロセッサコアの数は増加しています。 数年前のことを覚えていますが、素晴らしく高速なシングルコアPentium 4プロセッサがありました。今日に至っては、シングルコアプロセッサを購入することさえできないと思います(携帯電話でもマルチコアプロセッサが増加していることは言うまでもありません)。状況は、数年で数百のコアを持つコンピューターを見つけるかもしれません(多くのオペレーティングシステムが既にサポートしていることは知っています)。 クロック速度を上げるか、コア数を増やすことは、システムの全体的なパフォーマンスにとってより有益ですか?すべてが一緒に実行されている数百のコアに入るか、現在の10倍のクロック速度になると仮定します(物理的に可能であるかどうかに関係なく)。 一般的なプロセス(暗号化、ファイル圧縮、画像/動画の編集など)の例として、どのようなものが最も効果的ですか?可能性のあるプロセスはありますが、現在は(技術的な理由により)並列性を高めても高速化されていませんか? 仮想プロセッサのコア設計(ワードサイズ、アドレスビット幅、メモリバスサイズ、キャッシュなど)がまったく同じであると想定しているため、ここでの変数はクロック速度とコアカウントのみです。繰り返しますが、私は1つ、2つ、または4つのコアについても話していません。数十から数百を想像してください。


8
インストールされているOSのアーキテクチャを見つける方法
Core 2 Duoを使用しています。IntelのWebサイトから、64ビットアーキテクチャのCPUであることがわかりました。 ずっと前に、このマシンにUbuntu OSをインストールしました。しかし、x86-32またはx86-64バージョンのLinuxをインストールしたかどうかはわかりません。使用しているLinuxのバージョンを知りたい。どうすればそれを知ることができますか? Windowsで同じものを見つけるにはどうすればよいですか?

7
コンピューターを「突然」シャットダウンすることが推奨されないのはなぜですか(電源スイッチ)。[複製]
この質問にはすでに回答があります: シャットダウンする代わりにパワーダウンすると、どのようなダメージがありますか? (12回答) 5年前に閉鎖されました。 現在では、電源スイッチを使用してコンピューターをシャットダウンしないでください。しかし、なぜそれが正確なのでしょうか?それは過去の建築に固執した神話ですか? シャットダウン時に書き込まれているデータの破損を防ぐためだけですか(ボーナス:どのように正確に破損するのですか?)。ハードドライブの読み取りのヒントは、電源を切ってもディスク上でクラッシュしなくなります(または、HDDがなくなってしまいます)。 より正確には、電源スイッチを使用してコンピューターの電源を切って入れ直すと、コンピューターの消耗が早くなり、何らかの形で損傷することさえありますか?


2
メモリ(RAM)の仕様をどのように解釈しますか?
メモリを見ると、理解できない仕様がいくつかあり、明確にすることを望んでいました。これらの用語は何を意味し、システムのパフォーマンスにどのように影響しますか? 技術データとこれらに対する回答をお気軽にご提供ください。ただし、下の例にリストした仕様に限定されません。 速度:DDR3 1600、DDR2 800 タイミング:9-9-9-24(各数字の意味は?) 電圧:1.5V(電圧とは何か知っていますが、システムにどのように影響しますか?) マルチチャンネルキット:デュアル、クアッド

3
クロック速度が遅い新しいプロセッサは、レガシーアプリケーションをより高速に実行しますか?
Linuxを使用していますが、クロックスピードが約3 GHzの古いP4を使用しています。クロック速度がより遅い新しいチップは、レガシーアプリケーションをより速くまたは遅く実行しますか?マルチコアを活用できず、バックグラウンドで何も実行したくない古い描画プログラム(ワインで使用されるWindowsアプリ)を一度に1つだけ使用します。 たとえば、私はCORE 2 DUO 1.86GHZである使用済みコンピューターを見ていました。これはクロック速度の半分に過ぎませんが、はるかに新しいチップです。これにより、単一のアプリがより速くまたは遅くなりますか、それともほぼ同じですか?


2
x86アーキテクチャで、仮想アドレス空間のビット数が物理アドレスよりも少ないのはなぜですか?
私は64ビットコンピューティングに関するこの記事を読んでいて、次のように述べています。 たとえば、2011年のAMD64アーキテクチャでは、物理メモリに52ビット、仮想メモリに48ビットが許可されていました 物理メモリよりも多くの仮想メモリを許可するほうが理にかなっていると思うので、なぜ実際にはそれが逆になっているのですか? おまけの質問:64ビットアーキテクチャで52ビットまたは48ビットを「許可」するとはどういう意味ですか?他に使用されるビットは何ですか?

1
物理キャッシュと仮想キャッシュの違いは何ですか?
仮想キャッシュが実際に何であるかを理解できません。仮想メモリについて理解しています。 CPUがメモリにアクセスする場合、私が理解している限り、仮想アドレスをMMUに送信します。MMUは、ページテーブルを使用して、物理メモリアドレスを計算します。 これに加えて、CPUはセット番号で構成される別のアドレス(仮想アドレスの終わり)を送信します。タグとキャッシュへのオフセット。キャッシュに存在する場合は、キャッシュとキャッシュが機能します。 仮想キャッシュはこれとどう違うのですか?

2
CPUはどのように情報をRAMに書き込みますか?
私の質問は、CPUはどのようにRAMにデータを書き込むのですか? 私が理解していることから、最近のCPUはさまざまなレベルのキャッシュを使用してRAMアクセスを高速化しています。RAMは情報のコマンドを取得し、CPUにデータのバーストを送信します。CPUは必要なデータ(およびCPUが必要とするアドレスに近い大量の追加データ)を最高レベルのキャッシュに格納し、CPUは徐々に要求しますさまざまなキャッシュを使用して、レベル1のキャッシュになるまでキャッシュのレベルを下がるデータの小さなチャンクを送信し、それがCPUレジスタに直接読み取られます。 CPUがメモリに書き込むときに、このプロセスはどのように機能しますか?コンピューターはキャッシュのレベルを逆方向​​に進みますか(読み取りとは逆の順序で)?もしそうなら、異なるキャッシュの情報をメインメモリと同期するのはどうですか?また、読み取り操作と比較して書き込み操作の速度はどうですか?バケットソートの場合など、RAMに継続的に書き込みを行うとどうなりますか? 前もって感謝します、 -フェイケン 編集:私はまだ完全に受け入れることができる答えをまだ得ていません。特にRAM書き込みの同期部分について知りたい。CPUから直接L1キャッシュに書き込み、さまざまなレベルのキャッシュを同期するときにデータがキャッシュレベルにプッシュダウンされ、最終的にメインRAMが最上位層のキャッシュと同期されることを知っています。ただし、私が知りたいのは、キャッシュがメインRAMと同期してscynocronizeするタイミングと、読み取りコマンドとの関係での速度です。

2
4GBより大きい.exeを実行することは可能ですか?
警告なしに、7-Zipで> 4GB SFXアーカイブ(自己解凍アーカイブ)を作成しました。受信者がそれを抽出しようとしたときに、次のエラーリボンが表示されました。 .exeそれが4GBよりも大きいためです。7-Zipをインストールした後、彼はアーカイブを抽出できましたが、なぜWindowsがそのような実行可能ファイルを実行できないのでしょうか。そして、いくつかのオーバーライドを介して可能ですか?

2
0および1ビットスタイル/構造の代替
私はどこでもこの答え、または少なくともこのような質問を探しました(tomのハードウェアでさえ、これに「明示的に」関連していませんでした)。 私の質問は簡単です: コンピュータアーキテクチャでデータを処理する現在の方法(0と1を使用)に代わるものはありますか? 購入する新しいPCを探すときにこの質問に出くわし、Intelや他のプロセッサの連中がチップにトランジスタを追加するために何十億ドルも費やす方法などを調べました(ただし、これは私の質問に部分的にのみ関連しています)。 一部の人々は、「0と1はデータを表現する最も低い形式」であると言うかもしれません。これは、そのようなコンピューターがそのようなシステムを使い始めたときに真実でした。今日もそうですか?現在直面している処理ニーズを削減できる可能性のある処理の代替案を検討するために、設計図に戻っていないのですか? この質問にはあなたが正しいと思う簡単な答えがあるかもしれないことを知っている人もいますが、それについて考えて0と1に戻り、トランジスタ自体にさえ戻ると、すべての選択肢に代わるものかどうか疑問に思われるでしょう。アーキテクチャのメソッドまたはステップが存在します(0と1の表現だけではありません)。 私の個人的な意見は、 「現在のPCには複雑な性質があるため、最低レベルで0 | 1処理よりも複雑な処理を実行する能力は、単にそのタイプの処理は、PCが設計された複雑な解法の目的に反するようです。」

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.