タグ付けされた質問 「cpu」

中央処理装置として知られているCPUは、コンピューターの心臓部として知られています。命令で指定された基本的な算術、論理、制御、および入出力(I / O)操作を実行することにより、コンピュータプログラムの命令を実行する責任があります。

7
トランジスタはCPU上の唯一の電子部品ですか?
私は最近CPUについて読んでいて、CPU上のすべての論理ブロックとメモリはトランジスタで作成できることを知りました。CPU上の唯一の電子部品ですか? 編集(最初の2つの回答の後に 作成):ただし、CPUの作成は、トランジスタ図の投影についてのみ説明します(それが主要な部分である可能性があります)。しかし、ダイオード、コンデンサなどの追加コンポーネントはCPUにどのように追加されますか?

7
CPUの熱を使用して電気を生成する
私はTanenbaumのStructured Computer Organizationを読んでいますが、CPUクロック速度を上げるための主要なボトルネックの1つは熱だと彼は言います。だから私は考え始めました:ヒートシンクを完全に取り外して、その熱を使用してより多くの電気を生成することは可能ですか?私はこれを探していて、これらの熱電材料とこの熱電発電機を見つけました: そのウィキペディアの記事で、「シリコン-ゲルマニウム合金は現在、1000°C付近で最高の熱電材料です(...)」と読みましたが、CPUは通常30〜40°C程度で動作します。したがって、1000°Cに到達するにはより多くのCPUが必要になります。 だから私は考えた:より多くの熱を集めるために、ヒートシンクなしで多くのCPUを並列に配置するのはどうだろうか?また、これらのCPUをオーバークロックして、どれくらいの熱が発生するかを確認することもできます。 しかし、私は立ち往生しています。次に何を考えるべきかわかりません。それが良い考えかどうかさえわかりません。 私の質問は、CPUの熱から電気を生成するヒートシンクを開発してみませんか?私は誰かがすでにそれについて考えていて、それをしない理由を考えているに違いないことを知っていますが、私はそれを理解できません。 それで、なぜそれは不可能ですか? 明確化のために編集: CPUを1000°Cで動作させたくない。推論手順をリストします(必ずしも正しいとは限りません)。 CPUクロック速度は、動作温度(T)によって制限されます。 CPUは発熱します。熱によりTが上昇します。 ヒートシンクは、T = 40°Cを維持するためにその熱を処理します。 ヒートシンクを熱電発電機(SiGeまたは同様の材料から構築)に交換します 多くのCPUを並べて配置し、発熱を増やします。 CPUからTEGに熱が発生するため、CPUはT = 40°Cのままです。 これは可能ですか? このようなTEGを構築する方法は?使用する材料は? そのようなデバイスがまだ存在しないのはなぜですか? この質問をした。 EDIT2:私の考えは根本的に間違っていて悪いと思います。すべての回答とコメントをありがとう。誤解についてすみません。
22 heat  cpu  heatsink 

3
CPUはどのように設計されていますか?
私は少し前に電子機器で遊んで、トランジスタを使って簡単な論理ゲートを作り始めました。私は、最新の集積回路がトランジスタ-トランジスタロジックの代わりにCMOSを使用することを知っています。私が疑問に思わざるを得ないのは、CPUの設計方法です。 設計はまだ(サブ)論理ゲートレベルで行われていますか、それともその領域にそれほど多くのイノベーションがなく、より高いレベルの抽象化に移行しましたか?ALUの構築方法は理解していますが、CPUにはそれ以上のものがあります。 数十億個のトランジスタの設計はどこから来たのですか?ほとんどはソフトウェアによって自動生成されますか、それとも手動による最適化がたくさんありますか?
21 design  cpu  cmos 

7
プロセッサデザインをFPGAに取り込む方法
私は最近、自己学習型の論理設計の長い旅に出ました。この最終製品は、シミュレータで設計されたとおりに動作する機能的な16ビットCPUです。FPGAを使用してシリコンに組み込む可能性について検討し始めたばかりです。入出力の分野(現実の世界はシミュレーション環境とは異なる)で多くの調整を行う必要があることを知っており、ネットリストまたはHDLコードをエクスポートしないプログラムで設計を完全に行ったことを発見しました。私が本当に持っているのは回路図だけです。 しかし、デザインのネットリストまたはHDLコードがどこかにあると仮定して、それをシリコンに取り込む次のステップは何ですか?これまで読んだことから、FPGAが私のソリューションであるように見えますが、ザイリンクスとアルテラのWebサイトを見ると頭が回転します。私は間違った木をbarえていますか?基本的に、次のステップはCPUの機能回路図を持っている人にとって何であるかについてのわかりやすい英語の説明を探しています。どの方向に進むべきかがわかれば、本を解読し、そこに到達する方法について知る必要があるすべてを理解することができます。また、私はMac OS Xを使用していますが、どうしても必要な場合にプラグインできるWindowのXPボックスがあります。
20 fpga  cpu 

2
IntelはCPUをリボンで販売していますか?
私はアリゾナ州のこの電子組立工場で働いていましたが、そこの機械は、剥離プラスチックシール付きのバケツ入りプラスチックリボンのようなSMT部品のリールを使用していました。それらが何と呼ばれているのかわかりません。それらのほとんどは、回路の基本要素のごく一部を保持していました。たまに中程度のサイズのBGAチップなどを見ましたが、これらのリボンに付属するザイリンクスチップも同様です。Intelが6700Kチップなどで満たされたようなリボンを、おそらくDellや他のメーカーに販売しているのではないかと思っています。AMDがGシリーズSOCなどのリボンを販売したり、文字通りリールで販売されている他の巨大なチップや部品を販売したりするのはどうですか?
19 surface-mount  cpu  soc 

5
DMAを使用するとCPUは完全にフリーズしますか?
私はかなり簡単な質問を持っていますが、どこでもそれに対する答えを見つけることができませんでした。 コードとデータが同じRAMにあるVon-Neumannシステムでは、CPUはすべての命令をメモリからフェッチする必要があります。現在、コンピューターコンポーネント間で大量のデータを移動するために、周辺機器がメインシステムRAMにアクセスできるダイレクトメモリアクセスコントローラーがあります。 私の質問は次のとおりです:DMAが、たとえばハードディスクとRAMの間の(おそらく非常に長い)データ転送を許可している場合、それはCPUがRAMを使用できず、したがって次の命令をフェッチできないことを意味しませんか? 手短に言えば、DMAは、すべてのI / O読み取りと書き込みを調停するプロセッサを置き換えることで、プロセッサを解放して他のことを行えるようにすることを目的としています。ただし、RAMから命令をフェッチできない場合は、とにかく解放されていません。 ここに欠けている詳細はありますか? ありがとう
19 microprocessor  cpu  ram  dma 

4
CPUがどんどん小さくなっているのはなぜですか?
時間の経過とともにプロセッサー(またはチップ)がますます小さくなっていることは知られています。IntelとAMDは、最小の標準(45nm、32nm、18nm、..)をめぐって競争しています。しかし、最小のチップ領域に最小の要素を配置することがなぜそれほど重要なのでしょうか? 90nm 5x5cm CPUを作ってみませんか?なぜ6つのコアを216mm2の面積に詰め込むのですか?より広い面積から熱を放散することはより容易であり、製造はそれほど正確ではない(したがってより安価な)技術を必要とします。 いくつかの理由が考えられます。 サイズが小さいということは、単一のウェーハでより多くのチップを作成できることを意味します(しかし、ウェーハはそれほど高価ではありませんよね?) モバイルガジェットでは小さいサイズが重要です(ただし、通常のPCではタワーボックスが使用されます) 小さいサイズは光速度の制限によって決定され、チップはEMフィールドが1サイクルで移動できる距離より大きくすることはできません(ただし、3GHzで約数cmです) それでは、なぜチップはますます小さくなる必要があるのでしょうか?

1
ソフトCPU検証
現在、ザイリンクスISEおよびISIMを使用してVHDLで単純なCPUを設計しています。設計部分は非常に順調に進んでいますが、一貫性のある方法で検証を行う方法がわかりません。 現在、VHDLテストベンチを更新しており、特定の瞬間に作業中の機能をテストするために更新しています。これは非常にアドホックであり、リグレッションをキャッチするのに役立ちません。また、仕様/命令セットへの準拠を検証するために使用することはできません。 大規模なテストスイートの開発を検討しましたが、問題は、CPUとしての汎用パーツの潜在的な状態が、一般的でないコンポーネントと比較して非常に大きいことです。 より制御された方法で設計とテストを実行できる方法を探しています。ある種の「ハードウェアTDD」。そのようなものは存在しますか?CPUなどの汎用部品に比較的簡単に適用できますか?
18 fpga  vhdl  cpu  test 

4
アセンブリプログラムがオペレーティングシステムをクラッシュさせるのを止めるものは何ですか?[閉まっている]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 10か月前に閉鎖されました。 まず第一に、私は初心者なので、この質問が馬鹿げているように思える場合は、間違った仮定を指摘してください。 私が理解したことから、オペレーティングシステムの仕事は、OS上で実行されるハードウェアとソフトウェアを管理することです。また、私が理解していることから、アセンブリプログラムを使用すると、ハードウェアをほぼ直接制御できます。アセンブリプログラムでは、データをレジスタに読み書きしたり、RAMにデータを読み書きしたりできます。 レジスタとRAMを台無しにするこの自由を考えると、アセンブリプログラムがオペレーティングシステムに影響を与えることは不可能でしょうか?OSが重要な情報を格納するためにレジスタAを使用しており、そのOSでアセンブルされたプログラムを実行するとします。プログラムがジャンクをレジスタAに正常に書き込むと、OSが確実に影響を受けます。 質問: 上記の方法でレジスタAを台無しにすることは可能ですか? そうでない場合、アセンブリプログラムがOSによって使用されるレジスタを変更するのを妨げるものは何ですか?

4
プロセッサが熱くなるのはなぜですか?
計算プロセスがプロセッサーを熱くする方法を理解したいと思います。熱はトランジスタによって発生することを理解しています。 トランジスターはどのように正確に熱を生成しますか? チップ数と発生する熱の相関は線形ですか? CPUメーカーは、発生する熱を最小限に抑えるために、単一のトランジスタの位置を最適化しますか?

2
70年代および80年代のハンドヘルドビデオゲームはどのように機能しましたか?
70年代および80年代の初期のハンドヘルドビデオゲームがどのように機能したかについて興味があります。「固定要素」を備えたLCDディスプレイを備えた小さなゲームは、1つ(または少数)の特定のゲーム用に配線されていたことを意味します。例えば、 これ: またはこれ: 具体的には、これらのゲームはどのタイプのマイクロコントローラーを使用しましたか?私が思い出すように、ボードの中央には通常、おそらくすべてを制御する1つの大きなエポキシ「ブロブ」がありました。だから私の質問は、このブロブの中には何があったのですか?それは実際のゲームを実行するROMを備えた小さな標準マイクロコントローラーでしたか、それともすべてのデザインのカスタムCPU /コントローラーでしたか?それとも、CPUでさえなく、問題のゲーム用に配線された単純なステートマシンのようなものでしたか?答えは特定のゲームに依存する可能性があることを理解しています。 これらのゲームのデザイン/回路図はリリースされていますか、またはそれらがどのように作られたかについての良い本/参考文献はありますか?最後に、このようなマイクロコントローラーの設計にはどのツールが使用されましたか?VHDL / Verilog合成のようなものに基づいていたのですか、それとも個々の要素を配線するより低レベルのアプローチでしたか?

2
CPUはクロック周波数をどのように動的に変更できますか?
私のIntel CPUは使用量に応じてクロック速度を変更しますが、どのクロック速度で実行するかをどのように決定しますか?クロック速度は、アルゴリズムを使用してOSソフトウェアによって決定されますか、それともハードウェアベースですか?割り込みの数に依存していますか?キャッシュターンオーバー?CPU自体が独自のクロックを設定していますか?または、別のコントローラーで設定しますか?それともソフトウェア?

6
自作CPUの周波数制限
いくつかのカスタムビルドCPUを調べていると、それらが動作する周波数が、最近のCPU(数MHzのオーダー)と比較して比較的低いことに気付きました。ブレッドボードなど、その制限の電子工学的な理由はありますか?はいの場合、設計で達成可能な最大周波数を決定する方法は?
15 frequency  cpu 

4
FPGA CPU、最大速度を見つける方法
FPGAを使い始めたばかりで、正しく理解できれば、コードを使用して論理ゲートを接続していることになります。VerilogでCPUを設計する場合、いくつかのロジックゲートを接続して動作するはずですが、DIY CPUの実行速度をどのように知ることができますか?何に依存していますか?
14 fpga  cpu  homebrew-cpu 

4
L1キャッシュがL2キャッシュより速いのはなぜですか?
特定のCPUキャッシュメモリが他のCPUキャッシュメモリよりも高速である理由を理解しようとしています。キャッシュメモリをメインメモリなどと比較すると、メモリの種類(SRAMとDRAM)に違いがあり、アクセス速度に影響を与える可能性のあるローカリティの問題(オンチップとメモリバスを横断する必要がある)があります。しかし、L1とL2は一般に同じチップ上、または少なくとも同じダイ上にあり、同じタイプのメモリだと思います。それでは、なぜL1の方が速いのでしょうか?
14 memory  cpu  cache 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.