タグ付けされた質問 「gpu」

GPU(グラフィックスプロセッシングユニット)は、画像の構築プロセスを加速するように設計された専用プロセッサーです。

10
GPUの代わりにCPUを使用する利点はありますか?
私はプロセッサとグラフィックスカードを研究してきましたが、GPUはCPUよりもはるかに高速であることを発見しました。この記事の 1つで、特定の状況で2年前のNvidia GPUが3.2GHz Core I7 Intelプロセッサーを14倍上回る性能を発揮したことを読みました。GPUがこれほど高速な場合、開発者がゲームのすべての機能にそれらを使用しないのはなぜですか?GPUがグラフィックス以外のことを行うことは可能ですか?
63 gpu  process  gpgpu 

5
GPUにゲーム固有のドライバーが必要なのはなぜですか?
PC GPUドライバーの更新では、最近リリースされた特定のゲームのパフォーマンスが改善されることがよくあります。なぜこのゲーム固有の更新が必要なのですか?ゲーム固有の変更は、ゲームコードとどのように相互作用しますか?
31 gpu 

2
GPUはテクスチャとVRAMをどのように処理しますか?
実際には、相互に関連する一連の質問です。 圧縮パイプライン(dxt5 / dxt1など)は、レンダリングパイプラインを通過するときに完全に解凍されますか? 最初の質問の答えが正しい場合、いくつかの大きな非圧縮テクスチャのメモリはどのように管理されますか? フレームバッファーは最新のGPUのVRAMとは異なりますか?
18 textures  gpu  memory 

3
CPU-GPUメモリデータフロー[終了]
閉じた。この質問はより集中する必要があります。現在、回答を受け付けていません。 この質問を改善したいですか?この投稿を編集するだけで1つの問題に焦点を当てるように質問を更新します。 6年前に閉鎖されました。 私は初心者のグラフィックプログラマで、最近疑問に思っています-モデルデータ(メッシュとマテリアル)はアプリケーション(CPUメモリ)からグラフィックカード(GPUメモリ)にどのように流れますか?静的モデル(建物など)があり、一度ロードしてセットアップすると、アプリの有効期間中は変更されません。 そのデータはGPUメモリに一度だけ送信され、永遠にそこに座っていますか? モデルが各フレームで実際にレンダリングされるとき、GPUプロセッサはGPUメモリから毎回そのデータをフェッチする必要がありますか?つまり、2つのモデルをそれぞれ複数回レンダリングした場合、最初のモデルを複数回レンダリングしてから2番目のモデルを複数回レンダリングするか、最初のモデルを1回だけレンダリングし、2番目のモデルを1回だけレンダリングして、そのようにインターリーブし続けましたか?この意味で、この質問を「内部GPUデータフロー」と呼ぶことができます。 明らかにグラフィックカードのRAMは限られています-1フレームのレンダリングに必要なすべてのモデルデータを保持できない場合、フレームごとにCPU RAMから(一部)を取得し続けると思いますが、それは正しいですか? インターネットにはこれに関する本や資料がたくさんあることは知っていますが、このデータフローを管理する方法に関する簡単な一般的なガイドラインがあります(何をいつ送信し、いつ、どのようにレンダリングするか)。 編集: 私は1つの区別をするのを忘れ:ありますGPUにデータを送信し、そこの設定/電流としてバッファを結合。後者はデータフローを引き起こしますか? Edit2: Raxvanの投稿を読んだ後、いくつかのアクションを区別したいと思います。 初期化によるバッファ作成 バッファデータの更新(データがCPUラムに保持されている場合は簡単で、GPUラムに保持されている場合はGPUからCPUラムにフェッチする必要があります) バッファをアクティブとしてバインドします(これは、次の描画呼び出しでこのバッファをレンダリングすることをAPIに伝える方法であり、それ自体では何もしませんか?) API draw call(ここで実際に何が起こるかをお聞きしたい)

12
アプリケーションでグラフィックカードが破損することはありますか?
クイックノート:これはゲーム開発の Q&Aサイトであることは知っていますが、グラフィックカードの知識が豊富で経験があると思いますので、この質問に答えます。これが完全にトピック外であると思われる場合は、適切なサイト/フォーラムを参照してください。編集:実際、それは gamedevに関連しています:悪いコードがカードの過熱や破壊を引き起こす可能性がある場合、ゲーム開発者はそれを認識し、アプリケーションがそれをしないことを確認する必要があります。 これは奇妙な、または愚かな質問のように思えるかもしれませんが、グラフィックカードを(何らかの形で)破壊するようなグラフィックレンダリングアプリケーションを実際に作成することは可能ですか? この質問をするようになった直接的な理由は、(驚くことではないが)自分の壊れたグラフィックカードです。修理を行った後、サービスマンは、さまざまなアプリ(ゲーム)をテストし、正常に動作したと言いました。しかし、自分のアプリ(シェーディングデモの延期)を起動すると、100℃以上に加熱されました。したがって、私のカードは結局修正されませんでしたが、ここで重要なことは、問題が自分のアプリを実行しているときにのみ発生するように見えたことです。 さまざまなGPU要求ゲーム(Crysisなど)をプレイし、しばしば限界までプッシュしました(ゲームが5 FPSで動作するほど高い設定をしていた)、いくつかのベンチマークも...だから私は与えました私のカードは何度も作業負荷がかかりすぎて追いつくことができませんでした(したがってFPSが低い)が、危険な温度に達することはありませんでした。しかし、私自身のアプリケーションはそれを達成することができました(少なくともv-syncがオフのとき)。:Pそれは私自身のアプリでしかなかったので、悪い冷却システムが犯人だとは思いません。 だから、私は尋ねます-悪意のあるコードによってグラフィックカードを(何らかの方法で、過熱するだけで)破ることが可能かどうかを考えていますか(またはおそらく知っていますか)? 更新: ジョー・スウィンデルは、過熱が問題になるかもしれないと言った(まあ、それは間違いなくカードを壊す可能性がある)。しかし、適切な冷却システムは、(どんな状況でも)その発生を防ぐべきではありませんか? Borealは別の問題を指摘しました。正しく理解すれば、FPSはCPUとGPUの両方に拘束されます(そうですか?)。そのため、FPSが低いと、CPUの負荷が高いか、GPUの負荷が高いことを示す場合があります。しかし、再び-カードが「常に100%使用されている」場合でも、適切な冷却システムはGPUの過熱を防ぐべきではありませんか?
15 gpu  hardware 


2
乱数hlsl
HLSLで乱数を生成するにはどうすればよいですか? gpuレイトレーシングを試したいので、私は尋ねています。ピクセルシェーダーでランダムな方向を生成する必要があります。したがってrandFloat()、結果は-1〜+1の乱数になります。 また、hlsl ノイズ命令との取引は何ですか?ドキュメントには、HLSL 2.0以降から削除されたと書かれています。なんで? テクスチャをランダムな値で満たし、そのテクスチャへのインデックスを持つ各頂点にテクスチャ座標を設定するアプローチについて読みました。しかし、それは頂点ごとです。ピクセルシェーダーで呼び出すことができる命令が必要です。さらに、このアプローチでは、フレームごとに異なる値が必要な場合は、頂点ごとのtexcoordsを「再シード」する必要があり、各フレームで頂点バッファーを更新する必要があります(高価になる可能性があります!) 詳細を説明すると、GPUで乱数を安価に生成する方法を教えてください。
13 hlsl  random  gpu 

1
nVidiaのCUDAは、経路探索計算の実行に適していますか?
GPUでパスファインディングを実行する価値があるかどうかを知りたい(nVidiaの 特定の状況で CUDAまたは同等のものする)か、それとも無駄な努力かどうか。私が想像する状況は、ボットのパスを見つける責任があるヘッドレスマルチプレイヤーサーバーです。 ナビゲーションメッシュを使用したA *パスファインディングに特に興味がありますが、GPU実行からより多くの利益を得る別のパスファインディングアルゴリズムがある場合、それを聞きたいです。

4
今日、ハードウェアレンダリングではなくソフトウェアレンダリングを使用するのはなぜですか?
CPUやソフトウェアのレンダリングとは対照的に、私は想定していますか? 一般に、現在のレンダリングはすべて、GPUベースではなく、OpenGLまたはDirect Xを使用しているように見えますか? 誰かが私にここでいくつかの情報を教えてもらえますか、適切な答えが見つかりませんか?

3
デフォルトで高性能GPUで実行するようにアプリケーションを設定するにはどうすればよいですか?
現在、多くのラップトップには2つのGPUが搭載されています。1つは高性能のGPUで、もう1つは省電力のGPUです(それほど強力ではありません)。私のラップトップで使用するほとんどのアプリケーションは、統合された(省電力)GPUで実行されますが、それでも一部は高性能カードで開くように設定されています。デフォルトで高性能GPUで実行するように構築しているアプリを設定しようとしていますが、トピックに関する情報がどこにも見つかりません。誰かがこれに少し光を当てることができることを願っています。NSISインストーラーでアプリケーションを配布しますが、NVidia / ATIカードのアプリケーションのリストにアプリケーションのパスを追加する必要があると思います。アプリケーションはC#でプログラムされています。また、デスクトップPCで物事がどのように機能するかを知っている人はいますか?PCに2つのGPUがあり、より強力なGPUを選択する必要がある場合はどうなりますか? ミルチョ
12 c#  gpu 

1
レンダリング、バッチ、グラフィカルカード、パフォーマンスなどに関する情報+ XNA?
タイトルは少しあいまいですが、私が本当に探しているものを説明するのは難しいですが、ここに行きます。 CPUレンダリングに関しては、パフォーマンスはほとんど推定が容易で簡単ですが、GPUに関しては技術的な背景情報が不足しているため、手がかりがありません。私はXNAを使用しているので、理論がそれに関連していればいいと思います。 私が実際に知りたいのは、特定の描画アクションを行うと、いつどこで何が起こるかということです(CPU / GPU)。バッチとは何ですか?効果、投影などはどのような影響を与えますか?データはグラフィックカードに保持されますか、それともすべてのステップで転送されますか?帯域幅について話すとき、グラフィックカードの内部帯域幅について話していますか、それともCPUからGPUへのパイプラインについて話していますか? 注:描画プロセスがどのように行われるかについての情報を実際に探しているわけではありません。それはGPUのビジネスです。それに先行するすべてのオーバーヘッドに興味があります。 アクションXを実行したときに何が起こっているのかを理解し、それにアーキテクチャとプラクティスを適合させたいと思います。 より良いゲームを書く方法についてより多くの洞察を与える記事(おそらくコード例付き)、情報、リンク、チュートリアルは大歓迎です。ありがとう:)

2
参照のGPU局所性は心配する価値がありますか?
い、参照の局所性、それはCPUのパフォーマンスをするようmakeがGPUのパフォーマンスに大きな違いとして? たとえば、GPUに200の描画コマンドを送信した場合、各コマンドのデータがメモリ内で連続していると、バッファ/テクスチャマップをジャンプするのではなく、(潜在的に)顕著な違いが見られますか? 副題:ほとんどのリソースを不変にすることで、GPUが誤った共有の問題を防ぐことができると思います。しかし、そうでない場合、スレッドが常に4つのフラグメントに相当する作業を行うのはなぜですか。

2
実際のシナリオでクワッドベースのレンダリングについて心配する必要がありますか?
ランダム化された本の最初の章では、ほとんどの場合、ラスター化とレンダリングの手法について、三角形ベースのレンダリングシステムと四角形ベースのシステムに関するフレーズを見つけました。 クワッドベースのGPUまたはパイプラインに遭遇したことはありません。OpenGL 3.0+を扱うとき、それについて心配する必要がありますか、それとも単なるレガシーなものですか?
9 opengl  gpu 


4
CPUとGPUの幾何学的変換
私は、多くの3Dプログラムが通常、ベクトル/行列の計算やCPUでの幾何学的変換を行うことに気づきました。これらの計算をGPUの頂点シェーダーに移動することで利点を見つけた人はいますか?

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.