タグ付けされた質問 「cuda」

CUDA(Compute Unified Device Architecture)は、NVIDIA GPU(グラフィックスプロセッシングユニット)の並列コンピューティングプラットフォームおよびプログラミングモデルです。CUDAは、さまざまなプログラミング言語、ライブラリ、APIを通じてNVIDIA GPUへのインターフェースを提供します。

18
cudaバージョンの入手方法は?
インストールされているCUDAのバージョンを確認する簡単なコマンドまたはスクリプトはありますか? インストールディレクトリの下に4.0のマニュアルを見つけましたが、実際にインストールされているバージョンかどうかわかりません。
473 cuda 

4
CUDAランタイムAPIを使用してエラーをチェックする正規の方法は何ですか?
CUDAの質問に対する回答とコメント、およびCUDAタグのwikiを見ると、多くの場合、すべてのAPI呼び出しの戻りステータスでエラーを確認することが推奨されています。APIドキュメントは次のような機能が含まれているcudaGetLastError、cudaPeekAtLastErrorとcudaGetErrorString、余分なコードの多くを必要とせずに確実にキャッチし、レポートのエラーにこれらを一緒に置くための最良の方法は何ですか?

14
NVIDIA NVMLドライバー/ライブラリバージョンの不一致
実行するnvidia-smiと、次のメッセージが表示されます。 Failed to initialize NVML: Driver/library version mismatch 1時間前に同じメッセージを受け取り、cudaライブラリをアンインストールしたところ、を実行できnvidia-smi、次の結果が得られました。 その後、NVIDIAの公式ページcuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.debからダウンロードし、次のように簡単に説明します。 sudo dpkg -i cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb sudo apt-get update sudo apt-get install cuda export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}} これでcudaがインストールされましたが、上記の不一致エラーが発生します。 いくつかの潜在的に有用な情報: 実行しcat /proc/driver/nvidia/versionている: NVRM version: NVIDIA UNIX x86_64 Kernel Module 378.13 Tue Feb 7 20:10:06 PST 2017 GCC version: gcc version 5.4.0 20160609 (Ubuntu 5.4.0-6ubuntu1~16.04.4) Ubuntu …
226 cuda  driver  gpu  nvidia 

8
DockerコンテナーからGPUを使用していますか?
Dockerコンテナー内からGPUを使用する方法を探しています。 コンテナーは任意のコードを実行するため、特権モードを使用したくありません。 任意のヒント? 以前の調査から、run -vおよび/またはLXC cgroupが進むべき道であることがわかったが、それを正確に引き離す方法がわからない
164 cuda  docker 

2
CUDAグリッドの寸法、ブロックの寸法、スレッドの構成について(簡単な説明)[終了]
休業。この質問には、より焦点を当てる必要があります。現在、回答を受け付けていません。 この質問を改善してみませんか?質問を更新して、この投稿を編集するだけで1つの問題に焦点を当てます。 2年前休業。 この質問を改善する スレッドはGPUによって実行されるようにどのように編成されていますか?
161 cuda  nvidia 

7
CuDNNのインストールを確認する方法は?
私は多くの場所を検索しましたが、私が得るすべてはそれをインストールする方法であり、それがインストールされていることを確認する方法ではありません。NVIDIAドライバーがインストールされ、CUDAがインストールされていることを確認できますが、CuDNNがインストールされていることを確認する方法がわかりません。助けてくれてありがとう、ありがとう! PS。 これはカフェの実装用です。現在、CuDNNを有効にせずにすべてが機能しています。

6
どのTensorFlowバージョンとCUDAバージョンの組み合わせに互換性がありますか?
一部の新しいTensorFlowバージョンは、古いCUDAおよびcuDNNバージョンと互換性がないことに気付きました。互換性のあるバージョンの概要、または公式にテストされた組み合わせのリストさえ存在しますか?TensorFlowのドキュメントでは見つかりません。

4
Nvidia GPU(CUDA)でのJavaの使用
私はJavaで行われているビジネスプロジェクトに取り組んでおり、ビジネス市場を計算するには巨大な計算能力が必要です。単純な数学ですが、大量のデータがあります。 私たちはいくつかのCUDA GPUを試して注文しましたが、JavaはCUDAでサポートされていないので、どこから始めればいいのでしょうか。JNIインターフェースを作成する必要がありますか?JCUDAを使用する必要がありますか、それとも他の方法がありますか? 私はこの分野での経験がありません。誰かが私を何かに導き、研究と学習を開始できるようにしてほしいです。

2
CUDAブロック/ワープ/スレッドはどのようにCUDAコアにマッピングしますか?
私は数週間CUDAを使用していますが、ブロック/ワープ/スレッドの割り当てに疑問があります。 私は教訓的な観点から大学を研究しているので(大学のプロジェクト)、ピークパフォーマンスに到達することは私の関心事ではありません。 まず最初に、これらの事実を正直に理解したかどうかを理解したいと思います。 プログラマーはカーネルを作成し、その実行をスレッドブロックのグリッドに編成します。 各ブロックは、ストリーミングマルチプロセッサ(SM)に割り当てられます。いったん割り当てられると、別のSMに移行できません。 各SMは独自のブロックをワープに分割します(現在、最大サイズは32スレッドです)。ワープ内のすべてのスレッドは、SMのリソース上で同時に実行されます。 スレッドの実際の実行は、SMに含まれるCUDAコアによって実行されます。スレッドとコアの間に特定のマッピングはありません。 ワープに20スレッドが含まれているが、現在は16コアしか使用できない場合、ワープは実行されません。 一方、ブロックに48個のスレッドが含まれている場合、十分なメモリが利用可能であれば、2つのワープに分割され、並列に実行されます。 スレッドがコアで開始されると、メモリアクセスまたは長い浮動小数点演算のためにスレッドが停止し、別のコアで実行が再開される可能性があります。 彼らは正しいですか? 現在、私はGeForce 560 Tiを持っているので、仕様によると、それぞれに48個のCUDAコア(合計384個のコア)を含む8つのSMが搭載されています。 私の目標は、アーキテクチャのすべてのコアが同じ命令を実行することを確認することです。私のコードが各SMで利用可能なものよりも多くのレジスターを必要としないと仮定して、私は異なるアプローチを想像しました: 各SMが実行する1つのブロックを持つように、それぞれ48スレッドの8ブロックを作成します。この場合、48スレッドはSMで並列に実行されますか(それらに使用可能な48コアすべてを利用します)? 6スレッドの64ブロックを起動しても違いはありますか?(それらがSM間で均等にマッピングされると仮定) スケジュールされた作業でGPUを「サブマージ」する場合(たとえば、1024スレッドの1024ブロックを作成する場合)、すべてのコアが特定の時点で使用され、同じ計算を実行すると想定するのが妥当です(スレッドがストールしないでください)? プロファイラーを使用してこれらの状況を確認する方法はありますか? このものへの参照はありますか?「大規模並列プロセッサのプログラミング」と「CUDAアプリケーションの設計と開発」で、CUDAプログラミングガイドとハードウェアアーキテクチャ専用の章を読みました。正確な答えは得られませんでした。


3
nvccとNVIDIA-smiによって示されるさまざまなCUDAバージョン
とを実行which nvccして表示されるさまざまなCUDAバージョンに非常に混乱していnvidia-smiます。 ubuntu16.04にcuda9.2とcuda10の両方をインストールしています。次に、PATHをcuda9.2を指すように設定しました。だから私が走るとき: $ which nvcc /usr/local/cuda-9.2/bin/nvcc しかし、私が走ると $ nvidia-smi Wed Nov 21 19:41:32 2018 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 410.72 Driver Version: 410.72 CUDA Version: 10.0 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+======================+======================| …
121 cuda 

3
CUDAカーネルのグリッドとブロックの次元を選択するにはどうすればよいですか?
これは、CUDAグリッド、ブロック、およびスレッドのサイズを決定する方法に関する質問です。これは、ここに投稿された質問に対する追加の質問です。 このリンクをたどると、talonmiesからの回答にコードスニペットが含まれます(以下を参照)。「チューニングとハードウェアの制約によって通常選択される値」というコメントを理解できません。 CUDAのドキュメントで、これを説明する適切な説明や説明が見つかりませんでした。要約すると、私の質問はblocksize、次のコードが与えられたときに最適な(スレッドの数)を決定する方法です。 const int n = 128 * 1024; int blocksize = 512; // value usually chosen by tuning and hardware constraints int nblocks = n / nthreads; // value determine by block size and total work madd<<<nblocks,blocksize>>>mAdd(A,B,C,n);

7
ハードウェアなしのCUDAプログラミング用GPUエミュレーター[終了]
閉まっている。この質問はスタックオーバーフローのガイドラインを満たしていません。現在、回答を受け付けていません。 この質問を改善してみませんか?Stack Overflowのトピックとなるように質問を更新します。 昨年休業。 この質問を改善する 質問:実際のハードウェアがなくてもCUDAをプログラムおよびテストできるGeforceカードのエミュレーターはありますか? 情報: 私はCUDAで私のシミュレーションをいくつか高速化しようと思っていますが、私の問題は、この開発を行うために常にデスクトップの周りにいるわけではないということです。代わりにネットブックで作業したいのですが、ネットブックにGPUがありません。私が知る限り、CUDAを実行するにはCUDA対応のGPUが必要です。これを回避する方法はありますか?唯一の方法はGPUエミュレーターであるように思われます(明らかに低速ですが、動作します)。しかし、これを実行する方法が何であれ、聞きたいと思います。 Ubuntu 10.04 LTSでプログラミングしています。
111 cuda  gpu  emulation  cpu 


10
NVIDIA vs AMD:GPGPUパフォーマンス
両方のコーディングの経験がある人から聞いてください。私自身、NVIDIAの経験しかありません。 NVIDIA CUDAは、競合他社よりもはるかに人気があるようです。(このフォーラムの質問タグを数えると、「cuda」は「opencl」3:1を上回り、「nvidia」は「ati」15:1を上回り、「ati-stream」のタグはまったくありません)。 一方、ウィキペディアによると、ATI / AMDカードは、特に1ドルあたりの可能性がはるかに大きいはずです。現在の市場で最速のNVIDIAカードであるGeForce 580($ 500)は、1.6の単精度TFlopsと評価されています。AMD Radeon 6970の価格は370ドルで、定格は2.7 TFlopsです。580には、772 MHzで512の実行ユニットがあります。6970には、880 MHzで1536の実行ユニットがあります。 NVIDIAに対するAMDの紙の利点はどれほど現実的ですか、そしてほとんどのGPGPUタスクで実現される可能性がありますか?整数タスクはどうなりますか?
105 cuda  opencl  gpgpu  nvidia  ati 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.