タグ付けされた質問 「gpu」

「グラフィックスプロセッシングユニット」の頭字語。従来のグラフィカルアプリケーションのプログラミングについては、「グラフィックプログラミング」のタグエントリを参照してください。GPUを使用した汎用プログラミングについては、「gpgpu」のタグエントリを参照してください。特定のGPUプログラミング技術については、「opencl」、「cuda」、「thrust」の一般的なタグエントリを参照してください。

27
tensorflowがPythonシェルの内部からのGPUアクセラレーションを使用しているかどうかを確認するにはどうすればよいですか?
私は2番目の答えを使用して、私のUbuntu 16.04でtensorflowインストールされている、ここで UbuntuがaptのCUDAのインストール組み込みだと。 今私の質問は、テンソルフローが本当にGPUを使用しているかどうかをどのようにテストできるかです。私はgtx 960m gpuを持っています。私がimport tensorflowこれが出力であるとき I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcublas.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcudnn.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcufft.so locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcuda.so.1 locally I tensorflow/stream_executor/dso_loader.cc:105] successfully opened CUDA library libcurand.so locally この出力は、tensorflowがgpuを使用しているかどうかを確認するのに十分ですか?
303 python  tensorflow  ubuntu  gpu 

4
むかしむかしに>が<よりも速いとき…ちょっと待って、何?
私は読んでいます 素晴らしいOpenGLチュートリアルをいます。それは本当に素晴らしいです、私を信頼してください。私が現在取り組んでいるトピックはZバッファです。それが何であるかを説明するだけでなく、著者は、GL_LESS、GL_ALWAYSなどのカスタム深度テストを実行できることを述べています。深度値の実際の意味(上と下ではない)も可能であることも説明しています。カスタマイズ。私はこれまで理解しました。そして、著者は信じられないようなことを言っています: 範囲zNearは、範囲zFarより大きくすることができます。そうである場合、ウィンドウ空間の値は、ビューアから最も近いまたは最も遠いものを構成するものに関して逆になります。 以前は、ウィンドウ空間のZ値0が最も近く、1が最も遠いと言われていました。ただし、クリップ空間のZ値を無効にすると、深度1はビューに最も近く、深度0は最も遠くなります。ただし、深度テストの方向を逆にしても(GL_LESSからGL_GREATERなど)、まったく同じ結果が得られます。だから、それは本当に単なる慣習です。実際、Zの符号と深度テストを反転させることは、かつて多くのゲームにとって重要なパフォーマンス最適化でした。 私が正しく理解していれば、パフォーマンスに関して、Zの符号と深度テストを反転させることは、&lt;比較を比較に変更することに他なりません&gt;。だから、私が正しく理解していて、作者が嘘をついていたり、物事を構成していなかったりした場合は、重要な最適化に変更&lt;する&gt;、多くのゲームでした。 著者は、物事を作っている私が何かを誤解していますか、それはかつての場合、確かである&lt;(遅かった極めてよりも、著者が言うように、) &gt;? このかなり興味深い問題を明確にしてくれてありがとう! 免責事項:アルゴリズムの複雑さが最適化の主な原因であることを十分に承知しています。さらに、今日は間違いなく何の違いもないだろうと私は疑っています。これを最適化するように求めているわけではありません。私は非常に、苦痛に、おそらく法外に好奇心が強いのです。
280 c  optimization  opengl  cpu  gpu 

14
NVIDIA NVMLドライバー/ライブラリバージョンの不一致
実行するnvidia-smiと、次のメッセージが表示されます。 Failed to initialize NVML: Driver/library version mismatch 1時間前に同じメッセージを受け取り、cudaライブラリをアンインストールしたところ、を実行できnvidia-smi、次の結果が得られました。 その後、NVIDIAの公式ページcuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.debからダウンロードし、次のように簡単に説明します。 sudo dpkg -i cuda-repo-ubuntu1604-8-0-local-ga2_8.0.61-1_amd64.deb sudo apt-get update sudo apt-get install cuda export PATH=/usr/local/cuda-8.0/bin${PATH:+:${PATH}} これでcudaがインストールされましたが、上記の不一致エラーが発生します。 いくつかの潜在的に有用な情報: 実行しcat /proc/driver/nvidia/versionている: NVRM version: NVIDIA UNIX x86_64 Kernel Module 378.13 Tue Feb 7 20:10:06 PST 2017 GCC version: gcc version 5.4.0 20160609 (Ubuntu 5.4.0-6ubuntu1~16.04.4) Ubuntu …
226 cuda  driver  gpu  nvidia 

9
GPUプログラミング入門[終了]
休業。この質問は意見に基づいています。現在、回答を受け付けていません。 この質問を改善してみませんか?この投稿を編集して、事実と引用で回答できるように質問を更新してください。 5年前休業。 この質問を改善する 誰もが、この巨大で並列化されたスーパーコンピューターをデスクトップにグラフィックスカードGPUの形で搭載しています。 GPUコミュニティに相当する「Hello World」とは何ですか? 主要なGPUベンダー向けにGPUのプログラミングを開始するには、どこに何をすればよいですか? -アダム
176 gpu 

10
tensorflowで現在利用可能なGPUを取得するにはどうすればよいですか?
分散TensorFlowを使用する計画があり、TensorFlowがトレーニングとテストにGPUを使用できることを確認しました。クラスタ環境では、各マシンに0個または1個以上のGPUが存在する可能性があり、TensorFlowグラフをできるだけ多くのマシンのGPUに実行したいと考えています。 tf.Session()TensorFlowを実行すると、次のようなログメッセージでGPUに関する情報が表示されることがわかりました。 I tensorflow/core/common_runtime/gpu/gpu_init.cc:126] DMA: 0 I tensorflow/core/common_runtime/gpu/gpu_init.cc:136] 0: Y I tensorflow/core/common_runtime/gpu/gpu_device.cc:838] Creating TensorFlow device (/gpu:0) -&gt; (device: 0, name: GeForce GTX 1080, pci bus id: 0000:01:00.0) 私の質問は、TensorFlowから現在利用可能なGPUに関する情報を取得するにはどうすればよいですか?ログから読み込まれたGPU情報を取得できますが、より洗練されたプログラム的な方法で取得したいと考えています。また、CUDA_VISIBLE_DEVICES環境変数を使用してGPUを意図的に制限することもできるので、OSカーネルからGPU情報を取得する方法を知りたくありません。 要するに、マシンで2つのGPUが利用可能であれば、そのような関数tf.get_available_gpus()が返さ['/gpu:0', '/gpu:1']れるようにしたいのです。どうすれば実装できますか?
165 python  gpu  tensorflow 


14
C#でのGPUの使用[終了]
閉まっている。この質問はスタックオーバーフローのガイドラインを満たしていません。現在、回答を受け付けていません。 この質問を改善してみませんか?Stack Overflowのトピックとなるように質問を更新します。 2年前休業。 この質問を改善する グリッドからより多くの処理能力を引き出そうとしています。 私はすべてのCPU /コアを使用していますが、C#でGPUを利用することは可能ですか? 誰もがライブラリを知っているか、サンプルコードを手に入れましたか?
135 c#  gpu  gpgpu 

3
CUDAカーネルのグリッドとブロックの次元を選択するにはどうすればよいですか?
これは、CUDAグリッド、ブロック、およびスレッドのサイズを決定する方法に関する質問です。これは、ここに投稿された質問に対する追加の質問です。 このリンクをたどると、talonmiesからの回答にコードスニペットが含まれます(以下を参照)。「チューニングとハードウェアの制約によって通常選択される値」というコメントを理解できません。 CUDAのドキュメントで、これを説明する適切な説明や説明が見つかりませんでした。要約すると、私の質問はblocksize、次のコードが与えられたときに最適な(スレッドの数)を決定する方法です。 const int n = 128 * 1024; int blocksize = 512; // value usually chosen by tuning and hardware constraints int nblocks = n / nthreads; // value determine by block size and total work madd&lt;&lt;&lt;nblocks,blocksize&gt;&gt;&gt;mAdd(A,B,C,n);

7
ハードウェアなしのCUDAプログラミング用GPUエミュレーター[終了]
閉まっている。この質問はスタックオーバーフローのガイドラインを満たしていません。現在、回答を受け付けていません。 この質問を改善してみませんか?Stack Overflowのトピックとなるように質問を更新します。 昨年休業。 この質問を改善する 質問:実際のハードウェアがなくてもCUDAをプログラムおよびテストできるGeforceカードのエミュレーターはありますか? 情報: 私はCUDAで私のシミュレーションをいくつか高速化しようと思っていますが、私の問題は、この開発を行うために常にデスクトップの周りにいるわけではないということです。代わりにネットブックで作業したいのですが、ネットブックにGPUがありません。私が知る限り、CUDAを実行するにはCUDA対応のGPUが必要です。これを回避する方法はありますか?唯一の方法はGPUエミュレーターであるように思われます(明らかに低速ですが、動作します)。しかし、これを実行する方法が何であれ、聞きたいと思います。 Ubuntu 10.04 LTSでプログラミングしています。
111 cuda  gpu  emulation  cpu 

9
Google Colaboratory:GPUに関する誤解を招く情報(一部のユーザーは5%のRAMしか利用できません)
更新:この質問は、Google Colabの「ノートブック設定:ハードウェアアクセラレータ:GPU」に関連しています。この質問は、「TPU」オプションが追加される前に書かれました。 Google Colaboratoryが無料のTesla K80 GPUを提供していることについての興奮する発表を何度も読んで、私はそれについてfast.aiのレッスンを実行しようとしました。その理由を調べ始めました。 結論としては、「無料のTesla K80」は「無料」ではないということです。一部の場合、「無料」である場合もあります。 カナダ西海岸のGoogle Colabに接続しましたが、24GB GPU RAMであるはずの0.5GBしか取得できません。他のユーザーは11GBのGPU RAMにアクセスできます。 明らかに0.5GB GPU RAMはほとんどのML / DL作業には不十分です。 何が得られるかわからない場合は、ここで一緒に削った小さなデバッグ関数を示します(ノートブックのGPU設定でのみ機能します)。 # memory footprint support libraries/code !ln -sf /opt/bin/nvidia-smi /usr/bin/nvidia-smi !pip install gputil !pip install psutil !pip install humanize import psutil import humanize import os import GPUtil as GPU GPUs = GPU.getGPUs() …

4
Intelの統合グラフィックプロセッサでCUDAを実行できますか?
私はi3プロセッサを搭載した非常にシンプルな東芝のラップトップを持っています。また、高価なグラフィックカードは持っていません。ディスプレイ設定では、インテル(HD)グラフィックスがディスプレイアダプターとして表示されます。私はいくつかのcudaプログラミングを学ぶことを計画しています。しかし、nvidiaのcuda対応GPUがないため、ラップトップでそれを実行できるかどうかはわかりません。 実際、GPU o_oさえ持っていれば、私は疑っています。 したがって、現在の構成でCUDAプログラミングを実行できるかどうかを誰かに教えてもらえれば幸いです。可能であれば、Intel(HD)グラフィックスの意味も教えてください。

4
OpenGLは最低レベルでどのように機能しますか?[閉まっている]
ここで何が求められているのかを知るのは難しいです。この質問は、あいまい、あいまい、不完全、広すぎる、または修辞的であり、現在の形式では合理的に答えることができません。この質問を明確にして再開できるようにするためのヘルプについては、ヘルプセンターに アクセスしてください。 9年前に閉鎖。 私はOpenGL / DirectXプログラムの書き方を理解しており、その背後にある数学と概念的なものを知っていますが、GPU-CPU通信が低レベルでどのように機能するのか興味があります。 三角形を表示し、カメラを45度回転させるCで記述されたOpenGLプログラムがあるとします。このプログラムをコンパイルすると、一連のioctl呼び出しに変換され、gpuドライバーが適切なコマンドをgpuに送信します。ここで、三角形を回転させ、適切な色で適切なピクセルを設定するすべてのロジックが配線されます。に?それとも、プログラムは「gpuプログラム」にコンパイルされ、gpuにロードされ、回転などが計算されますか?それともまったく違うものですか? 編集:数日後、私はこの記事シリーズを見つけました。これは基本的に質問に答えます:http: //fgiesen.wordpress.com/2011/07/01/a-trip-through-the-graphics-pipeline-2011-part- 1 /
84 opengl  gpu 

1
RuntimeError:入力タイプ(torch.FloatTensor)と重みタイプ(torch.cuda.FloatTensor)は同じである必要があります
次のように次のCNNをトレーニングしようとしていますが、.cuda()に関して同じエラーが発生し続け、それを修正する方法がわかりません。ここに私のコードのチャンクがあります。 import matplotlib.pyplot as plt import numpy as np import torch from torch import nn from torch import optim import torch.nn.functional as F import torchvision from torchvision import datasets, transforms, models from torch.utils.data.sampler import SubsetRandomSampler data_dir = "/home/ubuntu/ML2/ExamII/train2/" valid_size = .2 # Normalize the test and train sets with torchvision …

2
Google Colabのジュリア
JuliaをGoogle Colabでセットアップしようとしています。https://discourse.julialang.org/t/julia-on-google-colab-free-gpu-accelerated-shareable-notebooks/15319のようなインストール手順に従っています。それにもかかわらず、私はジュリアを起動することができません。 JuliaをGoogle Colabで使用しようとしています。私は次の手順に従いました: CUDAをインストールする !wget https://developer.nvidia.com/compute/cuda/9.0/Prod/local_installers/cuda-repo-ubuntu1604-9-0-local_9.0.176-1_amd64-deb !dpkg -i cuda-repo-ubuntu1604-9-0-local_9.0.176-1_amd64-deb !apt-key add /var/cuda-repo-9-0-local/7fa2af80.pub !apt update -q !apt install cuda gcc-6 g++-6 -y -q !ln -s /usr/bin/gcc-6 /usr/local/cuda/bin/gcc !ln -s /usr/bin/g++-6 /usr/local/cuda/bin/g++ Julia 1.2.0をインストールする !curl -sSL "https://julialang-s3.julialang.org/bin/linux/x64/1.2/julia-1.2.0-linux-x86_64.tar.gz" -o julia.tar.gz !tar -xzf julia.tar.gz -C /usr --strip-components 1 !rm -rf julia.tar.gz* !julia -e …
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.