回答:
Nvidia GPUには、nvidia-smi
メモリ使用量、GPU使用率、GPUの温度を表示できるツールがあります。計算プロセスのリストといくつかのオプションもありますが、私のグラフィックカード(GeForce 9600 GT)は完全にはサポートされていません。
Sun May 13 20:02:49 2012
+------------------------------------------------------+
| NVIDIA-SMI 3.295.40 Driver Version: 295.40 |
|-------------------------------+----------------------+----------------------+
| Nb. Name | Bus Id Disp. | Volatile ECC SB / DB |
| Fan Temp Power Usage /Cap | Memory Usage | GPU Util. Compute M. |
|===============================+======================+======================|
| 0. GeForce 9600 GT | 0000:01:00.0 N/A | N/A N/A |
| 0% 51 C N/A N/A / N/A | 90% 459MB / 511MB | N/A Default |
|-------------------------------+----------------------+----------------------|
| Compute processes: GPU Memory |
| GPU PID Process name Usage |
|=============================================================================|
| 0. Not Supported |
+-----------------------------------------------------------------------------+
watch -n 0.5 nvidia-smi
、端末に出力を入れずに出力を更新し続けます。
watch -d -n 0.5 nvidia-smi
さらに良くなります。
-d
フラグが何をするのかを説明する方が良いと思います
man watch
教えてくれる-d
フラグは出力の違いを強調して、それは指標が時間の経過とともに変化しているハイライトするのを助けることができます。
最近、gpustat
(のラッパーであるnvidia-smi
)と呼ばれる単純なコマンドラインユーティリティを作成しました:https://github.com/wookayin/gpustatをご覧ください。
Intel GPUの場合、http://intellinuxgraphics.org/intel-gpu-tools
からプロジェクトが存在します。このプロジェクトは、intel_gpu_top
(とりわけ)コマンドをもたらします。top
およびhtop
に似ていますが、特にIntel GPU用です。
render busy: 18%: ███▋ render space: 39/131072
bitstream busy: 0%: bitstream space: 0/131072
blitter busy: 28%: █████▋ blitter space: 28/131072
task percent busy
GAM: 33%: ██████▋ vert fetch: 0 (0/sec)
GAFS: 3%: ▋ prim fetch: 0 (0/sec)
VS: 0%: VS invocations: 559188 (150/sec)
SF: 0%: GS invocations: 0 (0/sec)
VF: 0%: GS prims: 0 (0/sec)
DS: 0%: CL invocations: 186396 (50/sec)
CL: 0%: CL prims: 186396 (50/sec)
SOL: 0%: PS invocations: 8191776208 (38576436/sec)
GS: 0%: PS depth pass: 8158502721 (38487525/sec)
HS: 0%:
TE: 0%:
GAFM: 0%:
SVG: 0%:
nvidia-smi
一部のLinuxマシンでは機能しません(多くのプロパティでN / Aが返されます)。nvidia-settings
代わりに使用できます(これは、mat kelceyがpythonスクリプトで使用したものでもあります)。
nvidia-settings -q GPUUtilization -q useddedicatedgpumemory
以下も使用できます。
watch -n0.1 "nvidia-settings -q GPUUtilization -q useddedicatedgpumemory"
継続的な監視のため。
nvidia-settings -q all
あなたが監視することができ、他のどのようなパラメータを参照してください。私は監視GPUCurrentProcessorClockFreqs
していGPUCurrentClockFreqs
ます。
nvidia-settings -q [gpu:0]/UsedDedicatedGPUMemory -t
Linuxの場合、自分で作成したこのHTOPのようなツールを使用します。GPUの温度とコア/ VRAM / PCI-Eおよびメモリバスの使用状況を監視し、概要を提供します。ただし、GPUで実行されているものは監視しません。
nvidia-settings
実行中のX11が必要ですが、常にそうであるとは限りません。
GeForce 1060 GTXビデオカードを持っていますが、次のコマンドを使用すると、カードの使用率、温度、ファン速度、消費電力に関する情報が得られることがわかりました。
$ nvidia-smi --format=csv --query-gpu=power.draw,utilization.gpu,fan.speed,temperature.gpu
以下を使用して、すべてのクエリオプションのリストを表示できます。
$ nvidia-smi --help-query-gpu
memory.used
または(memory.free
)を追加する価値もあります。
GPU関連機能をサポートするatMonitorの最後のバージョンはatMonitor 2.7.1です。
– 2.7.1へのリンクは2.7bを提供します。
アプリの最新バージョンについては、atMonitor-FAQで説明しています。
atMonitorがMacOS 10.8と互換性を持つように、GPU関連の機能をすべて削除しました。
NVIDIA GeForce 9600M GTを搭載したMacBookPro5,2とMountain Lionで2.7b(別名2.7.1)を試しました。アプリは終了する前に数秒間実行され、温度は表示されましたが、使用状況は表示されませんでした。
プロセスを終了(おそらく強制終了またはクラッシュ)し、リソースを使用し続けましたが、にはリストされていませんnvidia-smi
。通常、これらのプロセスはGPUメモリを使用していました。
GPU上のリソースを使用するプロセスがあり、それがに表示されていないと思われる場合は、nvidia-smi
このコマンドを実行して再確認してください。どのプロセスがGPUを使用しているかが表示されます。
sudo fuser -v /dev/nvidia*
これは、EL7、Ubuntu、または他のディストリビューションで動作し、nvidiaデバイスが別の名前/場所でリストされている場合があります。
Glancesには、GPU使用率とメモリ使用量を示すプラグインがあります。
http://glances.readthedocs.io/en/stable/aoa/gpu.html
nvidia-ml-py3ライブラリを使用します:https ://pypi.python.org/pypi/nvidia-ml-py3
Linux上のnvidiaでは、iostatやvmstatのようなオプションの遅延と繰り返しを使用する次のPythonスクリプトを使用します
https://gist.github.com/matpalm/9c0c7c6a6f3681a0d39d
$ gpu_stat.py 1 2
{"util":{"PCIe":"0", "memory":"10", "video":"0", "graphics":"11"}, "used_mem":"161", "time": 1424839016}
{"util":{"PCIe":"0", "memory":"10", "video":"0", "graphics":"9"}, "used_mem":"161", "time":1424839018}
を使用できますが、NVIDIA GPUにnvtop
似てhtop
います。リンク:https : //github.com/Syllo/nvtop
次の関数は、PID、ユーザー名、CPU使用量、メモリ使用量、GPUメモリ使用量、プログラム引数、GPUで実行されているプロセスの実行時間などの情報を、の出力に追加しますnvidia-smi
。
function better-nvidia-smi () {
nvidia-smi
join -1 1 -2 3 \
<(nvidia-smi --query-compute-apps=pid,used_memory \
--format=csv \
| sed "s/ //g" | sed "s/,/ /g" \
| awk 'NR<=1 {print toupper($0)} NR>1 {print $0}' \
| sed "/\[NotSupported\]/d" \
| awk 'NR<=1{print $0;next}{print $0| "sort -k1"}') \
<(ps -a -o user,pgrp,pid,pcpu,pmem,time,command \
| awk 'NR<=1{print $0;next}{print $0| "sort -k3"}') \
| column -t
}
出力例:
$ better-nvidia-smi
Fri Sep 29 16:52:58 2017
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 378.13 Driver Version: 378.13 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GT 730 Off | 0000:01:00.0 N/A | N/A |
| 32% 49C P8 N/A / N/A | 872MiB / 976MiB | N/A Default |
+-------------------------------+----------------------+----------------------+
| 1 Graphics Device Off | 0000:06:00.0 Off | N/A |
| 23% 35C P8 17W / 250W | 199MiB / 11172MiB | 0% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 Not Supported |
| 1 5113 C python 187MiB |
+-----------------------------------------------------------------------------+
PID USED_GPU_MEMORY[MIB] USER PGRP %CPU %MEM TIME COMMAND
9178 187MiB tmborn 9175 129 2.6 04:32:19 ../path/to/python script.py args 42
このスクリプトはより読みやすく、簡単なmodおよび拡張用に設計されています。
gnome-terminalをお気に入りのターミナルウィンドウプログラムに置き換えることができます。
#! /bin/bash
if [ "$1" = "--guts" ]; then
echo; echo " ctrl-c to gracefully close"
f "$a"
f "$b"
exit 0; fi
# easy to customize here using "nvidia-smi --help-query-gpu" as a guide
a='--query-gpu=pstate,memory.used,utilization.memory,utilization.gpu,encoder.stats.sessionCount'
b='--query-gpu=encoder.stats.averageFps,encoder.stats.averageLatency,temperature.gpu,power.draw'
p=0.5 # refresh period in seconds
s=110x9 # view port as width_in_chars x line_count
c="s/^/ /; s/, +/\t/g"
t="`echo '' |tr '\n' '\t'`"
function f() { echo; nvidia-smi --format=csv "$1" |sed -r "$c" |column -t "-s$t" "-o "; }
export c t a b; export -f f
gnome-terminal --hide-menubar --geometry=$s -- watch -t -n$p "`readlink -f \"$0\"`" --guts
#
ライセンス:GNU GPLv2、TranSeed Research
使用できます
nvidia-smi pmon -i 0
GPU 0のすべてのプロセスを監視します。計算/グラフィックモード、sm使用、メモリ使用、エンコーダ使用、デコーダ使用など。