linux系统怎样指定gpu运行,linux服务器如何指定gpu以及用量
1.在終端執(zhí)行程序時(shí)指定GPU
CUDA_VISIBLE_DEVICES=0? ? python? your_file.py? # 指定GPU集群中第一塊GPU使用,其他的屏蔽掉
CUDA_VISIBLE_DEVICES=1? ? ? ? ? ?Only device 1 will be seen
CUDA_VISIBLE_DEVICES=0,1? ? ? ? ?Devices 0 and 1 will be visible
CUDA_VISIBLE_DEVICES="0,1"? ? ? ?Same as above, quotation marks are optional 多GPU一起使用
CUDA_VISIBLE_DEVICES=0,2,3? ? ? ?Devices 0, 2, 3 will be visible; device 1 is masked
CUDA_VISIBLE_DEVICES=""? ? ? ? ? No GPU will be visible
z這段話摘抄的,錯(cuò)誤:注意,服務(wù)器看到的GPU序號(hào)和手動(dòng)在Linux上查看的序號(hào)是相反的,比如我們指定os.environ[“CUDA_VISIBLE_DEVICES”] = “0”的話,你會(huì)發(fā)現(xiàn)在watch nvidia-smi指令下,倒數(shù)第一塊GPU正在滿負(fù)荷的運(yùn)行!
2.在Python代碼中指定GPU
import os
os.environ["CUDA_VISIBLE_DEVICES"] = "0"? #指定第一塊gpu
3.設(shè)置定量的GPU使用量
config = tf.ConfigProto()
config.gpu_options.per_process_gpu_memory_fraction = 0.9 # 占用GPU90%的顯存
session = tf.Session(config=config)
4.設(shè)置最小的GPU使用量
config = tf.ConfigProto()
config.gpu_options.allow_growth = True
session = tf.Session(config=config)
5.GPU狀態(tài)顯示和部分指標(biāo)含義
輸入查看:
watch nvidia-smi
GPU:GPU 編號(hào);
Name:GPU 型號(hào);
Persistence-M:持續(xù)模式的狀態(tài)。持續(xù)模式雖然耗能大,但是在新的GPU應(yīng)用啟動(dòng)時(shí),花費(fèi)的時(shí)間更少,這里顯示的是off的狀態(tài);
Fan:風(fēng)扇轉(zhuǎn)速,從0到100%之間變動(dòng);
Temp:溫度,單位是攝氏度;
Perf:性能狀態(tài),從P0到P12,P0表示最大性能,P12表示狀態(tài)最小性能(即 GPU 未工作時(shí)為P0,達(dá)到最大工作限度時(shí)為P12)。
Pwr:Usage/Cap:能耗;
Memory Usage:顯存使用率;
Bus-Id:涉及GPU總線的東西,domain:bus:device.function;
Disp.A:Display Active,表示GPU的顯示是否初始化;
Volatile GPU-Util:浮動(dòng)的GPU利用率;
Uncorr. ECC:Error Correcting Code,錯(cuò)誤檢查與糾正;
Compute M:compute mode,計(jì)算模式。
下方的 Processes 表示每個(gè)進(jìn)程對(duì) GPU 的顯存使用率。
總結(jié)
以上是生活随笔為你收集整理的linux系统怎样指定gpu运行,linux服务器如何指定gpu以及用量的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: linux 搭建.net运行环境,.ne
- 下一篇: linux批量管理服务,通过PSSH批量