以下假设使⽤第3块GPU训练
第⼀种⽅法:
tf.device(‘/gpu:2’)
第⼆种⽅法:
import os
如果要指定1,3块GPU来训练,则:
分享的价值和意义os.environ[‘CUDA_VISIBLE_DEVICES’]=’0,2’
郭业才2.在命令中添加
CUDA_VISIBLE_DEVICES=2 python train.py
Tensorflow指定显卡GPU运⾏
有些⼯作站配备了不⽌⼀块显卡,⽐如4路泰坦。TensorFlow会默认使⽤第0块GPU,⽽以TensorFlow为Backend的Keras会默认使⽤全部GPU资源。有时候有多个⼈需要跑实验,如果⼀个⼈占⽤了全部GPU,其他⼈就不能跑了。因此需要能够指定使⽤特定的GPU。 知识经济 具体地,只需要在主代码的开头插⼊如下代码,即可指定使⽤第3块(从0开始计数)GPU。
地塞米松抑制试验
import os
可以使⽤nvidia-smi来查看GPU占⽤情况。
有⼀点需要注意的是,代码中指定的编号与nvidia-smi中显⽰的编号是相反的,即3、2、1、0分别对应着0、1、2、3。
tensorflow选择gpu (CUDA_VISIBLE_DEVICES=gpu_id)
连服务器有时候会出现 out of memory
心电电极
解决⽅法:换⽤空闲的gpu
1. 查看GPU
nvidia-smi -L王宝强书法100幅
2. 查看7号GPU
nvidia-smi -q -i 7
如果只看memory情况。可以⽤:nvidia-smi -q -i 7 -d MEMORY