前提是正确安装cuda和cudnn,以及对应的平台。
caffe有个命令行参数:device_query 可以查看指定GPU的信息
如:在命令行输入 caffe device_query -gpu 0
直接在python环境下输入以下命令,显示true就表示可以调用gpu
import torch
print (torch.cuda.is_available())
在命令行下输入下面命令:若显示出可用的GPU信息则表示GPU可以用来加速,若只显示cpu,则不能调用GPU
import tensorflow
from tensorflow.python.client import device_lib
print(device_lib.list_local_devices())
下面就是没有GPU可以用的情况:
最后提一下,可以用一个命令看看都是那些进程在调用GPU,查看GPU的使用信息:
nvidia-smi
如果用tensorflow或者pytorch平台进行GPU加速,则红色这个区域中就会出现一个python的进程
如果用caffe平台,就会显示caffe进程: