本文共 985 字,大约阅读时间需要 3 分钟。
检查 CUDA 是否可用
在终端中输入torch.cuda.is_available()
命令,检查 CUDA 是否可用。 True
,表示 CUDA 可以被 PyTorch 使用。False
,可能需要检查是否安装了 CUDA 插件或мом库。查看可用 GPU 的数量
使用torch.cuda.device_count()
命令查看可用的 GPU 数量。 torch.cuda.device_count()
返回 4,表示有 4 块 GPU 可用。查看 GPU 的名称和索引
使用torch.cuda.get_device_name(1)
要查看具体的 GPU 名称和索引。 torch.cuda.get_device_name(1)
返回 GPU 0x8068整体
。获取当前设备索引
使用torch.cuda.current_device()
获取当前使用的设备索引。 torch.cuda.current_device()
返回 0,表示当前使用了第 0 块 GPU。确认 GPU 描述
可以利用torch.cuda.device属性
查看 GPU 的更多描述。 nvcc --show-devices
查看所有硬件设备的详细信息,包括型号、驱动版本和显存大小。实时监控 GPU 利用情况
安装并运行nvidia-smi
工作台,实时监控 GPU 的使用情况:GPU 利用率、显存使用情况和当前占用的内存。分配显存并优化资源使用
torch.cuda.set_device(0)
强制指定使用特定 GPU。添加 GPU 检查到脚本中
在脚本中添加GPU检查代码段,确保每个运行中的 GPU 状态正确。import torchassert torch.cuda.is_available(), "CUDA不可用,查看驱动或版本更新"
通过以上步骤,您可以轻松地检查和管理多块 GPU 的状态,确保 CUDA 环境的正确配置和计算效率的最大化。
转载地址:http://llbiz.baihongyu.com/