CUDA实践指南(三十三)

简介:

何处安装重新分配的CUDA库:
一旦正确的库文件被识别为重新分发,它们必须被配置为安装到应用程序能够找到它们的位置。
在Windows上,如果CUDA Runtime或其他动态链接的CUDA Toolkit库与可执行文件放在同一目录中,则Windows将自动找到它。 在Linux和Mac上,应使用-rpath链接器选项来指示可执行文件在搜索系统路径之前搜索其本地路径以查找这些库:
Linux/Mac:

nvcc -I $(CUDA_HOME)/include
-Xlinker "-rpath '$ORIGIN'" --cudart=shared
-o myprogram myprogram.cu

Windows:

nvcc.exe -ccbin "C:\vs2008\VC\bin"
-Xcompiler "/EHsc /W3 /nologo /O2 /Zi /MT" --cudart=shared
-o "Release\myprogram.exe" "myprogram.cu"

可能需要调整-ccbin的值以反映Visual Studio安装的位置。
要指定将要分发库的备用路径,请使用类似于下面的链接器选项:
Linux/Mac:

nvcc -I $(CUDA_HOME)/include
-Xlinker "-rpath '$ORIGIN/lib'" --cudart=shared
-o myprogram myprogram.cu

Windows

nvcc.exe -ccbin "C:\vs2008\VC\bin"
-Xcompiler "/EHsc /W3 /nologo /O2 /Zi /MT /DELAY" --cudart=shared
-o "Release\myprogram.exe" "myprogram.cu"

对于Linux和Mac,像以前一样使用-rpath选项。 对于Windows,使用/ DELAY选项; 这要求应用程序在首次调用任何CUDA API函数之前调用SetDllDirectory()以指定包含CUDA DLL的目录。
对于Windows 8,应该使用SetDefaultDLLDirectories()和AddDllDirectory()代替SetDllDirectory()。 请参阅这些例程的MSDN文档以获取更多信息。
部署基础设施工具:
Nvidia-SMI:
NVIDIA系统管理界面(nvidia-smi)是一个命令行工具,可帮助管理和监控NVIDIA GPU设备。 该实用程序允许管理员查询GPU设备状态,并以适当的权限允许管理员修改GPU设备状态。 nvidia-smi瞄准特斯拉和某些Quadro GPU,但其他NVIDIA GPU上也有有限的支持。 nvidia-smi在Linux上配有NVIDIA GPU显示驱动程序,以及64位Windows Server 2008 R2和Windows 7. nvidia-smi可将查询的信息输出为XML或作为人类可读的纯文本输出到标准输出或文件。 有关详细信息,请参阅nvidia-smi文档。 请注意,新版本的nvidia-smi不保证与以前的版本向后兼容。
可查询状态:
ECC错误计数:
报告可纠正的单比特和可检测的双比特错误。 为当前引导周期和GPU的使用期限提供错误计数。
GPU利用率
报告GPU和存储器接口的计算资源的当前利用率。
活动计算进程
报告运行在GPU上的活动进程列表以及相应的进程名称/ ID和分配的GPU内存。
时钟和性能状态
最大和当前时钟速率也报告几个重要的时钟域
作为当前的GPU性能状态(pstate)。
温度和风扇速度
报告当前的GPU核心温度,以及主动冷却产品的风扇速度。
功率管理
报告的产品报告了当前的电路板功率消耗和功率限制
这些测量。
鉴定
报告了各种动态和静态信息,包括主板序列号,PCI设备ID,VBIOS / Inforom版本号和产品名称。

相关实践学习
部署Stable Diffusion玩转AI绘画(GPU云服务器)
本实验通过在ECS上从零开始部署Stable Diffusion来进行AI绘画创作,开启AIGC盲盒。
目录
相关文章
|
并行计算 异构计算 Python
|
并行计算 Linux Windows
|
并行计算 API C语言
|
并行计算 编译器 C语言
|
并行计算 算法 编译器
|
并行计算 编译器 C语言
|
并行计算 异构计算
|
并行计算 API 异构计算
|
存储 缓存 并行计算