重磅!英伟达宣布开源 Linux GPU 内核驱动

简介: 重磅!英伟达宣布开源 Linux GPU 内核驱动

5 月 11 日,英伟达宣布正式开源其 Linux GPU 内核模块,且具有 GPL 和MIT 双重许可证。开发者可以在 GitHub 上的英伟达 Open GPU Kernel Modules repo 中查找内核模块的相关源码。

image.png

GitHub 地址:https://github.com/NVIDIA/ope...

英伟达表示此次开源将改善在 Linux 系统中使用英伟达 GPU 的体验,使硬件和系统之间的联系更为紧密,并且能够让开发者进行调试、整合和回馈。对于 Linux 发行商来说,开源的内核模块增加了易用性,还改善了开箱即用的用户体验,以签署和分发英伟达 GPU 驱动程序。Canonical 和 SUSE 能够立即将开源的内核模块与 Ubuntu 和 SUSE Linux Enterprise Distributions 打包在一起。

但是这次开源的 Linux GPU 内核模块也存在不足,英伟达表示:“当前的代码库不符合 Linux 内核设计要求,也不是 Linux 上游的候选者。未来将计划与 Linux 内核社区及合作伙伴(如 Canonical、Red Hat 和 SUSE)合作开发上游化的方法。”

支持的功能

此次英伟达开源的 GPU 内核模块的第一个版本是 R515,除了公布源代码以外,还提供了驱动程序的完整构建和打包版本。

  • 对于 NVIDIA Turing 和 NVIDIA Ampere 架构系列中的数据中心 GPU 来说,这些代码可用于生产。
  • 对 GeForce 和工作站 GPU 的支持度很高,GeForce 和 Workstation 用户可以在 NVIDIA Turing、NVIDIA Ampere 架构 GPU 上使用此驱动程序来运行 Linux 桌面,并在 Vulkan 和 NVIDIA OptiX 中使用多显示器、G-SYNC 和 NVIDIA RTX 光线追踪等功能。
  • 拥有 Turing 和 Ampere GPU 的用户可以自主选择安装哪些模块。而使用 Turing 之前硬件的用户将继续运行闭源模块。

注意: 开源内核模块驱动程序堆栈的所有组件都必须与发行版中的版本相匹配。例如,用户不能使用以前或未来版本的用户模式堆栈发布源代码、构建或运行它。

虽存在无法上游化的不足,但这一消息足以在开发者社区引起轰动,令许多业内人士及开发者感到惊讶并欣喜。

Red Hat Linux 工程副总裁 Mike McGrath:“红帽与英伟达合作多年,我们很高兴看到他们迈出下一步。我们期待将这些功能带给我们的客户,并提高与英伟达硬件的互操作性。

Canonical 芯片联盟副总裁 Cindy Goldberg :”作为最受开发者欢迎的 Linux 类操作系统 Ubuntu 的开发商,我们现在能够立足 Ubuntu 与英伟达 GPU 实现紧密集成,为 AI 和 ML 等前沿领域的开发人员提供更好的支持。”

SUSESUSE 业务关键 Linux 总经理 Markus Noga :“我们 SUSE 高兴地看到,英伟达决定将 GPU 内核模式驱动程序以开源形式发布。这是开源社区与加速计算领域的真正里程碑。”

目前,英伟达开源的 Linux GPU 内核模块在 GitHub 上已获得 9k+ Star,部分开发者对英伟达这次开源的举动表示十分支持,甚至直言“这是十多年来对开源操作系统硬件支持所发生的最重要的事情之一。”

你对英伟达源 Linux GPU 内核模块的举动有什么看法呢?

欢迎在评论区留言互动~

更多开源详情查看:

https://developer.nvidia.com/...

相关实践学习
在云上部署ChatGLM2-6B大模型(GPU版)
ChatGLM2-6B是由智谱AI及清华KEG实验室于2023年6月发布的中英双语对话开源大模型。通过本实验,可以学习如何配置AIGC开发环境,如何部署ChatGLM2-6B大模型。
相关文章
|
6月前
|
人工智能 中间件 数据库
沐曦 GPU 融入龙蜥,共筑开源 AI 基础设施新底座
沐曦自加入社区以来,一直与龙蜥社区在推动 AIDC OS 的开源社区建设等方面保持合作。
|
12月前
|
人工智能 Linux API
119K star!无需GPU轻松本地部署多款大模型,DeepSeek支持!这个开源神器绝了
"只需一行命令就能在本地运行Llama 3、DeepSeek-R1等前沿大模型,支持Windows/Mac/Linux全平台,这个开源项目让AI开发从未如此简单!"
734 0
|
12月前
|
机器学习/深度学习 并行计算 PyTorch
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
本文记录了在RTX 5070 Ti上运行PyTorch时遇到的CUDA兼容性问题,分析其根源为预编译二进制文件不支持sm_120架构,并提出解决方案:使用PyTorch Nightly版本、更新CUDA工具包至12.8。通过清理环境并安装支持新架构的组件,成功解决兼容性问题。文章总结了深度学习环境中硬件与框架兼容性的关键策略,强调Nightly构建版本和环境一致性的重要性,为开发者提供参考。
7848 64
英伟达新一代GPU架构(50系列显卡)PyTorch兼容性解决方案
|
7月前
|
机器学习/深度学习 人工智能 容灾
硅谷GPU云托管:驱动AI革命的下一代计算基石
在人工智能与高性能计算席卷全球的今天,硅谷作为科技创新的心脏,正通过GPU云托管服务重新定义计算能力的边界。无论您是初创公司的机器学习工程师,还是跨国企业的研究团队,硅谷GPU云托管已成为实现突破性创新的关键基础设施。
|
人工智能 自然语言处理 API
Proxy Lite:仅3B参数的开源视觉模型!快速实现网页自动化,支持在消费级GPU上运行
Proxy Lite 是一款开源的轻量级视觉语言模型,支持自动化网页任务,能够像人类一样操作浏览器,完成网页交互、数据抓取、表单填写等重复性工作,显著降低自动化成本。
938 11
Proxy Lite:仅3B参数的开源视觉模型!快速实现网页自动化,支持在消费级GPU上运行
|
机器学习/深度学习 人工智能 物联网
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
MiniMind 是一个开源的超小型语言模型项目,帮助开发者以极低成本从零开始训练自己的语言模型,最小版本仅需25.8M参数,适合在普通个人GPU上快速训练。
2450 10
MiniMind:2小时训练出你的专属AI!开源轻量级语言模型,个人GPU轻松搞定
|
人工智能 负载均衡 调度
COMET:字节跳动开源MoE训练加速神器,单层1.96倍性能提升,节省百万GPU小时
COMET是字节跳动推出的针对Mixture-of-Experts(MoE)模型的优化系统,通过细粒度的计算-通信重叠技术,显著提升分布式训练效率,支持多种并行策略和大规模集群部署。
777 9
|
Linux 程序员 编译器
Linux内核驱动程序接口 【ChatGPT】
Linux内核驱动程序接口 【ChatGPT】