近日,InfoQ 极客传媒携手模力工场发起的 “2025 中国技术力量榜单” 评选结果正式揭晓。龙蜥社区与合作伙伴联合提报的 “AI Serving Stack:面向大模型时代的云原生推理服务全栈解决方案”,凭借创新的 RBG 重新定义推理编排、智能调度实现差异化负载优化、以 KVCache 为中心的 PD 分离和以存换算架构等方面的突出创新,斩获了 “2025 年度 AI 工程与部署卓越奖”。同时,“SysOM AI 基础设施运维解决方案”凭借在大规模 AI 训推集群的“分钟级发现、小时级定界”能力、及持续性能剖析与资源效能提升上的领先实践,荣获“‘人工智能+’行业最佳解决/落地方案”奖项。
在“人工智能 +”行动规划的推动下,人工智能已从前沿技术逐渐演变为驱动产业升级与经济转型的关键力量。2025 年,中国 AI 技术落地与产业应用进入加速期。龙蜥社区积极布局 AI 基础软件栈,在操作系统内核、工具链与运维体系等关键环节持续创新,构建起支撑大模型高效训练与推理的坚实底座。
大模型推理正演变为"最昂贵的微服务"——既需 HPC 集群的极致性能,又要求云原生的敏捷弹性。AI Serving Stack 是由龙蜥社区与 SGLang 社区、Mooncake 社区、清华大学、南京大学、小红书、算秩未来、科大讯飞和阿里云联合打造,坚持全栈开源理念,采用开放治理模式,100% 开源架构让企业可零成本快速落地。作为大模型生产级”最后一公里”难题的解决方案,AI Serving Stack 填补开源社区在“生产级 LLM 推理编排”领域的空白,提供了从部署管理、智能路由、弹性伸缩、深度可观测的一体化能力,助力企业无论处于 AI 应用初期还是已运行大规模推理业务,都能轻松驾驭复杂的云原生 AI 推理场景。依托领先的 RBG 部署编排机制、智能负载调度策略,以及以 KVCache 为中心的 PD 分离架构和以存换算架构,AI Serving Stack 实现数倍性能提升,显著降低推理成本。未来,AI Serving Stack 将以更加开放的生态聚合产学研智慧,为产业提供从“能跑通”到“高可用、高吞吐、高弹性”的质变路径。
SysOM(System Operation&Maintenance)是龙蜥社区系统运维 SIG 打造的一站式操作系统运维平台,通过监控、诊断、持续性能剖析等一体化解决方案,具备常态化、无侵入、低开销、可视化分析等特点,广泛应用于教育、医疗、电商、智驾等场景的性能诊断和分析优化。SysOM AI 基础设施运维解决方案是围绕训练及推理场景“MTTR (平均修复时间)长、无效训练时间长”等痛点,以“1 分钟极速发现、5 分钟快速定界定位问题”为目标,显著提升整体训推效率。目前,龙蜥社区系统运维联盟成员单位阿里云已基于 SysOM 项目发布了操作系统控制台,操作系统控制台为用户提供全面的系统资源监控、问题分析和故障解决能力,旨在优化系统性能,显著提升运维效率和业务稳定性。未来,SysOM 将会继续帮助提升训推业务场景万卡集群规模的 GPU 利用率等问题而努力。
操作系统控制台地址:https://alinux.console.aliyun.com/
此前,龙蜥社区及龙蜥操作系统也获得了业界的广泛认可,荣获 OS2ATC 2025 “最具影响力开源创新贡献奖”、龙蜥操作系统通过工信部电子标准院首批开源项目成熟度评估,唯一获得“卓越级”(最高等级)的开源项目等 40+ 行业奖项。未来,龙蜥社区将持续深耕 AI 与操作系统融合创新,携手更多合作伙伴,共建开放、高效的下一代智能基础设施底座。
完整榜单见链接:https://www.infoq.cn/zones/chinatechawards2025/
—— 完 ——