拆开“超节点”的伪装:没有内存统一编址,仍是服务器堆叠

简介: 当万亿参数大模型成为常态,AI“军备竞赛”已升级为系统级对决。“超节点”应运而生,但真伪之别在于是否实现“内存统一编址”——唯有打破通信墙、构建全局地址空间,才能让集群如单机般高效协同。缺此核心,皆为伪超节点。

当万亿参数的多模态大模型成为一种常态,AI行业的“军备竞赛”早已转向:不再只是卷模型参数、堆叠服务器,而是深入底层计算架构,开启了一场“系统级对决”。

“超节点”由此成为计算产业的“新宠”。

截止到目前,国内已经有十多家企业推出了“超节点”,动作上却出现了“变形”:似乎只要把几十台服务器塞进一个机柜,用光纤连接在一起,就能贴上“超节点”标签,对外宣称打破了摩尔定律。

在对比多款“超节点”的技术逻辑后,我们发现了一个残酷的技术真相:倘若无法实现“内存统一编址”,所谓的“超节点”多少有些“李鬼冒充李逵”的嫌疑,本质上还是传统服务器的堆叠架构。

01 为什么需要超节点?根源在于“通信墙”
让我们先回到原点:为什么在互联网时代用了二十多年的Scale Out集群架构,在大模型时代却行不通了?

中国信通院在几个月前发布的《超节点发展报告》中已经给出了答案,将原因形象地归纳为“三堵墙”:

第一个是通信墙,在大模型训练场景中,通信频次随模型层数和并行度呈指数级增长,微秒级的协议栈延迟在万亿次迭代中累积,将导致计算单元长时间处于等待状态,直接限制算力利用率。

第二个是功耗与散热墙,为了解决延迟和等待,工程师们不得不绞尽脑汁提升算力密度,尽可能在一个机柜里塞更多的计算单元,代价则是恐怖的散热压力和供电挑战。

第三个是复杂度墙,“大力出奇迹”的硬件堆砌,让集群规模从千卡推向万卡乃至十万卡,但运维复杂度同步提升。在大模型训练过程中,每隔几个小时就要处理一次故障。

摆在面前的现实挑战是,大模型正从单模态走向全模态融合,上下文长度达到了兆级、训练数据高达100TB、金融风控等场景的时延要求小于20毫秒……传统计算架构已经是肉眼可见的瓶颈。

想要满足新的算力需求,打破“通信墙”注定是绕不过的一环。除了堆叠服务器,是否还有其他路径呢?

先来梳理下产生“通信墙”的技术原理。

在传统集群架构中,遵循的是“存算分离”与“节点互联”原则,每一块GPU都是一座孤岛,拥有自己独立的领地(HBM显存),并且只听得懂“本地话”,需要访问隔壁服务器的数据时,必须走一套繁琐的“外交程序”:

步骤一是数据搬移,发送端将数据从HBM拷贝到系统内存;

步骤二是协议封装,将数据切片封装TCP/IP或RoCE报文头。

步骤三是网络传输,数据包经过交换机路由至目标节点。

步骤四是解包与重组,接收端进行协议栈解析并剥离报文头。

步骤五是数据写入,数据最终写入目标设备的内存地址。

这个过程的学术名词是“序列化-网络传输-反序列化”,存在几毫秒的延迟。在处理网页请求时,这种延迟不会影响到用户体验。但在大模型训练中,模型被切分成成千上万块,每一层神经网络的计算都需要在芯片间进行极高频次的同步。就像做一道数学题时,每写一个数字都要给隔壁同学打电话确认一下,解题效率可以说“惨不忍睹”。

业界针对性地提出了“超节点”的概念,并规定了三个硬性指标——大带宽、低时延、内存统一编址。

前两个概念不难理解,简单来说就是路修宽点(大带宽),车跑快点(低时延),最核心、最难实现的恰恰是“内存统一编址”:目标是构建一个全局唯一的虚拟地址空间,集群内所有芯片的内存资源被映射成一张巨大的地图,不管数据是在自己的显存里,还是在隔壁机柜的内存里,对于计算单元来说,只是一个地址的区别。

同样是做一道数学题时,不用给隔壁同学“打电话”,而是直接“伸手”拿数据。“序列化与反序列化”开销被消除了,“通信墙”不复存在,算力利用率也就有了提升空间。

02 内存统一编址难在哪?通信语义“代差”
既然“内存统一编址”被证实是正确路径,为什么市面上的某些“超节点”,依然停留在服务器堆叠?

不单单是工程能力的差距,还在于“通信语义”的代际差,涉及到通信协议、数据所有权和访问方式。

目前有两种主流的通信方式。

一种是面向分布式协作的消息语义,通常由发送和接收操作体现,工作方式像“寄快递”。

假设要传递一本书,得先把书打包封箱(构建数据包)、填写快递单写上对方的地址和电话(IP地址、端口)、叫快递员送到物流中心(交换机)、对方收到快递后拆箱拿出书(解包)、最后对方还得回复“收到了”(ACK确认)。

一套流程下来,即使快递跑得再快(大带宽),打包、拆包和中间流转的时间(延迟和CPU开销)也是省不掉的。

另一种是面向并行计算的内存语义,通常由加载和存储指令体现,工作方式像“从书架上拿书”。

同样是传递一本书,直接走到公共书架旁,伸手拿下来(Load指令),并在看完后放回去(Store指令)。没有打包,没有填单子,没有“中间商赚差价”,效率上的提升不言而喻。

诸如TCP/IP、InfiniBand、RoCE v2等支持消息语义,也是通信墙存在的直接诱因,但灵衢、NVLink等协议已经支持内存语义。既然如此,为什么“伪超节点”仍然做不到内存统一编址呢?

因为内存语义的皇冠明珠是“缓存一致性”:如果节点A修改了共享内存地址0x1000的数据,而节点B的L2缓存中存有该地址的副本,必须确保节点B的副本立即失效或更新。

想要实现“内存语义”,必须满足两个条件:

首先是通信协议和缓存一致性。

通信协议传输的不再是笨重的“数据包”,而是包含内存地址、操作码(读/写)和缓存状态位的“Flit”。同时还需要缓存一致性协议,通过总线广播一致性信号,确保所有计算单元看到的信息是相同的。

其次是充当“翻译官”的交换芯片。

交换芯片扮演了“翻译官”的角色,让CPU、NPU/GPU等设备在统一的协议下互联互通,整合为一个统一的全局地址空间,不管数据存在哪块内存里,都只有一个“全局地址”,CPU、NPU/GPU之间可以直接通过地址访问。

无法满足上述条件的“伪超节点”,大多采用的是PCIe+RoCE协议互联方案,属于典型的“大字吸睛、小字免责”。

RoCE跨服务器内存访问需要RDMA,不支持统一内存语义、缺乏硬件级的缓存一致性,依然需要网卡、队列、门铃机制来触发传输,本质上还是在“寄快递”,只是快递员跑得快了一点。而PCIe的理论带宽单lane为64GB/s,比超节点的带宽要求低了一个数量级。

结果就是,以“超节点”的名义宣传,却不支持内存统一编址,无法做到全局的内存池化以及AI处理器之间的内存语义访问。集群只能实现“板卡级”的内存共享(比如单机内8张卡互通),一旦跨出了服务器节点,所有访存都需要通过消息语义通信,在优化上存在明显瓶颈。

03 超节点有何价值?大模型的完美“搭子”
可能有不少人会问,费这么大劲搞“内存统一编址”,到底有什么用,仅仅是为了技术上的“洁癖”吗?

先说结论:内存统一编址绝非“屠龙之技”,在大模型训练和推理的实战中,已经被证实存在巨大收益。

第一个场景是模型训练。

在训练万亿参数的超大模型时,HBM容量往往是首要瓶颈。一张卡80GB显存,塞进模型参数和中间状态后,往往所剩无几。

当显存不够时,传统的做法是“Swap to CPU”——利用PCIe把数据搬到CPU的内存里暂存。但存在一个大问题:PCIe的带宽太低了,而且需要CPU参与拷贝。数据搬来搬去的时间,比GPU计算的时间还长,训练速度大幅下降。

在真正的超节点架构下,CPU的内存(DDR)和NPU的显存(HBM)都在同一个地址空间里,可以采用“以存代算”的策略精细管理内存:将暂时不用的数据或权重offload到CPU内存上,需要的时候通过“大带宽&低时延”的能力快速拉回片上内存激活,NPU的利用率可以提升10%以上。

第二个场景是模型推理。

在多轮对话中,每轮对话都需要Put和Get,Put将KV数据存入内存池,Get从内存池取KV数据,需要更大的KV Cache空间进行频繁的数据存储。

传统集群的KV Cache通常是绑定在单张卡的显存上的,如果用户问了一个超长的问题,节点A的显存被KV Cache撑爆了,附近的节点B即使显存空着,没有内存统一编址也无法借用,必须把任务重新调度、重新计算。

有了内存统一编址,就可以实现KV Cache的全局池化,并支持Prefix Cache复用(前缀缓存)。比如“System Prompt”通常是固定的,只需要在全局内存里存一份,所有节点都可以通过“一存多取”的方式直接读取。在PreFix Cache命中率100%时,集群的吞吐性能可以提升3倍。

第三个场景是推荐系统。

搜索、广告、推荐是互联网的“摇钱树”,依赖超大规模的Embedding表。由于Embedding表通常远超单机内存,必须分片存储在不同服务器上。

在推理过程中,模型需要频繁地从Host侧(CPU内存)或远端Device侧拉取特定的特征向量。如果是RoCE等“寄快递”的方式处理小包,光是打包拆包的开销就占了大头,导致严重的门铃效应,延迟居高不下。

而利用内存统一编址,配合硬件级的内存传输引擎,计算单元可以直接向远端内存发起读取指令,自动处理数据的搬运。当第一个向量还在路上时,第二个请求已经发出了,极大地降低了通信延迟,提升端到端的推荐效率,有望实现最小化开销。

不夸张地说,“大带宽、低时延、内存统一编址”三大能力相互协同,才能真正实现让集群像一台计算机一样工作,才能实现真正的超节点,才是大模型训练与推理的完美“搭子”,才是AGI时代算力基础设施进化的必然方向。缺少“内存统一编址”能力,终归只是在蹭“超节点”的流量。

04 写在最后
当我们拆开“超节点”的层层伪装,可以看到AI基础设施的竞争已经从单纯的堆砌硬件,上升到了体系结构的竞争。

“内存统一编址”这个听起来晦涩难懂的技术名词,某种程度上等同于通往下一代计算范式的入场券:作为“One NPU/GPU”的必备能力,打破了物理服务器的围墙,让成千上万颗芯片的“灵魂”融为一体。而那些仍然停留在“服务器暴力堆叠”的产品,终将被淹没在摩尔定律失效的洪流中。

相关文章
|
17天前
|
人工智能 应用服务中间件 API
刚刚,阿里云上线Clawdbot全套云服务!
阿里云上线Moltbot(原Clawdbot)全套云服务,支持轻量服务器/无影云电脑一键部署,可调用百炼平台百余款千问模型,打通iMessage与钉钉消息通道,打造开箱即用的AI智能体助手。
3746 33
刚刚,阿里云上线Clawdbot全套云服务!
|
Ubuntu Linux
Linux:查看服务器信息,CPU、内存、系统版本、内核版本等
Linux:查看服务器信息,CPU、内存、系统版本、内核版本等
7527 0
Linux:查看服务器信息,CPU、内存、系统版本、内核版本等
|
域名解析 缓存 网络协议
提升你的外国服务器网站国内访问速度~
由于众所周知的原因,国内访问国外的服务器速度较慢。在没有特殊线路(直连、CN2GIA等)的加持下,路由线路左绕右绕,严重影响国内访问速度。 能使用国内服务器当然是最好的,但是高昂的流量&带宽价格以及域名备案门槛让人劝退。所以,本文章提供的加速方案是针对线路一般的海外服务器网站访问速度慢的问题。
8586 0
提升你的外国服务器网站国内访问速度~
|
4月前
|
人工智能 自然语言处理 安全
用AI重构人机关系,OPPO智慧服务带来了更“懂你”的体验
OPPO在2025开发者大会上展现智慧服务新范式:通过大模型与意图识别技术,构建全场景入口矩阵,实现“服务找人”。打通负一屏、小布助手等系统级入口,让服务主动触达用户;为开发者提供统一意图标准、一站式平台与安全准则,降低适配成本,共建开放生态。
452 31
|
25天前
|
人工智能 自然语言处理 运维
阿里开源 Assistant Agent,助力企业快速构建答疑、诊断智能助手
一款快速构建智能客服、诊断助手、运维助手、AIOps 的开源框架。
674 56
|
3月前
|
人工智能 安全 调度
当“超节点”成为算力新秩序,openEuler重构数智基础设施
随着AI迈向规模化应用,大模型算力需求激增,传统架构难以为继。超节点应运而生,打破“算力孤岛”,实现资源统一调度。openEuler携手产业伙伴,打造全球首个面向超节点的操作系统,推动国产系统从“替代”走向“引领”。2025年,操作系统大会释放强信号:AI与算力深度融合,openEuler 24.03 LTS SP3将于年底上线,2026年或成商业化元年。通过全局资源抽象、异构融合、低时延通信等能力,操作系统正成为智能时代的“神经中枢”。数千企业、数万开发者共建生态,openEuler装机量将破1600万套,加速AI普惠落地,重塑全球算力新格局。
221 11
|
4月前
|
人工智能 小程序 5G
读懂5G新通话:可能是AI落地千行万业的首个全民级场景
5G新通话融合AI与DC数据通道,打破传统语音局限,实现“听说看触”多模态交互。用户拨打热线即可在通话中挂号、咨询、共享屏幕,服务直达指尖。从客服到医疗、助老、外贸,通话正变为集沟通、操作、服务于一体的“生活入口”。2025年,超70款终端支持,6000万用户已体验。通话即服务,时代已变。
468 10
|
5月前
|
人工智能 并行计算 调度
中国计算产业,终于迈过了生态这道坎
一位算法开发者亲历昇腾迁移,原以为艰难,却发现CANN生态已趋完善。从“跑不通”到“怎么更快”,中国计算正走出至暗时刻。开源开放、人才培养、工程创新协同推进,CANN生态加速崛起,展现自主算力的韧性与希望。
184 0
|
9月前
|
传感器 人工智能 供应链
穿越AI周期,卫浴新场景的九牧答卷
两年前,阿里巴巴CEO张勇提出“所有行业都值得基于AI重做一遍”的观点。如今,AI正重构多个行业,如AIPC提升生产力、电商优化供需匹配、搜索跃升语义理解等。九牧在第29届上海厨卫展前夕发布AI BATH场景品牌,通过全链路AI解决方案,重新定义卫浴空间。文章探讨了智能化进程中“伪智能”问题,分析九牧如何以DeepSeek大模型、健康守护功能及跌倒报警系统等,实现主动式服务,推动场景智能从单品向互联互通转变。最后指出,随着政策支持与技术进步,“场景革命”已来临,九牧或成行业分水岭,引领新增长曲线。
237 14