GLM-5开源:迈向Agentic Engineering新范式,社区Day0 部署、推理实战来了!

简介: 智谱发布GLM-5:开源SOTA大模型,Coding与Agent能力双强,真实编程体验媲美Claude Opus 4.5;全球AI榜单排名第四、开源第一;MIT协议开源,支持复杂系统工程与长程Agent任务。

智谱发布了 GLM-5。

随着大模型能力从“写代码”走向“做工程”,行业正由 Vibe Coding 迈向 Agentic Engineering。GLM-5 正是在这一趋势下诞生:在 Coding 与 Agent 能力上达到开源 SOTA,真实编程体验接近 Claude Opus 4.5,尤其擅长复杂系统工程与长程 Agent 任务。


在全球权威的 Artificial Analysis 榜单中,GLM-5 位居全球第四、开源第一。

即日起,GLM-5同步开源,模型权重遵循 MIT License。


1. 开源链接

GitHub:https://github.com/zai-org/GLM-5


ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5


2. 在线体验

Z.ai:https://chat.z.ai


智谱清言APP/网页版:https://chatglm.cn


3. 官方 API 接入

BigModel 开放平台:https://docs.bigmodel.cn/cn/guide/models/text/glm-5


Z.ai:https://docs.z.ai/guides/llm/glm-5


OpenClaw 接入文档:https://docs.bigmodel.cn/cn/coding-plan/tool/openclaw


4. Agent

AutoGLM:https://autoglm.zhipuai.cn/?channel=AutoGLM_OpenClaw&redeem_modal_open=1


Z Code:https://zcode.z.ai/cn


5.Blog:https://z.ai/blog/glm-5


模型亮点

更大基座,更强智能

GLM-5 全新基座为从“写代码”到“写工程”的能力演进提供了坚实基础:

  • 参数规模扩展:从 355B(激活 32B)扩展至 744B(激活 40B),预训练数据从 23T 提升至 28.5T,更大规模的预训练算力显著提升了模型的通用智能水平。
  • 异步强化学习:构建全新的“Slime”框架,支持更大模型规模及更复杂的强化学习任务,提升强化学习后训练流程效率;提出异步智能体强化学习算法,使模型能够持续从长程交互中学习,充分激发预训练模型的潜力。
  • 稀疏注意力机制:首次集成 DeepSeek Sparse Attention,在维持长文本效果无损的同时,大幅降低模型部署成本,提升 Token Efficiency。

Coding 能力:对齐 Claude Opus 4.5

GLM-5 在编程能力上实现了对 Claude Opus 4.5 的对齐,在业内公认的主流基准测试中取得开源模型 SOTA 分数。在 SWE-bench-Verified 和 Terminal Bench 2.0 中分别获得 77.856.2 的开源模型 SOTA 分数,性能超过 Gemini 3 Pro。


2026 年,大模型需要从“会写”走到“会完成”,尤其是端到端完成大型任务。GLM-5 是一个“系统架构师”,它不仅为开发精美的 Demo 而生,更为稳定交付生产结果而生。


在内部 Claude Code 评估集合中,GLM-5 在前端、后端、长程任务等编程开发任务上显著超越 GLM-4.7(平均增幅超过 20%),能够以极少的人工干预自主完成 Agentic 长程规划与执行、后端重构和深度调试等系统工程任务,使用体感逼近 Opus 4.5。

Agent 能力:SOTA 级长程任务执行

GLM-5 在 Agent 能力上实现开源 SOTA,在多个评测基准中取得开源第一:在 BrowseComp(联网检索与信息理解)、MCP-Atlas(工具调用和多步骤任务执行)和 τ²-Bench(复杂多工具场景下的规划和执行)均取得最佳表现。

在衡量模型经营能力的 Vending Bench 2 中,GLM-5 获得开源模型第一的表现。Vending Bench 2 要求模型在一年期内经营一个模拟的自动售货机业务,GLM-5 最终账户余额达到 4432 美元,经营表现接近 Claude Opus 4.5,展现了出色的长期规划和资源管理能力。



这些能力是 Agentic Engineering 的核心:模型不仅要能写代码、完成工程,还要能在长程任务中保持目标一致性、进行资源管理、处理多步骤依赖关系,成为真正的 Agentic Ready 基座模型。


Agenttic Engineering 典型场景

场景一:端到端应用开发

在 OpenRouter 匿名(Pony)上线后,许多开发者使用 GLM-5 完成了真正能用、能玩、能上线的应用。


开发者们用 GLM-5 制作出了横版解谜游戏、Agent 交互世界、论文版“抖音”等应用,这些应用已开放下载,或已提交商店审核,详情可关注 GLM-5 案例库(showcase.z.ai)。这些案例展示了 GLM-5 在复杂系统工程中端到端交付可部署产品的能力。

场景二:通用 Agent 助手

GLM-5 较强的 Agentic 工具调用能力,使其成为通用 Agent 助手的理想基座模型。

在 OpenClaw 中接入 GLM-5,用户可以拥有一个智能的实习生,帮你搜索网站、定时整理资讯、发布推文、编程等。官方推出了 AutoGLM 版本的 OpenClaw,支持官网一键完成 OpenClaw 与飞书机器人的一体化配置,帮助用户从数小时缩短到几分钟,极速部署专属 7×24 小时智能助手。


场景三:Z Code 全流程编程

当 GLM-5 进化到能跑完整个闭环,编程工具也需要以此为核心重构。为此,智谱推出 Z Code。用户只需把需求说清楚,模型会自动拆解任务,多智能体并发完成代码、跑命令、调试、预览和提交等开发全流程。

在 Z Code 上,用户甚至可以用手机远程指挥桌面端 Agent,解决以往需要很久的工程任务。


值得一提的是,Z Code 也是全程由 GLM 模型参与开发完成。


场景四:办公文档直接输出

GLM-5 拥有更强大的复杂系统工程和长程智能体能力,可将文本或素材直接转换为 .docx、.pdf 和 .xlsx 文件。


在 Z.ai 和智谱清言上,用户可以让 GLM-5 直接输出产品需求文档、教案、试卷、电子表格、财务报告、流程表、菜单等文档。


本地部署使用方式

环境准备


vLLM, SGLang, and xLLM 均已经在Day0支持GLM-5的部署

  • vLLM

Docker部署:

docker pull vllm/vllm-openai:nightly


或 安装vLLM依赖

pip install -U vllm --pre --index-url https://pypi.org/simple --extra-index-url https://wheels.vllm.ai/nightly


然后升级Transformers到最新版本

pip install git+https://github.com/huggingface/transformers.git


部署代码

  • vLLM
VLLM_USE_MODELSCOPE=true vllm serve zai-org/GLM-5-FP8 \
     --tensor-parallel-size 8 \
     --gpu-memory-utilization 0.85 \
     --speculative-config.method mtp \
     --speculative-config.num_speculative_tokens 1 \
     --tool-call-parser glm47 \
     --reasoning-parser glm45 \
     --enable-auto-tool-choice \
     --served-model-name glm-5-fp8


  • SGLang
SGLANG_USE_MODELSCOPE=true python3 -m sglang.launch_server \
  --model-path zai-org/GLM-5-FP8 \
  --tp-size 8 \
  --tool-call-parser glm47  \
  --reasoning-parser glm45 \
  --speculative-algorithm EAGLE \
  --speculative-num-steps 3 \
  --speculative-eagle-topk 1 \
  --speculative-num-draft-tokens 4 \
  --mem-fraction-static 0.85 \
  --served-model-name glm-5-fp8


模型链接:https://modelscope.cn/models/ZhipuAI/GLM-5

目录
相关文章
|
2月前
|
缓存 架构师 前端开发
MiniMax M2.5 开源,低成本Agent时代来了!社区Day0部署、工具调用、推理&提示词参数实战来啦!
2月13日,MiniMax发布M2.5大模型,108天内三连更!编程(SWE-Bench 80.2%)、搜索(BrowseComp 76.3%)、办公场景全面领先,开源权重已上线ModelScope,支持API调用、本地部署及工具调用。
2819 7
|
2月前
|
运维 JavaScript 前端开发
拿 GLM-5 重构了一个真实项目,跟 Claude Opus 比了比
GLM-5 正式迈向“Agentic Engineering”:实测其Agent在1.2万行Node.js项目中完成Express路由迁移,8文件全改、测试全过,仅需微调2处;Benchmark紧追Claude Opus,开源模型第一。适合后端重构、文档生成与长周期运维,尚不擅前端与模糊需求。
2092 0
|
2月前
|
机器学习/深度学习 自然语言处理 API
Qwen3.5:迈向原生多模态智能体
除夕夜,通义千问发布Qwen3.5-397B-A17B:全球首个原生多模态MoE大模型,总参3970亿、仅激活170亿参数,性能媲美万亿模型;支持201种语言、超强视觉理解与GUI智能体能力,已开源至GitHub与ModelScope。
3040 4
Qwen3.5:迈向原生多模态智能体
|
2月前
|
人工智能 API 开发者
终于等到!阿里云Coding Plan上线Qwen3.5/GLM-5/MiniMax/Kimi,一键自由切换
阿里云Coding Plan上线Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5四大顶流开源模型,支持Qwen Code等工具一键切换。Lite/Pro套餐首月仅7.9/39.9元,享高稳定、高Token额度服务,助力高效编程与智能体开发。(239字)
825 3
|
2月前
|
机器学习/深度学习 存储 自然语言处理
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
Ling-2.5-1T是蚂蚁集团inclusionAI推出的开源即时大模型(MIT协议),以“效率×效果”为核心:万亿参数、63B激活,首创混合线性注意力架构,支持百万token上下文;推理吞吐大幅提升,AIME任务仅需1/3 token即达前沿思考模型水平。ModelScope可下载。
530 4
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
|
2月前
|
人工智能 自然语言处理 JavaScript
Deepseek百万 Token 窗口的极限实践:一位非专业人员使用实录
摘要:此文非技术评测,而是一份关于Deepseek最新百万token窗口的真实工程“长程思考”实录。本人非AI与计算机专业,从事生物医学与心理学工作,人文爱好者。利用十天时间,通过浏览器deepseek云端模型百万token对话窗口,实现了一套从本地环境设置、工具流搭建、数据建库与向量化的整个工程。本文记录了主要的过程与指标。 时间:2026 年 2 月
|
2月前
|
机器学习/深度学习 自然语言处理 搜索推荐
蚂蚁百灵全模态 Ming-flash-omni-2.0 开源!视觉百科+可控语音生成+全能型图像编辑,打破全模态“博而不精”
2月11日,蚂蚁百灵团队开源全模态大模型Ming-flash-omni-2.0(基于Ling-2.0 MoE架构),在视觉理解、语音交互与图像编辑三大领域实现代际跃迁,达开源领先水平。支持多模态统一生成与深度编辑,模型权重与代码已开放。
622 4
 蚂蚁百灵全模态 Ming-flash-omni-2.0 开源!视觉百科+可控语音生成+全能型图像编辑,打破全模态“博而不精”
|
2月前
|
机器学习/深度学习 人工智能 编解码
四款国产VLM OCR模型横评
春节前,DeepSeek、智谱、百度、腾讯四大团队密集开源新一代OCR小模型,全面采用视觉语言模型(VLM)架构,摒弃传统流水线,迈向“语义结构化”新纪元。DeepSeek-OCR2首创“视觉因果流”,GLM-OCR以0.9B参数登顶OmniDocBench榜首,PaddleOCR-VL-1.5攻克真实退化场景,Youtu-Parsing实现22倍推理加速——国产OCR正以架构创新实现垂直领域“换道超车”。
513 4
|
2月前
|
自然语言处理 前端开发 测试技术
魔搭社区+OpenVINO™ 加速部署 Qwen3-ASR 实战
通义千问新推Qwen3-ASR语音识别模型(1.7B/0.6B),支持52种语言及方言,具备高鲁棒性与流式长音频转写能力。联合魔搭社区与Intel® OpenVINO™,实现Intel平台极致加速部署,提供完整开源教程、Notebook示例及Gradio交互Demo。(239字)
1165 6

热门文章

最新文章