GLM-5.1开源:独立工作8小时,探索长程任务上限

简介: 智谱发布开源旗舰GLM-5.1,首次实现超8小时长程自主编程,支持从零构建Linux桌面、655轮向量库优化等工程级任务,在SWE-Bench Pro等基准中位列全球第三、开源模型第一。

今天凌晨,智谱最新开源旗舰 GLM-5.1 发布,这次直接把 AI 编程推到了"8小时长程任务"时代。从早期3分钟的 Vibe Coding,到30分钟的 Agentic Engineering,再到如今能连续独立工作超过8小时的 Long-Horizon Task,GLM-5.1 堪称智谱迄今最强的旗舰模型,也是当前全球最能打的开源模型之一。

GLM-5.1在代码能力上大幅跃升,尤其擅长长程任务——一次下发,模型即可自主规划、执行、自我迭代,全程无需人工接管,最终交付完整的工程级成果,把智能体从"助手"升级成了"工程师"。


开源链接

GitHub:https://github.com/zai-org/GLM-5

ModelScope:https://modelscope.cn/models/ZhipuAI/GLM-5.1

官方API接入

  • BigModel开放平台:https://docs.bigmodel.cn/cn/guide/models/text/glm-5.1
  • Z.ai:https://docs.z.ai/guides/llm/glm-5.1

Blog

https://z.ai/blog/glm-5.1


代码能力是模型智能水平进一步提升的关键。下图是GLM-5.1分别在 SWE-Bench Pro、Terminal-Bench 2.0、NL2Repo基准中的表现,综合结果上,取得了全球模型第三、国产模型第一、开源模型第一的成绩。


在最接近真实软件开发的SWE-bench Pro基准测试中,GLM-5.1刷新全球最佳成绩,超过GPT-5.4、Claude Opus 4.6。


案例展示:模型上班的8小时

抛开Benchmark,本次 GLM-5.1 的官方展示重点,转向了:模型在长程任务中能否持续工作、持续优化,并完成完整的“执行、分析、修正”闭环。


在同等评估口径下,GLM-5.1 展现出较强的长时间自主工作能力。以下是官方提供的三个案例:


Case 1:8小时从零构建 Linux 桌面

在该任务中,模型被要求从零开始完成一个 Linux 桌面系统构建。


任务结果:

  • 持续执行 8 小时
  • 完成 1200+ 步操作
  • 约 20 分钟后产生首个有效结果
  • 最终产出包含桌面、窗口管理器、状态栏、应用程序、VPN 管理器、中文字体支持、游戏库等完整组件
  • 生成配套文件约 4.8MB


Case 2:655 次迭代优化向量数据库

在向量数据库优化任务中,GLM-5.1 通过持续迭代完成性能提升。


任务结果:

  • 655 轮迭代
  • 持续进行 Benchmark 运行、瓶颈定位与方案调整
  • 优化路径覆盖全库扫描、IVF 分桶召回、半精度压缩、量化粗排、两级路由、提前剪枝等
  • 查询吞吐从 3108 QPS 提升至 21472 QPS
  • 相比初始正式版本提升 6.9 倍


Case 3:1000 轮工具调用优化真实机器学习负载

在 KernelBench Level 3 基准上,GLM-5.1 针对 50 个真实机器学习计算负载进行持续优化。


任务结果:

  • 超过 24 小时不间断迭代
  • 完成多轮编译、测试、分析、重写循环
  • 支持 Triton Kernel、CUDA Kernel、cuBLASLt epilogue 融合、shared memory tiling、CUDA Graph 等优化方式
  • 几何平均加速比达到 3.6 倍
  • 对比 torch.compile max-autotune 模式的 1.49 倍,提升更明显


以上三个场景共同指向同一个核心变量:真正决定模型能力的,并不是运行时长本身,而是额外的运行时间是否仍然有效。GLM-5.1 相较 GLM-5 将这一有效工作窗口显著地向后延伸,而 KernelBench 上仍然存在的差距也说明,长程优化依旧是一片有待开拓的前沿。


前路仍有诸多挑战:如何在增量调优不再奏效时更早跳出局部最优,如何在跨越数千次工具调用的执行轨迹中保持连贯性,以及,也是最重要的,如何在没有数值指标的任务上建立可靠的自我评估机制。GLM-5.1 是智谱团队在这个方向上迈出的第一步,后续仍会持续推进。


模型实战指引

以下开源框架支持 GLM-5.1 的本地部署:

  • SGLang (v0.5.10+):

https://cookbook.sglang.io/autoregressive/GLM/GLM-5.1


  • vLLM (v0.19.0+):

https://github.com/vllm-project/recipes/blob/main/GLM/GLM5.md


  • xLLM (v0.8.0+):

https://github.com/zai-org/GLM-5/blob/main/example/ascend.md


  • Transformers (v0.5.3+) :

https://github.com/huggingface/transformers/blob/main/docs/source/en/model_doc/glm_moe_dsa.md


  • KTransformers (v0.5.3+) :

https://github.com/kvcache-ai/ktransformers/blob/main/doc/en/kt-kernel/GLM-5.1-Tutorial.md


点击即可跳转模型合集

https://modelscope.cn/models/ZhipuAI/GLM-5.1


目录
相关文章
|
7天前
|
人工智能 数据可视化 安全
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
本文详解如何用阿里云Lighthouse一键部署OpenClaw,结合飞书CLI等工具,让AI真正“动手”——自动群发、生成科研日报、整理知识库。核心理念:未来软件应为AI而生,CLI即AI的“手脚”,实现高效、安全、可控的智能自动化。
34462 17
王炸组合!阿里云 OpenClaw X 飞书 CLI,开启 Agent 基建狂潮!(附带免费使用6个月服务器)
|
19天前
|
人工智能 JSON 机器人
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
本文带你零成本玩转OpenClaw:学生认证白嫖6个月阿里云服务器,手把手配置飞书机器人、接入免费/高性价比AI模型(NVIDIA/通义),并打造微信公众号“全自动分身”——实时抓热榜、AI选题拆解、一键发布草稿,5分钟完成热点→文章全流程!
45287 142
让龙虾成为你的“公众号分身” | 阿里云服务器玩Openclaw
|
8天前
|
人工智能 JSON 监控
Claude Code 源码泄露:一份价值亿元的 AI 工程公开课
我以为顶级 AI 产品的护城河是模型。读完这 51.2 万行泄露的源码,我发现自己错了。
4840 20
|
1天前
|
人工智能 自然语言处理 安全
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
本文介绍了Claude Code终端AI助手的使用指南,主要内容包括:1)常用命令如版本查看、项目启动和更新;2)三种工作模式切换及界面说明;3)核心功能指令速查表,包含初始化、压缩对话、清除历史等操作;4)详细解析了/init、/help、/clear、/compact、/memory等关键命令的使用场景和语法。文章通过丰富的界面截图和场景示例,帮助开发者快速掌握如何通过命令行和交互界面高效使用Claude Code进行项目开发,特别强调了CLAUDE.md文件作为项目知识库的核心作用。
1750 5
Claude Code 全攻略:命令大全 + 实战工作流(建议收藏)
|
7天前
|
人工智能 API 开发者
阿里云百炼 Coding Plan 售罄、Lite 停售、Pro 抢不到?最新解决方案
阿里云百炼Coding Plan Lite已停售,Pro版每日9:30限量抢购难度大。本文解析原因,并提供两大方案:①掌握技巧抢购Pro版;②直接使用百炼平台按量付费——新用户赠100万Tokens,支持Qwen3.5-Max等满血模型,灵活低成本。
1743 5
阿里云百炼 Coding Plan 售罄、Lite 停售、Pro 抢不到?最新解决方案

热门文章

最新文章