GLM-4.7开源!交出“生产级代码”

简介: 智谱今日发布并开源GLM-4.7,专注Coding场景,显著提升编程、推理与工具协同能力,在多项基准测试中位居开源模型前列。已上线z.ai与智谱清言,支持API调用。

今天,智谱 GLM-4.7上线并开源!新版本面向Coding场景强化了编码能力、长程任务规划与工具协同,并在多项主流公开基准测试中取得开源模型中的领先表现。


同步,GLM-4.7 已通过BigModel.cn提供API,并在z.ai全栈开发模式 中上线全新Skills模块,支持多模态任务的统一规划与协作执行。

Github:https://github.com/zai-org/GLM-4.5

模型:https://modelscope.cn/models/ZhipuAI/GLM-4.7

blog:https://z.ai/blog/glm-4.7

在线体验

z.ai:体验GLM-4.7全栈开发

智谱清言APP/网页版:体验GLM-4.7全新对话、创作与编程

API 接入

开放平台:BigModel.cn

GLM Coding Plan已升级GLM-4.7


Coding能力再提升

GLM-4.7在编程、推理与智能体三个维度实现突破:

  • 更强的编程能力显著提升了模型在多语言编码和在终端智能体中的效果;GLM-4.7现在可以在Claude Code、TRAE、Kilo Code、Cline和Roo Code等编程框架中实现“先思考、再行动”的机制,在复杂任务上有更稳定的表现。
  • 前端审美提升GLM-4.7在前端生成质量方面明显进步,能够生成观感更佳的网页、PPT 、海报。
  • 更强的工具调用能力GLM-4.7提升了工具调用能力,在BrowseComp网页任务评测中获得67.5分;在τ²-Bench交互式工具调用评测中实现87.4分的开源SOTA,超过Claude Sonnet 4.5。
  • 推理能力提升显著提升了数学和推理能力,在HLE("人类最后的考试")基准测试中获得42.8%的成绩,较GLM-4.6提升41%,超过GPT-5.1。
  • 通用能力增强GLM-4.7对话更简洁智能且富有人情味,写作与角色扮演更具文采与沉浸感。

Code Arena:全球百万用户参与盲测的专业编码评估系统,GLM-4.7位列开源第一、国产第一,超过GPT-5.2

在主流基准测试表现中,GLM-4.7的代码能力对齐Claude Sonnet 4.5:在SWE-bench-Verified获得73.8%的开源SOTA分数(相较GLM-4.6提升5.8%);在LiveCodeBench V6达到84.9的开源SOTA分数,超过Claude Sonnet 4.5;SWE-bench多语言版达到66.7%(提升12.9%);Terminal Bench 2.0达到41%(提升16.5%)。


真实编程场景下的体感提升

1.实际编程任务表现

在Claude Code环境中,我们对100个真实编程任务进行了测试,覆盖前端、后端与指令遵循等核心能力。结果显示,GLM-4.7相较GLM-4.6在稳定性与可交付性上均有明显提升。

随着编程能力的增强,开发者可以更自然地以“任务交付”为核心组织开发流程,形成从需求理解到落地实现的端到端闭环。

2.思考能力的可控进化

GLM-4.7进一步强化了GLM-4.5以来就支持的交错式思考能力,引入保留式思考轮级思考,使复杂任务执行更稳、更可控。

  • 交错式思考:每次回答/工具调用前都会思考,提升复杂指令的遵循能力和代码生成质量。
  • 保留式思考:多轮对话中自动保留思考块,提升缓存命中率,降低成本,适合长程复杂任务。
  • 轮级思考:支持在同一会话内按“轮”控制推理开销——简单任务可关闭思考以降低时延,复杂任务可开启思考以提升准确性与稳定性。

相关参考文档:https://docs.bigmodel.cn/cn/guide/capabilities/thinking-mode

3.综合任务执行能力

GLM-4.7在复杂任务中展现出更强的任务拆解与技术栈整合能力,能够一次性给出完整、可运行的代码,并明确关键依赖与运行步骤,显著减少人工调试成本。

此处为语雀视频卡片,点击链接查看:0bc374aeiaaalyac5ncjdruvb76dit7qaraa.f10002.mp4

案例展示由GLM-4.7独立完成的高交互小游戏,如植物大战僵尸、水果忍者。

4.前端审美提升

GLM-4.7增强了对视觉代码的理解。在前端设计中,它能更好地理解UI设计规范,在布局结构、配色和谐度及组件样式上提供更具美感的默认方案,从而减少开发者在样式“微调”上花费的时间。

此处为语雀视频卡片,点击链接查看:0b2e5uac6aaatmaeko2j2buvb3odf7wqalya.f10002.mp4

GLM-4.7在办公创作中版式与审美显著升级,PPT 16:9适配率从52%跃升至91%,生成结果基本“即开即用”;海报设计的排版与配色更加灵活,具备设计感。

此处为语雀视频卡片,点击链接查看:0bc3ayaemaaam4ac3a2jevuvabwdiydaarqa.f10002.mp4

GLM Coding Plan

GLM Coding Plan已更新GLM-4.7,为开发者提供性能、速度与价格的最优组合。

  • Claude Code全面支持思考模式,复杂任务连续推理与执行更稳定
  • 针对编程工具里的Skills/Subagent/Claude.md等关键能力定向优化,工具调用成功率高、链路可靠
  • Claude Code中视觉理解能力开箱即用;内置搜索与网页读取,信息获取到代码落地一站闭环
  • 架构设计与指令遵循更强,明显降低长上下文下的“幻觉式完成/跑偏”,交付质量更可控


作为本次升级的首个体验权益,所有购买套餐的用户将获得「体验卡」礼包,可邀请3–7位新用户免费体验7天套餐权益。


领取链接:https://www.bigmodel.cn/usercenter/glm-coding/overview


来自全球开发者社区的反馈印证了GLM畅快的Coding体验。


  • TRAE:“前序版本GLM-4.6上线后,为TRAE用户提供了稳定的编程辅助支持,助力用户高效解决各类编程需求,并且凭借稳定表现,成为TRAE用户的主流模型选择之一。GLM-4.7模型现已上线TRAE中国版,开发者可在内置模型列表直接选用。”
  • Cerebras:“GLM-4.6在Cerebras硬件上能够达到无与伦比的1000 t/s速度,为全球开发者提供了世界上最优质的编码体验之一。”
  • YouWare:“在我们的Vibe Coding产品YouWare的基准数据集上,GLM-4.7相比上一代模型在前端设计美学、复杂功能完成度、工具并发和指令遵循等方面均有明显提升,同时推理速度更快、token效率更高,整体任务端到端完成度、稳定性大幅增强。”


此外,Vercel、OpenRouter、CodeBuddy等平台与开发者也对GLM Coding Plan给予高度评价。


点击直达模型链接:https://modelscope.cn/models/ZhipuAI/GLM-4.7



目录
相关文章
|
7天前
|
数据采集 人工智能 安全
|
17天前
|
云安全 监控 安全
|
3天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:七十、小树成林,聚沙成塔:随机森林与大模型的协同进化
随机森林是一种基于决策树的集成学习算法,通过构建多棵决策树并结合它们的预测结果来提高准确性和稳定性。其核心思想包括两个随机性:Bootstrap采样(每棵树使用不同的训练子集)和特征随机选择(每棵树分裂时只考虑部分特征)。这种方法能有效处理大规模高维数据,避免过拟合,并评估特征重要性。随机森林的超参数如树的数量、最大深度等可通过网格搜索优化。该算法兼具强大预测能力和工程化优势,是机器学习中的常用基础模型。
285 164
|
2天前
|
机器学习/深度学习 自然语言处理 机器人
阿里云百炼大模型赋能|打造企业级电话智能体与智能呼叫中心完整方案
畅信达基于阿里云百炼大模型推出MVB2000V5智能呼叫中心方案,融合LLM与MRCP+WebSocket技术,实现语音识别率超95%、低延迟交互。通过电话智能体与座席助手协同,自动化处理80%咨询,降本增效显著,适配金融、电商、医疗等多行业场景。
291 155
|
4天前
|
机器学习/深度学习 人工智能 前端开发
构建AI智能体:六十九、Bootstrap采样在大模型评估中的应用:从置信区间到模型稳定性
Bootstrap采样是一种通过有放回重抽样来评估模型性能的统计方法。它通过从原始数据集中随机抽取样本形成多个Bootstrap数据集,计算统计量(如均值、标准差)的分布,适用于小样本和非参数场景。该方法能估计标准误、构建置信区间,并量化模型不确定性,但对计算资源要求较高。Bootstrap特别适合评估大模型的泛化能力和稳定性,在集成学习、假设检验等领域也有广泛应用。与传统方法相比,Bootstrap不依赖分布假设,在非正态数据中表现更稳健。
219 113
|
10天前
|
SQL 自然语言处理 调度
Agent Skills 的一次工程实践
**本文采用 Agent Skills 实现整体智能体**,开发框架采用 AgentScope,模型使用 **qwen3-max**。Agent Skills 是 Anthropic 新推出的一种有别于mcp server的一种开发方式,用于为 AI **引入可共享的专业技能**。经验封装到**可发现、可复用的能力单元**中,每个技能以文件夹形式存在,包含特定任务的指导性说明(SKILL.md 文件)、脚本代码和资源等 。大模型可以根据需要动态加载这些技能,从而扩展自身的功能。目前不少国内外的一些框架也开始支持此种的开发方式,详细介绍如下。
763 5