Qwen3.5:迈向原生多模态智能体

简介: 除夕夜,通义千问发布Qwen3.5-397B-A17B:全球首个原生多模态MoE大模型,总参3970亿、仅激活170亿参数,性能媲美万亿模型;支持201种语言、超强视觉理解与GUI智能体能力,已开源至GitHub与ModelScope。

除夕夜的饺子刚端上桌,通义千问 Qwen 团队就为全球开源社区奉上了一份技术厚礼——正式发布 Qwen3.5 系列,并同步开源其首款权重模型:Qwen3.5-397B-A17B


Qwen3.5-397B-A17B 是一款原生视觉-语言模型(Native Multimodality),在保持 3970 亿总参数规模的同时,通过创新的架构设计实现了仅 170 亿的单次激活参数。这意味着,开发者现在可以用更低的推理成本,获得比肩甚至超越万亿级(1T+)模型的性能体验。


模型资源


模型核心亮点

对于开发者而言,Qwen3.5-397B-A17B 最直观的冲击力在于其极致的效能比,以 17B 的激活量,挑战 1T 的极限

  • 稀疏混合专家架构(MoE)的进化:总参数 397B,但前向传播仅激活 17B。这种超高稀疏度使得它在显存占用与计算延迟之间取得了微妙的平衡。
  • 性能跨代持平:在预训练阶段,Qwen3.5-397B-A17B 在中英文、多语言、STEM 及逻辑推理等全维度基准测试中,表现与参数量超过 1T 的 Qwen3-Max-Base 旗鼓相当。
  • 多模态原生化:不同于传统的“外挂”视觉模块,Qwen3.5 实现了早期的文本-视觉深度融合,在视觉理解与视频处理能力上全面超越了同规模的 Qwen3-VL。
  • 多语言支持:语言与方言支持从 119 种激增至 201 种。配合全新的 25 万词表(此前为 15 万),在大多数语言上的编解码效率提升了 10%–60%,极大地优化了多语言场景下的推理速度。


模型效果实例

具备 agent 能力的 Qwen3.5 能够结合多模态做到边思考、边搜索、边调用工具


Think, search, and create

📎0bc3oab4iaadsuandmuqlvuvg4gdyryahraa.f10002.mp4

代码及智能体

网页开发

Qwen3.5 可以协助进行网页开发,尤其在构建网页和设计用户界面等前端任务方面表现出色。它能够将简单的指令转化为可运行的代码,让网站创建变得更加轻松高效

📎0bc3hebhcaacamagdtmrevuveoodoe4qe4ia.f10002.mp4

📎0b2ejibikaacvmajkjer5ruveswdqvfafbia.f10002.mp4

OpenClaw

Qwen3.5 可与 OpenClaw 集成,驱动编程任务。通过将 OpenClaw 作为第三方智能体环境集成,Qwen3.5 能够进行网页搜索、信息收集和结构化报告生成——它结合自身的推理与工具调用能力,以及 OpenClaw 的接口,为用户带来流畅的编码和研究体验。

📎0bc3deat2aabuyacqrestvuvcgodhumqcpia.f10002.mp4

输出pdf预览 ⬇️

完整pdf文档详见官方blog示例:
https://qwen.ai/blog?id=qwen3.5#openclaw


视觉智能体

GUI 智能体

Qwen3.5 可作为视觉智能体,自主操作手机与电脑完成日常任务。在移动端,它已适配更多主流应用,支持自然语言指令驱动操作;在 PC 端,能处理跨应用的数据整理、多步骤流程自动化等复杂任务,有效减少重复性人工干预,提升工作效率。

prompt:Fill the missing rows and columns which show the total value

📎0bc3d4atmaabeuacao4stnuvch6dgypqcnqa.f10002.mp4

excel

视觉编程

Qwen3.5 能将手绘界面草图转化为结构清晰的前端代码,对简单游戏视频进行逻辑还原,或将长视频内容自动提炼为结构化网页或可视化图表,降低创意到实现的门槛。


input:

prompt:复刻这个小游戏的 HTML 代码

📎0bc3fiacyaaabiadxe4tv5uvakwdfqvaalaa.f10002.mp4

output:

📎0b2ezmaz2aabsyaiu7usk5uvds6dtxfqdhia.f10002.mp4


空间智能

借助对图像像素级位置信息的建模,Qwen3.5 在物体计数、相对位置判断、空间关系描述等任务中表现更准确。它能有效缓解因视角变化或遮挡导致的误判,在自动驾驶场景理解、机器人导航等具身智能应用中展现出良好的空间感知潜力。


input:

prompt:我的车在什么时候并线的,又在什么时候开始右转的

📎0bc34maa4aaameabgsutszuvby6db3rqadqa.f10002.mp4

output:

<think>
用户希望知道两个具体的时间点:
并线(变道)的时间:车辆从当前车道移动到右侧车道(或出口匝道)的时间。
开始右转的时间:车辆开始进行明显的右转动作的时间。
分析视频:
00:00 - 00:05: 车辆在高速公路上行驶,前方有一辆卡车。路面湿滑,有雾。车辆保持在当前车道(看起来是右侧车道,或者正在接近出口)。
00:05 - 00:06: 车辆开始向右移动。可以看到车道线(虚线)在车辆左侧,车辆正在跨越这条线进入右侧的出口匝道区域。这是一个并线动作。
00:06 - 00:08: 车辆完全进入了右侧的匝道/出口车道。此时车辆基本直行,沿着匝道走。
00:08 - 00:09: 车辆继续沿着匝道行驶,前方有红白相间的警示牌。
00:09 - 00:10: 车辆开始明显向右转弯。之前的行驶方向比较直,现在车头明显指向右侧的停车场/休息区入口。
00:10 - 00:13: 车辆正在转弯进入休息区。可以看到蓝色的停车标志(P)。
00:13 - 00:19: 车辆已经在休息区内行驶,寻找停车位。
确定时间点:
并线 (Lane Change):
在 00:05 左右,车辆开始向右偏离主路,跨越虚线。
到 00:06 时,车辆已经明显进入了右侧的出口车道。
所以并线发生在 00:05 - 00:06 之间。
开始右转 (Start Turning Right):
在 00:08 之前,车辆主要是在沿着出口匝道直行。
在 00:08 - 00:09 之间,车辆经过了红白警示牌,开始向右打方向进入休息区内部道路。
最明显的右转动作开始于 00:09,此时车头明显向右偏转,进入有蓝色指示牌的区域。
所以开始右转发生在 00:09 左右。
综合结论:
并线:约 00:05
右转:约 00:09
再仔细看一下并线。 00:00-00:04 车在行车道。 00:05 车开始向右靠,压过虚线。这是并线出主路。 00:06-00:08 车在减速车道/匝道上直行。 00:09 车头明显向右转,进入服务区/停车场。
所以: 并线时间:00:05 右转时间:00:09
让我们再精确一点。 00:05 时,车辆开始向右移动,跨越车道线。 00:09 时,车辆经过路口,明显向右转弯进入停车场区域。
最终回答构建: 并线发生在 00:05。 右转发生在 00:09。
</think>
根据视频画面分析:
并线时间:您的车在 00:05 开始向右并线,驶离主路进入出口匝道。此时可以看到车辆跨越了白色的虚线车道分隔线。
开始右转时间:您的车在 00:09 开始明显右转。此时车辆已经通过了红白相间的警示牌,车头向右偏转,准备进入右侧的停车/休息区域(可以看到蓝色的“P”字指示牌)。

更多带图推理、视觉推理示例详见blog Demo

https://qwen.ai/blog?id=qwen3.5#demo


技术路线

架构创新:Gated DeltaNet 与 MoE 的融合

模型基于 Qwen3-Next 架构,创新性地将线性注意力机制与稀疏混合专家架构相结合。

混合注意力机制:引入 Gated DeltaNet + Gated Attention,在提升模型长文本建模能力的同时,优化了计算稳定性。

高稀疏度 MoE:通过提高专家网络的稀疏度,在保证性能的前提下大幅降低了计算冗余。

这种混合架构设计,是其在 BFCL-V4、VITA-Bench、DeepPlanning 等全方位基准评测中表现优异的底层逻辑。

预训练:三维度推进

Qwen 团队从能力、效率与通用性三个维度重构了预训练流程:

能力:在更大规模的视觉-文本语料上训练,并加强中英文、多语言、STEM 与推理数据,采用更严格的过滤,实现跨代持平:Qwen3.5-397B-A17B 与参数量超过 1T 的 Qwen3-Max-Base 表现相当。

效率:基于 Qwen3-Next 架构——更高稀疏度的 MoE、Gated DeltaNet + Gated Attention 混合注意力、稳定性优化与多 token 预测。在 32k/256k 上下文长度下,Qwen3.5-397B-A17B 的解码吞吐量分别是 Qwen3-Max 的 8.6 倍/19.0 倍,且性能相当。Qwen3.5-397B-A17B 的解码吞吐量分别是 Qwen3-235B-A22B 的 3.5 倍/7.2 倍。

通用性:通过早期文本-视觉融合与扩展的视觉/STEM/视频数据实现原生多模态,在相近规模下优于 Qwen3-VL。多语言覆盖从 119 增至 201 种语言/方言;25 万词表(vs. 15 万)在多数语言上带来约 10–60% 的编码/解码效率提升。

后训练:强化学习的 Scaling Law

官方Blog提到,相比 Qwen3 系列,Qwen3.5 的 Post-training 性能提升主要归功于强化学习(RL)任务和环境的全面扩展。团队不再局限于针对特定指标或狭窄类别的 query 进行优化,而是更加强调 RL 环境的难度与可泛化性。实验证明,随着 RL Environment 的 scaling,模型在通用 Agent 能力上获得了显著增益。这种“授人以渔”的训练策略,使得模型在 Tool-Decathlon、MCP-Mark 等工具调用与规划任务上表现突出。


基础设施

为了支撑如此复杂的原生多模态模型训练,Qwen 团队在基础设施层进行了全栈优化。

异构并行与计算重叠

原生多模态训练最大的痛点在于视觉与语言组件的计算模式差异。Qwen3.5 采用了解耦的并行策略,在混合文本、图像、视频数据时,利用稀疏激活技术实现了跨模块的计算重叠。这一优化使得多模态训练的吞吐量几乎等同于纯文本基线,达到了近 100% 的硬件利用率。


异步强化学习框架

针对大尺寸模型的 RL 训练,团队构建了可扩展的异步框架:

  • 训推分离架构:通过解耦设计,支持百万级规模的 Agent 环境交互,显著提升硬件利用率。
  • 技术组合拳:引入投机采样(Speculative Sampling)、Rollout 路由回放和多轮 Rollout 锁定技术,将端到端训练速度提升了 3x–5x。

这种设计不仅消除了框架层的调度中断,更通过算法与系统的协同设计,有效缓解了 RL 训练中的数据长尾问题,提高了训练曲线的平滑度。



模型部署实践

SGLang

Qwen3.5 需要使用开源仓库主分支中的 SGLang,可在全新环境中通过以下命令安装:

uv pip install 'git+https://github.com/sgl-project/sglang.git#subdirectory=python&egg=sglang[all]'


以下命令将在 http://localhost:8000/v1 创建 API 端点:

标准版:以下命令可使用 8 块 GPU 上的张量并行创建最大上下文长度为 262,144 tokens 的 API 端点。

SGLANG_USE_MODELSCOPE=true python -m sglang.launch_server --model-path Qwen/Qwen3.5-397B-A17B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3


工具调用:若需支持工具调用,可使用以下命令。

SGLANG_USE_MODELSCOPE=true python -m sglang.launch_server --model-path Qwen/Qwen3.5-397B-A17B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --tool-call-parser qwen3_coder


多 Token 预测(MTP):推荐使用以下命令启用 MTP:

SGLANG_USE_MODELSCOPE=true python -m sglang.launch_server --model-path Qwen/Qwen3.5-397B-A17B --port 8000 --tp-size 8 --mem-fraction-static 0.8 --context-length 262144 --reasoning-parser qwen3 --speculative-algo NEXTN --speculative-num-steps 3 --speculative-eagle-topk 1 --speculative-num-draft-tokens 4


vLLM
Qwen3.5 需要使用开源仓库主分支中的 vLLM,可在全新环境中通过以下命令安装:

uv pip install vllm --torch-backend=auto --extra-index-url https://wheels.vllm.ai/nightly

以下命令将在 http://localhost:8000/v1 创建 API 端点:

标准版本:以下命令可用于在 8 块 GPU 上使用张量并行(tensor parallel)创建一个最大上下文长度为 262,144 个 token 的 API 端点。


VLLM_USE_MODELSCOPE=true vllm serve Qwen/Qwen3.5-397B-A17B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3

工具调用(Tool Call):若需支持工具使用,可使用以下命令。

VLLM_USE_MODELSCOPE=true vllm serve Qwen/Qwen3.5-397B-A17B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --enable-auto-tool-choice --tool-call-parser qwen3_coder

多 Token 预测(MTP):推荐使用以下命令启用 MTP:

VLLM_USE_MODELSCOPE=true vllm serve Qwen/Qwen3.5-397B-A17B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --speculative-config '{"method":"qwen3_next_mtp","num_speculative_tokens":2}'

纯文本模式(Text-Only):以下命令会跳过视觉编码器和多模态分析,以释放内存用于额外的 KV 缓存:

VLLM_USE_MODELSCOPE=true vllm serve Qwen/Qwen3.5-397B-A17B --port 8000 --tensor-parallel-size 8 --max-model-len 262144 --reasoning-parser qwen3 --language-model-only


ModelScope API-Inference

ModelScope API-Inference已第一时间接入了 Qwen3.5-397B-A17B 的调用,社区提供免费调用额度,欢迎体验

调用示例代码:

from openai import OpenAI
client = OpenAI(
    base_url='https://api-inference.modelscope.cn/v1',
    api_key='<MODELSCOPE_TOKEN>', # ModelScope Token
)
response = client.chat.completions.create(
    model='Qwen/Qwen3.5-397B-A17B', # ModelScope Model-Id, required
    messages=[{
        'role':
            'user',
        'content': [{
            'type': 'text',
            'text': '描述这幅图',
        }, {
            'type': 'image_url',
            'image_url': {
                'url':
                    'https://modelscope.oss-cn-beijing.aliyuncs.com/demo/images/audrey_hepburn.jpg',
            },
        }],
    }],
    stream=True
)
for chunk in response:
    if chunk.choices:
        print(chunk.choices[0].delta.content, end='', flush=True)


本次 Qwen3.5-397B-A17B 的推出:

突破了超大规模模型的推理成本难题:通过 17B 的激活参数实现 1T 的性能,Qwen3.5 证明了架构优化比单纯堆砌参数更有前景。它让中型开发者团队也有机会在本地或私有云上部署顶级性能的多模态模型。

开启了原生多模态的普及化:早期融合的架构让模型在处理图文混合任务时不再有“割裂感”,为构建下一代视觉助手、多模态 Agent 提供了最坚实的底座。

展现了强化学习的工程化典范:Qwen 团队展示了如何通过构建可扩展的 RL 环境来提升模型的逻辑上限,这为社区探索 O1 之外的推理提升路径提供了宝贵的经验。


点击即可跳转模型链接:https://www.modelscope.cn/models/Qwen/Qwen3.5-397B-A17B


目录
相关文章
|
17天前
|
机器学习/深度学习 测试技术 API
Qwen3.5 中等规模模型系列正式开源:更强智能,更低算力
通义千问Qwen3.5发布四款中等规模多模态模型,支持256K原生上下文(可扩至1M)、201种语言及统一视觉语言训练。凭借Gated Delta+MoE混合架构与百万Agent强化学习,35B-A3B仅激活3B参数即超越旧旗舰,性能、效率与部署成本兼具。(239字)
3135 23
|
19天前
|
机器学习/深度学习 存储 自然语言处理
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
Ling-2.5-1T是蚂蚁集团inclusionAI推出的开源即时大模型(MIT协议),以“效率×效果”为核心:万亿参数、63B激活,首创混合线性注意力架构,支持百万token上下文;推理吞吐大幅提升,AIME任务仅需1/3 token即达前沿思考模型水平。ModelScope可下载。
386 4
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
|
1月前
|
机器学习/深度学习 自然语言处理 搜索推荐
蚂蚁百灵全模态 Ming-flash-omni-2.0 开源!视觉百科+可控语音生成+全能型图像编辑,打破全模态“博而不精”
2月11日,蚂蚁百灵团队开源全模态大模型Ming-flash-omni-2.0(基于Ling-2.0 MoE架构),在视觉理解、语音交互与图像编辑三大领域实现代际跃迁,达开源领先水平。支持多模态统一生成与深度编辑,模型权重与代码已开放。
477 4
 蚂蚁百灵全模态 Ming-flash-omni-2.0 开源!视觉百科+可控语音生成+全能型图像编辑,打破全模态“博而不精”
|
14天前
|
机器学习/深度学习 人工智能 自然语言处理
以小胜大!千问Qwen3.5重磅发布,每百万Token仅0.8元
阿里巴巴开源全新一代千问Qwen3.5-Plus,全球最强开源大模型:3970亿参数、仅激活170亿,原生多模态,支持图文视频理解与视觉编程;推理吞吐量最高提升19倍,API价格低至0.8元/百万Token。
|
26天前
|
机器学习/深度学习 人工智能 自然语言处理
除夕夜,国产顶流压轴上线,QWEN3.5多模态开源!
加我进AI讨论学习群,公众号右下角“联系方式” 文末有老金的 **开源知识库地址·全免费** --- ![Image](https://ucc.alicdn.com/pic/developer-ecology/p3shvhj26rigq_682da514f2d84d68857b797ebe2fbced.jpg) 除夕夜,老金我刚咬了一口韭菜鸡蛋饺子。 手机"叮"的一声,弹出个通知。 老金我瞄
|
18天前
|
机器学习/深度学习 人工智能 编解码
四款国产VLM OCR模型横评
春节前,DeepSeek、智谱、百度、腾讯四大团队密集开源新一代OCR小模型,全面采用视觉语言模型(VLM)架构,摒弃传统流水线,迈向“语义结构化”新纪元。DeepSeek-OCR2首创“视觉因果流”,GLM-OCR以0.9B参数登顶OmniDocBench榜首,PaddleOCR-VL-1.5攻克真实退化场景,Youtu-Parsing实现22倍推理加速——国产OCR正以架构创新实现垂直领域“换道超车”。
342 4
|
17天前
|
机器学习/深度学习 API
Qwen3.5 开源家族扩容!
通义千问Qwen3.5系列重磅开源:含397B、122B、35B、27B四款模型,覆盖高性能与高性价比场景;新增Qwen3.5-Flash API,支持百万token上下文及原生工具链,已在阿里云百炼上线。
1811 4
|
12天前
|
API 异构计算
计算巢模型市场支持一键部署Qwen3.5模型
Qwen3.5是阿里云全新多模态大模型,3970亿参数、仅激活170亿,支持256K上下文(可扩至1M)、201种语言及视觉理解与Agent能力,性能媲美顶级闭源模型,登顶最强开源大模型。计算巢一键部署,支持SGLang/vLLM,即开即用。
|
18天前
|
自然语言处理 前端开发 测试技术
魔搭社区+OpenVINO™ 加速部署 Qwen3-ASR 实战
通义千问新推Qwen3-ASR语音识别模型(1.7B/0.6B),支持52种语言及方言,具备高鲁棒性与流式长音频转写能力。联合魔搭社区与Intel® OpenVINO™,实现Intel平台极致加速部署,提供完整开源教程、Notebook示例及Gradio交互Demo。(239字)
649 6
|
18天前
|
机器学习/深度学习 JSON 文字识别
0.9B 小模型,OCR 大能力——GLM-OCR 模型实战教程
智谱开源多模态OCR模型GLM-OCR,基于GLM-V架构,融合CogViT视觉编码器与GLM-0.5B语言解码器,支持公式、表格、代码等复杂文档识别,性能达OmniDocBench榜首(94.62分),仅0.9B参数,轻量高效,开箱即用。
706 3

热门文章

最新文章