MiniMax M2.7开源: 模型开始迭代自己了!

简介: MiniMax M2.7正式开源!作为M2系列新一代旗舰,首次实现“模型参与自我迭代”范式:自主驱动RL训练、优化Harness架构。软件工程(SWE-Pro 56.22%)、专业办公(GDPval-AA ELO 1495)、互动娱乐能力全面跃升,支持SGLang/vLLM/Transformers本地部署。

MiniMax M2.7 正式开源权重。这是MiniMax M2 系列在 M2.5 之后的新一代旗舰!这一次的突破不只是跑分数字的提升,而是一个真正意义上参与迭代自身的模型的诞生。


资源链接:

  • ModelScope:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7
  • MiniMax Agent: https://agent.minimax.io/
  • MiniMax API: https://platform.minimax.io/
  • Token Plan: https://platform.minimax.io/subscribe/token-plan


M2.7的核心突破

如果用一句话概括 M2.7:它不只是一个更强的模型,而是一个开始"进化自己"的模型。


M2 系列在 108 天内完成了 M2 → M2.1 → M2.5 的三连更,而 M2.7 带来了新的范式转变:MiniMax 在研发过程中,直接让 M2.7 参与构建强化学习 Harness 中的数十个复杂 Skills,更新自己的 memory,驱动自身的 RL 训练循环,并基于结果持续优化 Harness 架构——模型开始成为迭代自己的工具


三大核心能力:

软件工程: SWE-Pro 达到 56.22%,追平 GPT-5.3-Codex,VIBE-Pro 55.6% 接近 Opus 4.6 水平,Terminal Bench 2 达到 57.0%,覆盖日志分析、Bug 定位、代码安全、机器学习、安卓开发等真实工程场景。


专业办公: GDPval-AA 的 ELO 得分 1495,开源模型最高。Excel/PPT/Word 复杂编辑能力显著提升,支持多轮修改和高保真编辑。Toolathon 正确率 46.3% 达全球第一梯队,40 个复杂 skills(>2000 Token)场景下仍保持 97% 遵循率。


互动娱乐: 极大加强人设保持和对话能力,并发布开源项目 OpenRoom,探索 AI 驱动的全新人机互动方式。

技术解析:模型如何自我进化?

M2.7 最核心的技术突破是让模型真正参与驱动自身的迭代循环,这是此前所有版本都未曾实现的范式。


MiniMax 构建了一个研究型 Agent Harness,覆盖数据流水线、训练环境、评测基础设施和持久化记忆。以一个 RL 实验场景为例:

研究员从一个实验想法出发,与 Agent 展开讨论 → Agent 协助文献调研 → 持续跟踪实验规格 → 完成数据流水线对接并启动实验 → 实验运行期间自动监控日志、排查问题、分析指标、修复代码、提 MR、做冒烟测试——过去需要跨团队多人协作的工作,研究员只需在关键决策节点介入。

在 MLE Bench Lite 的 22 个机器学习任务测试中,M2.7 三次测试平均得牌率 66.6%,与 Gemini-3.1 持平,仅次于 Opus-4.6(75.7%)和 GPT-5.4(71.2%)。最好的一次取得 9 枚金牌、5 枚银牌、1 枚铜牌

本地部署

下载模型

modelscope download --model MiniMax/MiniMax-M2.7


SGLang推理

环境安装

uv venv
source .venv/bin/activate
uv pip install sglang


4-GPU部署命令

python -m sglang.launch_server \
    --model-path MiniMaxAI/MiniMax-M2.7 \
    --tp-size 4 \
    --tool-call-parser minimax-m2 \
    --reasoning-parser minimax-append-think \
    --host 0.0.0.0 \
    --trust-remote-code \
    --port 8000 \
    --mem-fraction-static 0.85

SGLang推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fsglang_deploy_guide.md?status=1

vLLM推理

环境安装

uv venv
source .venv/bin/activate
uv pip install vllm --torch-backend=auto


4-GPU推理命令

SAFETENSORS_FAST_GPU=1 vllm serve \
    MiniMaxAI/MiniMax-M2.7 --trust-remote-code \
    --tensor-parallel-size 4 \
    --enable-auto-tool-choice --tool-call-parser minimax_m2 \
    --reasoning-parser minimax_m2_append_think

vLLM推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Fvllm_deploy_guide.md?status=1

Transformers推理

环境安装:

uv pip install transformers==4.57.1 torch accelerate --torch-backend=auto


推理脚本

from transformers import AutoModelForCausalLM, AutoTokenizer, GenerationConfig
import torch
MODEL_PATH = "MiniMaxAI/MiniMax-M2.7"
model = AutoModelForCausalLM.from_pretrained(
    MODEL_PATH,
    device_map="auto",
    trust_remote_code=True,
)
tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH)
messages = [
    {"role": "user", "content": [{"type": "text", "text": "What is your favourite condiment?"}]},
    {"role": "assistant", "content": [{"type": "text", "text": "Well, I'm quite partial to a good squeeze of fresh lemon juice. It adds just the right amount of zesty flavour to whatever I'm cooking up in the kitchen!"}]},
    {"role": "user", "content": [{"type": "text", "text": "Do you have mayonnaise recipes?"}]}
]
model_inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
generated_ids = model.generate(model_inputs, max_new_tokens=100, generation_config=model.generation_config)
response = tokenizer.batch_decode(generated_ids)[0]
print(response)

Transformers推理指南:https://www.modelscope.cn/models/MiniMax/MiniMax-M2.7/file/view/master/docs%2Ftransformers_deploy_guide.md?status=1


点击即可跳转模型链接~

https://modelscope.cn/models/MiniMax/MiniMax-M2.7


目录
相关文章
|
10天前
|
人工智能 测试技术 Apache
Gemma 4 开源发布: Google 迄今最强开放模型,主打推理与 Agent 能力
Google正式开源Gemma 4系列(Apache 2.0许可),含E2B/E4B(端侧多模态)、26B MoE与31B Dense四款模型。参数效率卓越:31B位列开放模型榜第3,26B第6;边缘模型支持128K上下文、原生音视频处理,单卡/手机均可高效运行。
737 12
Gemma 4 开源发布: Google 迄今最强开放模型,主打推理与 Agent 能力
|
2月前
|
机器学习/深度学习 存储 自然语言处理
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
Ling-2.5-1T是蚂蚁集团inclusionAI推出的开源即时大模型(MIT协议),以“效率×效果”为核心:万亿参数、63B激活,首创混合线性注意力架构,支持百万token上下文;推理吞吐大幅提升,AIME任务仅需1/3 token即达前沿思考模型水平。ModelScope可下载。
607 4
蚂蚁集团 Ling-2.5-1T 开源:万亿参数,重新定义"又快又强"
|
5天前
|
人工智能 测试技术 API
DeepSeek V4,真要把 AI 圈再掀一遍吗?
截至2026年4月12日,DeepSeek V4尚未官宣,但社区盛传其达万亿参数、100万上下文、原生多模态,激活仅370亿参数,推理成本低至GPT-4的1/70,或支持双4090本地部署——若属实,将重塑AI性价比格局。
289 2
|
1月前
|
机器学习/深度学习 开发者 内存技术
阶跃星辰 Step 3.5 Flash 预训练/中训练/训练框架全部开源!
阶跃星辰开源Step 3.5 Flash——迄今最强开源Agent基座模型,含Base/Midtrain权重及Steptron全栈训练框架,支持预训练、SFT与强化学习,专为智能体设计。已登OpenRouter榜首,获社区广泛好评。(239字)
489 22
|
24天前
|
人工智能 NoSQL Linux
阿里云/本地部署OpenClaw,集成MiniMax-M2.7 +MTS架构,企业级复杂项目实战步骤流程
在AI Agent进入工程化落地的2026年,模型能力、工具调度效率、系统稳定性、成本控制共同决定复杂项目能否落地。MiniMax于3月推出的M2.7模型,在SWE-Pro、Terminal Bench、VIBE-Pro等工程向指标达到第一梯队水平,同时以0.30美元/百万token的定价实现极致性价比,非常适合微服务密集、事务复杂、调用量大的企业级系统。本文基于超百万行代码的工程ERP定制项目,完整讲解M2.7模型实测表现、自研MTS毫秒级工具侧载架构、与OpenClaw的深度集成方式,并提供2026年阿里云部署、MacOS/Linux/Windows11本地部署OpenClaw流程,以及阿
831 1
|
10天前
|
机器学习/深度学习 自然语言处理 算法
OpAgent开源:登顶 WebArena,蚂蚁集团开源全模态网页智能体
蚂蚁集团推出Web智能体OpAgent,仅凭自然语言指令即可在真实网站(如亚马逊)自主完成搜索、识别、加购等复杂操作。其采用视觉驱动理解、在线强化学习与模块化协作架构,在WebArena基准达71.6%任务成功率,刷新SOTA。已开源OpAgent-32B-INT4量化模型,显著降低推理门槛。
160 3
OpAgent开源:登顶 WebArena,蚂蚁集团开源全模态网页智能体
|
7天前
|
人工智能 自然语言处理 安全
别再乱装了!OpenClaw 中文版一键部署,Windows 免配置直用(包含新安装包)
告别报错和复杂教程,这款 OpenClaw 汉化一键包自带完整运行环境,安装即汉化,无需手动修改任何文件,真正开箱即用。
|
7天前
|
存储 人工智能 安全
Hermes Agent爆火,聊聊与OpenClaw 到底区别在哪
本文对比近期爆火的Hermes Agent与OpenClaw两大AI Agent框架,从设计理念、记忆系统、技能生成、安全机制等维度解析差异,分析适用场景与互补用法,帮你快速判断哪款更适合自己的自动化需求。
1230 8

热门文章

最新文章

下一篇
开通oss服务