MCP云托管最优解,揭秘国内最大MCP中文社区背后的运行时

简介: 近期,中国第一 AI 开源社区魔搭(ModelScope)推出全新 MCP 广场,上架千余款热门的 MCP 服务。从当下火热的高德地图、网页抓取再到独家的支付宝,开发者/机构可以查看近 1500 种 MCP 的功能与应用场景,并通过 MCP 实验场直接上手使用。魔搭的加入无疑对国内 MCP 的发展开启了加速键。

1.gif

作者:封崇


近期,中国第一 AI 开源社区魔搭(ModelScope)推出全新 MCP 广场,上架千余款热门的 MCP 服务。从当下火热的高德地图、网页抓取再到独家的支付宝,开发者/机构可以查看近 1500 种 MCP 的功能与应用场景,并通过 MCP 实验场直接上手使用。魔搭的加入无疑对国内 MCP 的发展开启了加速键。


既支持阿里云百炼 MCP 服务之后,作为云上托管 MCP 服务的最佳运行时,函数计算 FC 为魔搭(ModelScope)MCP 提供弹性调用能力,实现开源 MCP Server 一键托管到云上,函数计算 FC 会准备好计算资源,并以弹性、可靠的方式运行 MCP 服务,按实际调用时长和次数计费,用户可以直接访问函数计算交付的 SSE 服务。欢迎您在魔搭(ModelScope)和函数计算 FC 上体验 MCP 服务。


云上托管 MCP 服务有什么挑战?


要回答这个问题,首先请跟着我在 ModelScope MCP 广场上创建一个 MCP 服务,并测试,对比自建 MCP 服务,你发现了什么?


1. 在 ModelScope MCP 广场,选择一个 MCP 服务(比如高德地图)


1.png


2. 输入高德地图的 API-Key,点击链接


2.png


大概 1s 左右时间,魔搭 MCP 就交付了一个 SSE 地址,可以用于在 client 进行测试


3.png


3. 添加 MCP 服务后,去 MCP Playground 上测试


4.png


规模化托管多租 MCP 服务的问题


如果你更换一个其他的 MCP 服务或者换个账号,重复这个流程,发现平台生成的 MCP 地址是完全不同的。这说明魔搭的 MCP 服务是多租隔离的,为每个租户的每个 MCP 服务生成一个独立的 SSE 地址。这个过程看似简单,实际上背后的技术挑战是非常高的,我们提炼下魔搭的具体需求:


1. 上架大量的 MCP 服务,大部分都是开源 MCP 并且采用 STDIO 模式,使用 uv、npx 命令就能跑起来;
2. 每个托管的 MCP 服务都要自动生成独立的 SSE 测试地址,生成速度要足够快。用户点击测试 1s 左右就要完成地址的生成;
3. 生成好的 MCP 服务地址能够被魔搭的 Playground 调用,要求托管的 MCP 服务稳定可靠;


要满足这些需求,对于底层的计算平台要求非常高,如果采用纯自建的方案


1. 自购服务器:实时弹出服务器时间都是分钟级的,无法满足秒级启动的需求,需要提前创建好一批服务。这样在稀疏调用时会产生极大的资源浪费。另外 MCP 服务涉及用户的敏感信息需要在启动时加载,因此多个租户复用相同实例来提升利用率的方案是不安全的;
2. 购买网关产品或者自建网关,为每个 MCP 服务创建 API 并关联后端地址,API 需要频繁的创建和销毁,管理 API 的成本很高;


那么有没有既省资源成本,又省运维成本还能满足需求的解决方案呢?魔搭选择了函数计算作为 MCP 的运行时托管,并且在短时间内上线了MCP市场接下来我们揭秘下魔搭选择函数计算的原因。


为什么魔搭会选择函数计算支持MCP服务?


函数计算作为全托管的 Serverless 服务,有以下运行 MCP 服务的天然优势:


1. 事件触发,内置网关,HTTP 触发器自动生成公网及内网的 http 地址:解决 MCP 网关调用侧需求;
2. 毫秒级弹性能力,按请求付费,最小支持 0.05 vCPU/128M 的实例规格:解决 MCP 服务弹性调度的需求;
3. 运行时支持单实例多并发:一个实例 serve 多个 MCP 请求,减少实例频繁冷启动的开销;
4. 多租安全隔离:MicroVM 安全沙箱,提供虚拟机级别隔离能力;
5. 完善的语言支持:Node.js、Python、Java、Golang、C#。对于 Node.js、Python 解释型语言通过 WebIDE 可以实现快速的调试和运维。

但是这些对于托管 MCP 还不够,函数计算上线了完整的 MCP 运行时扩展能力 ,针对 MCP 的特点又做了如下升级:


发布SSE会话亲和性能力,提升 MCP SSE 访问的可靠性


SSE(Server-Sent Events)是一种基于 HTTP 的服务器到客户端的单向实时通信协议:


  • MCP 客户端的 connect 会向服务端发送 Get /sse 请求,服务端建立 SSE 长连接,并且返回带有 sessionid 的事件流;
  • 后续的客户端请求通过 Post /message?sessionId=xxx 向服务端发送消息,服务端通过 SSE 的长连接持续向客户端推送数据;


SSE 本质上是一种有状态通信,由服务端维护会话的状态,当同一个会话的客户端 post 请求调度到不同的服务端实例时,由于会话状态不匹配会到导致服务端连接失败,最终影响 client 的效果。


Serverless 的弹性调度本身是无状态的,其负载均衡不会感知到 SSE 的会话状态,因此使用 Serverless 计算环境托管 MCP server 时,保证 SSE 会话的亲和性是一个关键挑战,现在社区以及其他厂商也正在攻克:


  • smithery.ai【1】 采用 WebSocket 替换了 SSE,WebSocket 作为全双工通信自带会话亲和性能力,即使突增流量弹出新的实例,相同的 client 始终会连到同一个服务端实例。WebSocket 对于 Serverless 运行环境的适配确实更加友好,各个云厂商的 Serverless 平台也都支持 WebSocket,但这种方式的缺点是对 client 有侵入,需要 client 进行改造;
  • MCP 社区上有个关于 MCP Hosting【2】 的讨论,关于是否引入 WebSocket 各方的态度不一,以 Glama【3】 为代表认为 SSE 在扩展性要更优;
  • MCP 官方 3 月底推出了最新的 Streamable HTTP【4】协议,计划替代旧版 HTTP+SSE,支持双向流式通信,简化端点管理(单一 /mcp 端点),但同样支持主动开启 SSE 长连接以及旧版 SSE 协议的向后兼容。


函数计算上线了会话亲和性特性,并且首先支持了 MCP SSE 策略,保证同一个 MCP session 请求永远调度到同一个实例。


当开启会话亲和性后,同一个 sessionid 的请求会被路由到同一个函数实例上


5.png


6.png


会话亲和性当前处于 Beta 阶段,目前还在部分 region 进行灰度,近期会对全部 region 开放。FaaS 环境下的会话亲和性实现非常复杂,不光要考虑 session 的调度,还要考虑各种场景下的异常行为,函数计算后面会揭秘这部分的技术实现。


函数计算的会话亲和性是针对有状态连接的一种通用能力,并非和 MCP SSE 完全绑定。官方的 Streamable HTTP 针对 SSE 做了重大升级,但同样支持 session 的有状态会话,函数计算的会话亲和性后续同样会支持 Streamble HTTP 的会话亲和性策略。


支持将传统 STDIO 模式的 MCP server 自动转换成SSE服务,业务零改造


通过 FunctionAI【5】,可以配置 MCP 服务的协议类型。当配置 STDIO 协议时,部署后会自定生成 SSE 访问地址,函数计算会启动 SSE 代理,将 SSE 请求转发到 STDIO 服务上。


7.png


8.png


发布Bearer鉴权能力,传统STDIO无鉴权能力的MCP server托管后自带鉴权能力


通过FunctionAI,只需要开启鉴权配置,就可以使用平台提供的只读Token访问MCP 服务,让传统STDIO的服务自带鉴权能力。


9.png

10.png


发布 Debian12 运行时


函数计算发布了 custom.debian12 运行时,并且支持了 Python3.12/Python3.11/Python3.10、Node.js22/Node.js20/Node.js18、Java11/Java17/Java21 主流运行时版本,内核更小启动速度更快,对于 MCP npx/uv 直接启动的场景更加友好。


总结


从百炼再到魔搭,越来越多的平台选择了函数计算作为云上 MCP 托管的解决方案,头部平台的规模化实践印证了 Serverless 在 MCP 托管领域的技术领先性,函数计算针对 MCP 做的多项优化价值正在逐渐体现,随着更多的落地案例,函数计算会发布更多 AI 应用相关的功能,敬请期待。如果您有更多问题与我们交流请添加钉钉群(群号:64970014484)。


【1】smithery.ai

https://smithery.ai/


【2】MCP Hosting

https://github.com/modelcontextprotocol/modelcontextprotocol/discussions/220#discussioncomment-12857800


【3】Glama

https://glama.ai/playground/ioeJMKTys2


【4】Streamable HTTP

https://modelcontextprotocol.io/specification/2025-03-26/basic/transports#streamable-http


【5】Function AI

https://help.aliyun.com/zh/functioncompute/fc-3-0/what-is-a-serverless-development-platform?spm=a2c4g.11186623.help-menu-2508973.d_2_0.6cdf13cd78qA1s


【6】Function AI

https://help.aliyun.com/zh/functioncompute/fc-3-0/what-is-a-serverless-development-platform?spm=a2c4g.11186623.help-menu-2508973.d_2_0.6cdf13cd78qA1s

相关文章
|
8月前
|
人工智能 运维 安全
Higress 开源 Remote MCP Server 托管方案,并将上线 MCP 市场
MCP(Model Context Protocol)正从事实标准迈向行业标准,OpenAI与Anthropic的推动使其生态快速发展。Higress作为AI原生API网关,提供开源Remote MCP Server托管方案,解决认证授权、服务可靠性等挑战,支持协议转换与扩展。其分层架构和Wasm插件机制助力企业灵活部署,即将上线的MCP市场将降低开发者成本,促进生态共建,推动AI助手智能化体验升级。
764 2
|
8月前
|
人工智能 运维 Serverless
OpenManus:开源版 Manus,无需邀请码,5 分钟极速体验!
OpenManus 是一款基于多智能体协作的开源自动化系统,能将复杂任务拆解为可执行子流程。通过多智能体机制分解任务、协调工具调用,实现代码执行、文件处理、网络搜索等复杂操作。本方案基于函数计算 FunctionAI 开发平台和阿里云百炼模型服务,提供一键部署方案,让企业无需过多运维投入即可获得灵活透明的智能任务处理能力。方案具备三大核心优势:Serverless 架构降本、实时反馈与透明化、模块化自由组合,支持快速接入多种功能模块。用户可通过简单步骤获取 API-KEY 并完成部署,体验 AI 自动化任务处理。
|
7月前
|
存储 人工智能 安全
MCP 规范新版本特性全景解析与落地实践
MCP Specification 在 2025-03-26 发布了最新的版本,本文对主要的改动进行详细介绍和解释
1532 145
|
8月前
|
人工智能 运维 安全
开源 Remote MCP Server 一站式托管来啦!
MCP Server 的实施存在着诸多挑战,特别是在认证授权、服务可靠性和可观测性方面,Higress 作为 AI 原生的 API 网关,提供了完整的开源 MCP Server 托管解决方案,实现存量 API 到 MCP 的协议转换。即将上线的 MCP 市场,将大幅降低开发者构建 MCP Server 的时间和人力成本。
2065 107
开源 Remote MCP Server 一站式托管来啦!
|
8月前
|
人工智能 JavaScript Serverless
从零开始开发 MCP Server
本文介绍如何使用Serverless Devs CLI工具从零开发并一键部署MCP Server到阿里云函数计算(FC)。首先通过初始化MCP Server项目,完成本地代码编写,利用Node.js实现一个简单的Hello World工具。接着对代码进行打包,并通过Serverless Devs工具将项目部署至云端。部署完成后,提供三种客户端接入方式:官方Client、其他本地Client及在FC上部署的Client。最后可通过内置大模型的inspector测试部署效果。Serverless Devs简化了开发流程,提升了MCP Server的构建效率。
1511 120
|
8月前
|
人工智能 JSON API
0代码将存量 API 适配 MCP 协议
本文主要讲述通过 Nacos+Higress 的方案实现0代码改造将 Agent 连接到存量应用,能够显著降低存量应用的改造成本。
1101 44
0代码将存量 API 适配 MCP 协议
|
8月前
|
人工智能 Java API
MCP协议重大升级,Spring AI Alibaba联合Higress发布业界首个Streamable HTTP实现方案
本文由Spring AI Alibaba Contributor刘军、张宇撰写,探讨MCP官方引入的全新Streamable HTTP传输层对原有HTTP+SSE机制的重大改进。文章解析Streamable HTTP的设计思想与技术细节,并介绍Spring AI Alibaba开源框架提供的Java实现,包含无状态服务器模式、流式进度反馈模式等多种场景的应用示例。同时,文章还展示了Spring AI Alibaba + Higress的完整可运行示例,分析当前实现限制及未来优化方向,为开发者提供参考。
|
人工智能 弹性计算 Cloud Native
超强辅助,Bolt.diy 一步搞定创意建站
Bolt.new 是 stackblitz 推出的一款 AI 编辑器,结合人工智能与 WebContainers 技术,支持无需复杂配置的完整开发环境。其开源版本 Bolt.diy 基于阿里云百炼模型服务和函数计算 FC,提供灵活定制、全栈开发支持及多模型适配能力。
|
8月前
|
人工智能 JSON 安全
API 即 MCP|Higress 发布 MCP Marketplace,加速存量 API 跨入 MCP 时代
Higress 发布 MCP Marketplace,加速存量 API 跨入 MCP 时代。