引言
随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。
解决方案链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
csdn评测报告链接:https://blog.csdn.net/weixin_44383927/article/details/145598257?sharetype=blogdetail&sharerId=145598257&sharerefer=PC&sharesource=weixin_44383927&spm=1011.2480.3001.8118
一.基于百炼 API 调用满血版:
方案概览
本方案以 DeepSeek-R1 满血版为例进行演示,通过百炼模型服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。百炼平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。搭配 Chatbox 可视化界面客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。
方案架构
按照本方案提供的配置完成后,会在本地搭建一个如下图所示的运行环境。
一.在部署本方案开始时,首先要登录阿里云百炼大模型服务平台获取API-KEY(这里获取方法我就不赘述了,看下吗截图):
二、使用 Chatbox 客户端配置 百炼 API 进行对话:
1.访问 Chatbox (下载地址:https://chatboxai.app/zh) 下载并安装客户端,本方案以 windows 为例。
2.点击下载按钮,选择下载目录后进行下载:
3.双击“Chatbox-1.9.8-Setup.exe”进行安装,注意安装路径。
4.安装好后直接运行Chatbox,这里我们选择“使用自己的APl Key 或本地模型”。
5.进行参数配置:
参数内容可以参考我下面的截图内容:
6.完成配置后,我们就可以在输入框进行测试了,如下图:
基于百炼 API 调用满血版,是不是超级简单?!
二.基于人工智能平台 PAl 部署:
将 DeepSeek-R1 开源模型部署到人工智能平台 PAI。
人工智能平台 PAI 为 AI 研发提供了全链路支持,覆盖了从数据标注、模型开发、训练、评估、部署和运维管控的整个AI研发生命周期。其中,Model Gallery 组件提供了一个丰富多样的模型资源库,使用户能够轻松地查找、部署、训练和评估模型,大大简化了开发流程。PAI-EAS 则提供了高性能的模型推理服务,支持多种异构计算资源,并配备了一套完整的运维和监控系统,确保服务的稳定性和高效性。方案以 DeepSeek-R1-Distill-Qwen-7B 为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。用户还可以使用 PAI-DSW 和 PAI-DLC 进行模型的微调训练,以便更好地满足特定业务场景的需求,进一步提高模型的性能、准确性和适用性。
方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
1.登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮。已开通的可以跳过此步骤。
2.进入控制台后,在工作空间页面的左侧导航栏选择 Model Gallery,在搜索框中输入DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B。
3.点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮。
4.在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30。
其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮即可。
5.完成部署后,将会如下图显示“运行中”。(部署等待时间可能有点长,可以起来先喝口茶,哈哈)
6.单击查看调用信息,
在弹出的看板中选择公网地址调用,复制保存访问地址和 Token。
7.接下来我们就可以使用 Chatbox 客户端配置 vLLM API 进行对话。前面在上文中我已经介绍过如何安装Chatbox 客户端了,这里就不重复了。(点击【设置】,然后点击【添加自定义提供方】)
在弹出的看板中按照如下表格进行配置。
完成配置后,配置项如下图所示:
8.接下来我们就可以测试验证配置啦,在输入框输入问题即可。
另外补充说明下,在PAI 控制台点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
相对“基于百炼 API 调用满血版”这里步骤稍多点,但是性能方面无可厚非哈。
三.基于函数计算部署:
将 DeepSeek-R1 开源模型部署到函数计算 FC 。通过云原生应用开发平台 CAP 部署 Ollama 和Open WebUI 两个 FC 函数。Ollama 负责托管 lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF 模型,它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。Open WebUI 则为用户提供友好的交互界面。借助 CAP,用户可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。同时 CAP 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。
方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
1.部署 DeepSeek-R1 模型,首先我们根据实验手册进行一键部署(函数计算FC一直以来都是我非常喜欢的功能,重在快捷方便,就是有时候部署时间有点长,部署过程可以站起来运动运动),步骤非常简单:
部署完成后,类似下图所示。
2.完成部署后,按照下图找到访问地址。
3.进入访问地址,你就可以和模型进行对话咯,在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
当然你也同样可以使用 Chatbox 客户端配置 Ollama API 进行对话,这里操作流程和配置方法我上面也都举例过,这里就不重复了。(配置参数我发大家看下)
四.基于 GPU 云服务器部署:
将 DeepSeek-R1 开源模型部署到 GPU 云服务器。在 GPU 云服务器上安装与配置 Ollama 和 Open WebUI。Ollama 负责托管 DeepSeek-R1 模型,Open WebUI 则为用户提供友好的交互界面。GPU 云服务器凭借其高性能并行计算架构,可以显著加速大模型的推理过程,特别是在处理大规模数据和高并发场景,可以有效提升推理速度和推理吞吐。专有网络 VPC 和交换机用于资源隔离和安全管理,确保数据传输的安全性和网络的高可靠性。方案以 DeepSeek-R1-Distill-Qwen-7B为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。
方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
1.创建专有网络 VPC 和交换机:根据我下图的配置参数进行创建配置:
2.创建安全组:根据我下图的配置参数进行创建配置:
3.创建 GPU 云服务器:根据我下图的配置参数进行创建配置:
4.登录服务器:
4.1登录 ECS管理控制台。
4.2在左侧导航栏,选择实例与镜像>实例。
4.3在顶部菜单栏,选择华东1(杭州)地域。
4.4部署示例应用程序。
a.在实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
b.在远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
4.5输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
4.6如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启。
5.部署 Ollama:
5.1.执行以下命令部署 Ollama 模型服务。
curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/ollama_install.sh|sh
5.2如下图所示,说明 Ollama 部署完成。
5.3执行以下命令拉取模型。
ollama pull deepseek-r1:7b
5.4执行以下命令,运行模型,运行成功后,在键盘上敲击两次回车键。
ollama run deepseek-r1:7b &
6.部署 Open WebUI:
6.1执行以下命令部署 Open WebUI 应用。
curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/install.sh|sh
6.2部署完成后,可以看到控制台中输出Installation completed。
7.访问示例应用,在浏览器中访问http://:8080,访问 Open WebUI。
8.接下来就可以与模型对话了。在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
至此,我们四个实验就都已经完成了操作和体验。
1. 部署文档步骤指引的准确性
评测结果:
在阅读并实际操作了阿里云提供的部署文档后,整体感觉文档的步骤指引相对清晰且准确。以下是具体的操作体验:
基于百炼 API 调用满血版:通过 API 网关调用 DeepSeek 模型非常直观,API 文档中详细列出了所有必要的参数和返回值,便于开发者快速上手。
基于人工智能平台 PAl 部署:PAl 平台提供了图形化的界面,使得整个部署过程更加友好。尽管如此,在配置环境变量时遇到了一些小问题,主要是因为某些默认值与实际需求不符,导致需要手动调整。
基于函数计算部署:函数计算的部署流程较为顺畅,但在创建服务时,发现部分选项描述不够明确,比如有超链一键部署,但是没有把链接放出来,不通过实验手册自己手动配置可能需要花点时间。
基于 GPU 云服务器部署:GPU 云服务器的部署相对复杂,主要涉及到系统镜像的选择等,不能选错。虽然文档中有详细的说明,但仍然建议提供一个预装好环境的镜像以简化操作。
改进建议:
- 增加更多常见问题的解答,特别是在涉及环境变量配置的部分。
- 提供更详细的内存和超时时间配置建议,帮助用户更好地理解不同场景下的最佳实践。
2. 文档引导与帮助的充分性
评测结果:
在整个部署过程中,阿里云提供的文档和帮助资源基本能够满足需求,但在某些环节仍需进一步优化。
基于百炼 API 调用满血版:API 文档非常详尽,每个接口都有示例代码和详细的解释,极大地降低了学习成本。
基于人工智能平台 PAl 部署:PAl 平台的图形化界面友好,但在某些高级功能(如自定义插件)的使用上,文档略显不足,导致需要额外搜索其他资料。
基于函数计算部署:函数计算的文档较为全面,但在调试过程中,发现日志输出不够详细,有时难以定位具体问题。另外函数部署的配置未放出来。
基于 GPU 云服务器部署:GPU 云服务器的文档涵盖了大部分关键步骤,但对于一些特定硬件配置的细节描述不够深入,可能会给新手带来困扰。
改进建议:
- 在 PAl 平台上增加更多关于高级功能的使用指南,尤其是针对自定义插件的开发和集成。
- 函数计算的日志系统可以进一步增强,提供更多详细的调试信息。
- 对于 GPU 云服务器,建议提供一个预配置好的环境镜像,并附带详细的硬件兼容性列表。
3. 多种使用方式的理解程度与方案描述
评测结果:
阿里云提供的四种部署方式各有优势,但在初次接触时,确实需要一定的时间去理解和消化。
基于百炼 API 调用满血版:这种方式最为简便,适合快速集成到现有应用中。文档中对 API 的描述清晰,易于理解。
基于人工智能平台 PAl 部署:PAl 平台的优势在于其强大的可视化工具和丰富的插件库,但需要一定的学习曲线,特别是对于不熟悉该平台的用户。
基于函数计算部署:函数计算的方式非常适合无服务器架构的应用场景,但需要对 AWS Lambda 或类似的服务有一定了解才能充分利用其优势。
基于 GPU 云服务器部署:这种方式提供了最大的灵活性和性能,但同时也要求用户具备较强的系统管理和运维能力。
疑惑与反馈:
- 在 PAl 平台上,希望看到更多关于模型训练和优化的具体案例,帮助用户更好地理解如何利用该平台提升模型效果。
- 函数计算的计费模式较为复杂,建议提供一个简明易懂的费用计算器,帮助用户估算成本。
4. 推荐的最佳使用方式
推荐方式:基于百炼 API 调用满血版
推荐理由:
- 简单快捷:无需复杂的配置和环境搭建,几分钟内即可完成集成。
- 高可用性:阿里云提供的 API 服务具有高可靠性和低延迟,确保模型响应速度。
- 灵活扩展:可以根据实际需求动态调整 API 请求量,适应不同规模的应用场景。
个人体验:
在实际项目中,我选择了基于百炼 API 调用满血版的方式进行集成。这种方式不仅大大缩短了开发周期,还显著提升了系统的稳定性和性能。尤其是在处理大量并发请求时,API 服务的表现令人满意。
5. 实际需求匹配度与采用意愿
评测结果:
阿里云提供的 DeepSeek 模型使用方式基本满足了我的实际需求,尤其是在快速集成和高性能方面表现出色。然而,仍有改进空间:
基于百炼 API 调用满血版:完全满足了我的需求,特别是在快速上线和低成本维护方面表现优异。
基于人工智能平台 PAl 部署:虽然功能强大,但对于小型项目来说显得有些冗余,更适合大规模企业级应用。
基于函数计算部署:适合无服务器架构的应用场景,但计费模式和调试难度较高,限制了其广泛应用。
基于 GPU 云服务器部署:提供了最大的灵活性和性能,但较高的技术门槛和运维成本使其更适合专业团队使用。
是否愿意采用:
我会选择继续采用基于百炼 API 调用满血版的方式来使用 DeepSeek 模型,因为它在满足需求的同时,最大限度地降低了开发和维护成本。然而,对于一些特定的高性能需求场景,我也会考虑基于 GPU 云服务器的部署方式。
改进建议:
- 进一步简化 GPU 云服务器的部署流程,提供更多的自动化工具和预配置镜像。
- 函数计算的计费模式可以更加透明,提供详细的费用估算工具,帮助用户更好地控制成本。
阿里云的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种灵活的部署方式,适用于不同的应用场景和技术水平。通过本次评测,我认为基于百炼 API 调用满血版的方式最适合大多数用户的需求,同时希望阿里云能够在文档完善和技术支持方面持续改进,为用户提供更好的使用体验。如果你正在寻找一种高效、可靠的深度学习模型部署方案,阿里云的 DeepSeek 解决方案值得尝试。