阿里云 DeepSeek 模型部署与使用技术评测

简介: 随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括**基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署**。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。

引言

随着人工智能技术的不断发展,越来越多的企业和个人开始探索如何利用深度学习模型来提升业务效率和用户体验。阿里云推出的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种便捷的部署方式,包括基于百炼 API 调用满血版、基于人工智能平台 PAl 部署、基于函数计算部署以及基于 GPU 云服务器部署。本文将从多个维度对这些部署方式进行详细评测,并分享个人的实际体验和观点。
解决方案链接:https://www.aliyun.com/solution/tech-solution/deepseek-r1-for-platforms?utm_content=g_1000401616
csdn评测报告链接:https://blog.csdn.net/weixin_44383927/article/details/145598257?sharetype=blogdetail&sharerId=145598257&sharerefer=PC&sharesource=weixin_44383927&spm=1011.2480.3001.8118


一.基于百炼 API 调用满血版:

方案概览
本方案以 DeepSeek-R1 满血版为例进行演示,通过百炼模型服务进行 DeepSeek 开源模型调用,可以根据实际需求选择其他参数规模的 DeepSeek 模型。百炼平台的 API 提供标准化接口,无需自行搭建模型服务基础设施,且具备负载均衡和自动扩缩容机制,保障 API 调用稳定性。搭配 Chatbox 可视化界面客户端,进一步简化了调用流程,无需在命令行中操作,通过图形化界面即可轻松配置和使用 DeepSeek 模型。

方案架构
按照本方案提供的配置完成后,会在本地搭建一个如下图所示的运行环境。
0001.png

一.在部署本方案开始时,首先要登录阿里云百炼大模型服务平台获取API-KEY(这里获取方法我就不赘述了,看下吗截图):

0001.png

二、使用 Chatbox 客户端配置 百炼 API 进行对话:

1.访问 Chatbox (下载地址:https://chatboxai.app/zh) 下载并安装客户端,本方案以 windows 为例。
0001.png
2.点击下载按钮,选择下载目录后进行下载:
0001.png
3.双击“Chatbox-1.9.8-Setup.exe”进行安装,注意安装路径。
0001.png
4.安装好后直接运行Chatbox,这里我们选择“使用自己的APl Key 或本地模型”。
0001.png
5.进行参数配置:
0002.png
参数内容可以参考我下面的截图内容:
0001.png
6.完成配置后,我们就可以在输入框进行测试了,如下图:
0001.png

基于百炼 API 调用满血版,是不是超级简单?!

二.基于人工智能平台 PAl 部署:

将 DeepSeek-R1 开源模型部署到人工智能平台 PAI。
人工智能平台 PAI 为 AI 研发提供了全链路支持,覆盖了从数据标注、模型开发、训练、评估、部署和运维管控的整个AI研发生命周期。其中,Model Gallery 组件提供了一个丰富多样的模型资源库,使用户能够轻松地查找、部署、训练和评估模型,大大简化了开发流程。PAI-EAS 则提供了高性能的模型推理服务,支持多种异构计算资源,并配备了一套完整的运维和监控系统,确保服务的稳定性和高效性。方案以 DeepSeek-R1-Distill-Qwen-7B 为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。用户还可以使用 PAI-DSW 和 PAI-DLC 进行模型的微调训练,以便更好地满足特定业务场景的需求,进一步提高模型的性能、准确性和适用性。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
0001.png
1.登录PAI 控制台,首次登录需要开通服务,选择暂不绑定 OSS Bucket 至 PAI 默认工作空间,然后点击一键开通按钮。已开通的可以跳过此步骤。
0001.png
2.进入控制台后,在工作空间页面的左侧导航栏选择 Model Gallery,在搜索框中输入DeepSeek-R1,在搜索结果中选择DeepSeek-R1-Distill-Qwen-7B。
0001.png
3.点击DeepSeek-R1-Distill-Qwen-7B 进入模型详情页,然后点击右上角部署按钮。
0001.png
4.在弹出的部署面板中,部署方式选择加速部署,加速方式选择vLLM,资源规格选择推荐使用GPU:ml.gu7i.c8m30.1-gu30
0001.png
0001.png
其余配置项保持默认不变,点击左下角部署按钮。弹窗提示计费提醒,点击确定按钮即可。

5.完成部署后,将会如下图显示“运行中”。(部署等待时间可能有点长,可以起来先喝口茶,哈哈)
0001.png
6.单击查看调用信息
0001.png
在弹出的看板中选择公网地址调用,复制保存访问地址和 Token
0001.png
7.接下来我们就可以使用 Chatbox 客户端配置 vLLM API 进行对话。前面在上文中我已经介绍过如何安装Chatbox 客户端了,这里就不重复了。(点击【设置】,然后点击【添加自定义提供方】)
0002.png
在弹出的看板中按照如下表格进行配置。
0001.png
完成配置后,配置项如下图所示:
0001.png
8.接下来我们就可以测试验证配置啦,在输入框输入问题即可。
0001.png
另外补充说明下,在PAI 控制台点击服务名称,进入服务详情页。通过 PAI-EAS 可以全面管理模型服务,包括但不限于查看服务状态、在线调试服务、扩缩容实例,以及实时监控服务性能。
0001.png

相对“基于百炼 API 调用满血版”这里步骤稍多点,但是性能方面无可厚非哈。


三.基于函数计算部署:

将 DeepSeek-R1 开源模型部署到函数计算 FC 。通过云原生应用开发平台 CAP 部署 Ollama 和Open WebUI 两个 FC 函数。Ollama 负责托管 lmstudio-community/DeepSeek-R1-Distill-Qwen-7B-GGUF 模型,它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。Open WebUI 则为用户提供友好的交互界面。借助 CAP,用户可以快速便捷地部署模型,而无需担心底层资源管理和运维问题,从而专注于应用的创新和开发。同时 CAP 提供了免运维的高效开发环境,具备弹性伸缩和高可用性,并采用按量付费模式,有效降低资源闲置成本。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。

0001.png
1.部署 DeepSeek-R1 模型,首先我们根据实验手册进行一键部署(函数计算FC一直以来都是我非常喜欢的功能,重在快捷方便,就是有时候部署时间有点长,部署过程可以站起来运动运动),步骤非常简单:
0001.png
部署完成后,类似下图所示。
0001.png
2.完成部署后,按照下图找到访问地址。
0001.png

3.进入访问地址,你就可以和模型进行对话咯,在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
0001.png

当然你也同样可以使用 Chatbox 客户端配置 Ollama API 进行对话,这里操作流程和配置方法我上面也都举例过,这里就不重复了。(配置参数我发大家看下)
0001.png


四.基于 GPU 云服务器部署:

将 DeepSeek-R1 开源模型部署到 GPU 云服务器。在 GPU 云服务器上安装与配置 Ollama 和 Open WebUI。Ollama 负责托管 DeepSeek-R1 模型,Open WebUI 则为用户提供友好的交互界面。GPU 云服务器凭借其高性能并行计算架构,可以显著加速大模型的推理过程,特别是在处理大规模数据和高并发场景,可以有效提升推理速度和推理吞吐。专有网络 VPC 和交换机用于资源隔离和安全管理,确保数据传输的安全性和网络的高可靠性。方案以 DeepSeek-R1-Distill-Qwen-7B为例进行演示,该版本是一个通过知识蒸馏技术从小型化模型中提取推理能力的高性能语言模型。它是基于 DeepSeek-R1 的推理能力,通过蒸馏技术将推理模式迁移到较小的 Qwen 模型上,从而在保持高效性能的同时降低了计算成本。用户可以根据实际需求选择其他参数规模的 DeepSeek-R1 模型,并相应调整实例规格配置。

方案架构
按照本方案提供的配置完成部署后,会在阿里云上搭建一个如下图所示的运行环境。实际部署时,您可根据具体的资源规划调整部分配置,但最终的运行环境将与下图展示的架构相似。
0001.png
1.创建专有网络 VPC 和交换机:根据我下图的配置参数进行创建配置:
0001.png
2.创建安全组:根据我下图的配置参数进行创建配置:0001.png
3.创建 GPU 云服务器:根据我下图的配置参数进行创建配置:
0001.png
0001.png
4.登录服务器:
4.1登录 ECS管理控制台。
4.2在左侧导航栏,选择实例与镜像>实例。
4.3在顶部菜单栏,选择华东1(杭州)地域。
4.4部署示例应用程序。
a.在实例页面,找到前面步骤中创建的 ECS 实例,查看IP 地址列,记录公网 IP ,然后在其右侧操作列,单击远程连接。
b.在远程连接对话框的通过 Workbench 远程连接区域,单击立即登录,然后根据页面提示登录。
4.5输入密码并点击确定按钮,通过 Workbench 远程连接至 ECS 控制台。
4.6如图所示 GPU 驱动尚未完成安装,请等待 10-20 分钟,安装完成后实例将自动重启。
0001.png
5.部署 Ollama:
5.1.执行以下命令部署 Ollama 模型服务。

curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/ollama_install.sh|sh

5.2如下图所示,说明 Ollama 部署完成。
0001.png
5.3执行以下命令拉取模型。

ollama pull deepseek-r1:7b

0001.png

5.4执行以下命令,运行模型,运行成功后,在键盘上敲击两次回车键。

ollama run deepseek-r1:7b &

6.部署 Open WebUI:

6.1执行以下命令部署 Open WebUI 应用。

curl -fsSL https://help-static-aliyun-doc.aliyuncs.com/install-script/deepseek-r1-for-platforms/install.sh|sh

6.2部署完成后,可以看到控制台中输出Installation completed。
7.访问示例应用,在浏览器中访问http://:8080,访问 Open WebUI。
0001.png
8.接下来就可以与模型对话了。在文本输入框中可以进行对话交互。输入问题你是谁?或者其他指令后,调用模型服务获得相应的响应。
0001.png

至此,我们四个实验就都已经完成了操作和体验。


1. 部署文档步骤指引的准确性

评测结果:

在阅读并实际操作了阿里云提供的部署文档后,整体感觉文档的步骤指引相对清晰且准确。以下是具体的操作体验:

  • 基于百炼 API 调用满血版:通过 API 网关调用 DeepSeek 模型非常直观,API 文档中详细列出了所有必要的参数和返回值,便于开发者快速上手。

  • 基于人工智能平台 PAl 部署:PAl 平台提供了图形化的界面,使得整个部署过程更加友好。尽管如此,在配置环境变量时遇到了一些小问题,主要是因为某些默认值与实际需求不符,导致需要手动调整。

  • 基于函数计算部署:函数计算的部署流程较为顺畅,但在创建服务时,发现部分选项描述不够明确,比如有超链一键部署,但是没有把链接放出来,不通过实验手册自己手动配置可能需要花点时间。

  • 基于 GPU 云服务器部署:GPU 云服务器的部署相对复杂,主要涉及到系统镜像的选择等,不能选错。虽然文档中有详细的说明,但仍然建议提供一个预装好环境的镜像以简化操作。

改进建议:

  • 增加更多常见问题的解答,特别是在涉及环境变量配置的部分。
  • 提供更详细的内存和超时时间配置建议,帮助用户更好地理解不同场景下的最佳实践。

2. 文档引导与帮助的充分性

评测结果:

在整个部署过程中,阿里云提供的文档和帮助资源基本能够满足需求,但在某些环节仍需进一步优化。

  • 基于百炼 API 调用满血版:API 文档非常详尽,每个接口都有示例代码和详细的解释,极大地降低了学习成本。

  • 基于人工智能平台 PAl 部署:PAl 平台的图形化界面友好,但在某些高级功能(如自定义插件)的使用上,文档略显不足,导致需要额外搜索其他资料。

  • 基于函数计算部署:函数计算的文档较为全面,但在调试过程中,发现日志输出不够详细,有时难以定位具体问题。另外函数部署的配置未放出来。

  • 基于 GPU 云服务器部署:GPU 云服务器的文档涵盖了大部分关键步骤,但对于一些特定硬件配置的细节描述不够深入,可能会给新手带来困扰。

改进建议:

  • 在 PAl 平台上增加更多关于高级功能的使用指南,尤其是针对自定义插件的开发和集成。
  • 函数计算的日志系统可以进一步增强,提供更多详细的调试信息。
  • 对于 GPU 云服务器,建议提供一个预配置好的环境镜像,并附带详细的硬件兼容性列表。

3. 多种使用方式的理解程度与方案描述

评测结果:

阿里云提供的四种部署方式各有优势,但在初次接触时,确实需要一定的时间去理解和消化。

  • 基于百炼 API 调用满血版:这种方式最为简便,适合快速集成到现有应用中。文档中对 API 的描述清晰,易于理解。

  • 基于人工智能平台 PAl 部署:PAl 平台的优势在于其强大的可视化工具和丰富的插件库,但需要一定的学习曲线,特别是对于不熟悉该平台的用户。

  • 基于函数计算部署:函数计算的方式非常适合无服务器架构的应用场景,但需要对 AWS Lambda 或类似的服务有一定了解才能充分利用其优势。

  • 基于 GPU 云服务器部署:这种方式提供了最大的灵活性和性能,但同时也要求用户具备较强的系统管理和运维能力。

疑惑与反馈:

  • 在 PAl 平台上,希望看到更多关于模型训练和优化的具体案例,帮助用户更好地理解如何利用该平台提升模型效果。
  • 函数计算的计费模式较为复杂,建议提供一个简明易懂的费用计算器,帮助用户估算成本。

4. 推荐的最佳使用方式

推荐方式:基于百炼 API 调用满血版

推荐理由:

  • 简单快捷:无需复杂的配置和环境搭建,几分钟内即可完成集成。
  • 高可用性:阿里云提供的 API 服务具有高可靠性和低延迟,确保模型响应速度。
  • 灵活扩展:可以根据实际需求动态调整 API 请求量,适应不同规模的应用场景。

个人体验:
在实际项目中,我选择了基于百炼 API 调用满血版的方式进行集成。这种方式不仅大大缩短了开发周期,还显著提升了系统的稳定性和性能。尤其是在处理大量并发请求时,API 服务的表现令人满意。


5. 实际需求匹配度与采用意愿

评测结果:

阿里云提供的 DeepSeek 模型使用方式基本满足了我的实际需求,尤其是在快速集成和高性能方面表现出色。然而,仍有改进空间:

  • 基于百炼 API 调用满血版:完全满足了我的需求,特别是在快速上线和低成本维护方面表现优异。

  • 基于人工智能平台 PAl 部署:虽然功能强大,但对于小型项目来说显得有些冗余,更适合大规模企业级应用。

  • 基于函数计算部署:适合无服务器架构的应用场景,但计费模式和调试难度较高,限制了其广泛应用。

  • 基于 GPU 云服务器部署:提供了最大的灵活性和性能,但较高的技术门槛和运维成本使其更适合专业团队使用。

是否愿意采用:
我会选择继续采用基于百炼 API 调用满血版的方式来使用 DeepSeek 模型,因为它在满足需求的同时,最大限度地降低了开发和维护成本。然而,对于一些特定的高性能需求场景,我也会考虑基于 GPU 云服务器的部署方式。

改进建议:

  • 进一步简化 GPU 云服务器的部署流程,提供更多的自动化工具和预配置镜像。
  • 函数计算的计费模式可以更加透明,提供详细的费用估算工具,帮助用户更好地控制成本。

阿里云的【零门槛、轻松部署您的专属 DeepSeek 模型】解决方案为用户提供了多种灵活的部署方式,适用于不同的应用场景和技术水平。通过本次评测,我认为基于百炼 API 调用满血版的方式最适合大多数用户的需求,同时希望阿里云能够在文档完善和技术支持方面持续改进,为用户提供更好的使用体验。如果你正在寻找一种高效、可靠的深度学习模型部署方案,阿里云的 DeepSeek 解决方案值得尝试。

目录
相关文章
|
7天前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
7天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
2688 112
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
2天前
|
云安全 边缘计算 人工智能
对话|ESA如何助力企业高效安全开展在线业务?
ESA如何助力企业安全开展在线业务
1015 7
|
5天前
|
人工智能 自然语言处理 JavaScript
宜搭上新,DeepSeek 插件来了!
钉钉宜搭近日上线了DeepSeek插件,无需编写复杂代码,普通用户也能轻松调用强大的AI大模型能力。安装后,平台新增「AI生成」组件,支持创意内容生成、JS代码编译、工作汇报等场景,大幅提升工作效率。快来体验这一高效智能的办公方式吧!
1345 5
|
14天前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
9442 86
|
2天前
|
人工智能 自然语言处理 API
DeepSeek全尺寸模型上线阿里云百炼!
阿里云百炼平台近日上线了DeepSeek-V3、DeepSeek-R1及其蒸馏版本等六款全尺寸AI模型,参数量达671B,提供高达100万免费tokens。这些模型在数学、代码、自然语言推理等任务上表现出色,支持灵活调用和经济高效的解决方案,助力开发者和企业加速创新与数字化转型。示例代码展示了如何通过API使用DeepSeek-R1模型进行推理,用户可轻松获取思考过程和最终答案。
|
6天前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
1393 9
阿里云PAI部署DeepSeek及调用
|
1月前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171378 18
|
1月前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150313 32
|
6天前
|
缓存 自然语言处理 安全
快速调用 Deepseek API!【超详细教程】
Deepseek 强大的功能,在本教程中,将指导您如何获取 DeepSeek API 密钥,并演示如何使用该密钥调用 DeepSeek API 以进行调试。

热门文章

最新文章