【保姆级教程】3步搞定DeepSeek本地部署

简介: DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。

没错!这篇博客的标题就是使用DeepSeek给予的灵感,最终结合自身的对比衡量,使用了较喜欢的标题。(如果冲着教程,建议直接查看“部署步骤”)

Pasted Graphic 59.png

伟大的DeepSeek

       DeepSeek在2025年春节期间突然爆火出圈,推出了自研的千亿参数级大模型DeepSeek-R1,具备多模态理解、复杂推理和持续学习能力,支持长上下文处理(最高128K tokens)。DeepSeek掀起了一批暴热的流量,放眼世界,DeepSeek无疑是一部伟大的作品。

AIME 2024 Codeforces GPo Dlamomd.png image.gif

       对飙openAI o1正式版,DeepSeek的诞生标志着国产大模型能够在世界AI领域具有先进性、可塑性和发展性。

部署意义

       在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。

314000 P.png

优势

  • 提升稳定性:不请求网络,避免服务器繁忙的问题。
  • 提高安全性:不联网,部署在本地,个人数据隐私性大大提高。
  • 定制化:可以自行训练大模型,打造属于自己专业的“玩伴”。
  • 低成本:打开网页就可以问,没有什么多余成本。

劣势

  • 高成本:前期部署需要一定时间,如果换模型又需要下载。
  • 局限性:一般自己用的计算机CPU、GPU性能十分有限,绝大多无法支撑DeepSeek完全体。
  • 灵活性差:在线版是DeepSeek官方维护的,一直在迭代和提升能力,本地无法第一时间跟上官方优化的步伐。

部署步骤

保姆级教程来啦!我们的目标是要将DeepSeek在本地部署,能够在不联网的情况下使用DeepSeek帮助我们解决问题。老规矩,三步走。

  • 下载ollama
  • 下载DeepSeek-r1大模型
  • 尽情享受吧(建议再进行UI可视化部署)

下载ollama

       我们要将DeepSeek部署到本地,至少先安装基础能力,Ollama 是一个开源框架,可以非常便捷部署和运行大型语言模型。【ollama官网】

       进入官网,点击Download,网站会根据系统类型匹配下载包的系统类型。(有macOs、windows、Linux)

Pasted Graphic 25.png

       本人电脑是mac系统,所以下载的macOs的产物,点击“Download for macOs”。

Pasted Graphic 26.png

       下载完毕之后解压,运行。

Install the command line.png

image.gif        安装完毕后,打开cmd,输入命令ollam。如果出现ollama相关的命令集合,则第一步顺利完成!

ollama

mayuhao - •zsh - 94×20.png

下载deepseek-r1

       回到ollama官网,在搜索框输入“deepseek-r1”,去下载r1大模型。

Pasted Graphic 31.png

image.gif        这里先选择一下模型的量级,我这里选择了7b。(越大越强大,但配置要求更高,自己玩的话7b足够,如果电脑性能较差建议1.5b)

Pasted Graphic 32.png

       复制代码在命令行执行,等待下载完毕。

mayuhao - ollama run deepseek-r1- 80x24.png

ollama run deepseek-r1:7b

途中可能会越来越慢,最终速度可能会定在200kb/s左右,这里分享一个小技巧。如果下载速度一直很慢甚至停滞不前,可以ctrl+c一下,继续执行刚才的命令。(有断点续传,每次初始加载会突破峰值)

mayuhao - ollama run deepseok-r1- 80x24.png

下载完毕后,就可以和它对话了,7b的量级属实有些不够,但也算是完成了本地部署。

mayuhao. ollama run deepseok-r1 - 80x24.png

但是,用cmd去交流有些粗糙了吧,是否可以在本地运行一个web应用,从而实现UI可视化呢!

搭建可视化UI

       最简单的方式,我们使用Chatbox AI快速载入模型,即可使用本地的DeepSeek-r1模型。首先点击“启动网页版”。【Chatbox AI官网】

Chatbox Al,.png

进入“网页版”后,点击“Settings”打开设置面板。

◎ s a oyay oo.png

在提供模型选择栏中选择“Ollama API”。

Pasted Graphic 64.png

在Model选择中选择“deepSeek-r1:latest”,不同的版本可能名称不同,选就对了。其他的配置项都按照预设,点击“save”即可。

O MN S0 SAAY  GE O APwe.png

image.gif 最终,我们可以看到对话框载入了我们选择的deepseek-r1模型,尽情享用吧! image.gif

D Chase D Ael cAal.png

没有Model的情况

       在选择Model时可能出现以下情况,下拉框中并没有任何模型。这是因为ChatBox认定系统中没有可用的模型。

image.gif MpW127.0.0.111434.png

       这就配置一下ollama的远程服务了,打开cmd,分别执行以下命令,将本地与ollama的远程服务进行对接。(macOS)

launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"

最终关闭ollama,再重启,刷新页面,重新“Settings”就好了。

image.png

       如果是windows或者Linux系统,可以参考ChatBox说明文档。【ChatBox说明文档】

总结

       本地部署最大的好处是稳定,最大的劣势在于电脑没有强大的配置无法支撑完全体DeepSeek的大模型。说真的,本地部署纯粹只是玩儿一下,671b的完全体需要404GB空间以及强大的算力,是我们普通计算机远不能及的条件。在大量使用DeepSeek后发现,虽然DeepSeek完全体目前与GPT-4o有较大差距,但事物的发展总是需要时间的,这次DeepSeek给我国AI领域带了个好头,我相信DeepSeek的潜力,也相信我们国家的AI技术会越来越强。

image.gif temp1.png

相关文章
|
1天前
|
数据安全/隐私保护 Docker Windows
DeepSeek-R1+对话页面本地部署保姆级教程
DeepSeek-R1+对话页面本地部署保姆级教程
104 9
|
5天前
|
机器学习/深度学习 人工智能 开发者
阿里云支持DeepSeek-V3和DeepSeek-R1全自动安装部署,小白也能轻松上手!
阿里云PAI平台支持DeepSeek-V3和DeepSeek-R1大模型的全自动安装部署,零代码一键完成从训练到推理的全流程。用户只需开通PAI服务,在Model Gallery中选择所需模型并点击部署,即可快速生成PAI-EAS服务,获取调用信息。整个过程简单快捷,适合各水平开发者轻松上手。
1030 78
|
5天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
2102 103
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
2天前
|
人工智能 开发者
3步,0代码!一键部署DeepSeek-V3、DeepSeek-R1
阿里云PAI Model Gallery支持一键部署DeepSeek-V3、DeepSeek-R1模型,用户可在平台上零代码实现从训练到部署再到推理的全过程,简化开发流程。通过登录PAI控制台,选择Model Gallery,找到并部署所需模型,如“DeepSeek-R1-Distill-Qwen-7B”,享受高效便捷的AI应用体验。部署成功后可获取调用信息,快速集成到业务中。
|
15天前
|
数据挖掘 Unix 数据处理
Pandas高级数据处理:管道操作
Pandas 是 Python 中流行的数据分析库,提供丰富的结构化数据处理功能。`pipe` 方法(管道操作)简化了数据处理步骤的串联,避免嵌套调用带来的代码混乱。通过定义函数并使用 `pipe` 串联,如筛选特定类别产品和计算销售额平均值,使代码更清晰易读。常见问题包括函数参数传递不正确、返回值类型不匹配及复杂逻辑难以维护。合理设计与编程习惯能充分发挥管道操作的优势,提高代码可读性和可维护性。
41 16
|
4天前
|
人工智能 Java 测试技术
本地玩转 DeepSeek 和 Qwen 最新开源版本(入门+进阶)
本文将介绍如何基于开源工具部署大模型、构建测试应用、调用大模型能力的完整链路。
230 20
|
5天前
|
IDE Linux API
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
本文将详细介绍如何在本地部署 DeepSeek 蒸馏模型,内容主要包括 Ollama 的介绍与安装、如何通过 Ollama 部署 DeepSeek、在 ChatBox 中使用 DeepSeek 以及在 VS Code 中集成 DeepSeek 等。
721 14
轻松在本地部署 DeepSeek 蒸馏模型并无缝集成到你的 IDE
|
10天前
|
缓存 Java 数据库
SpringBoot缓存注解使用
Spring Boot 提供了一套方便的缓存注解,用于简化缓存管理。通过 `@Cacheable`、`@CachePut`、`@CacheEvict` 和 `@Caching` 等注解,开发者可以轻松地实现方法级别的缓存操作,从而提升应用的性能和响应速度。合理使用这些注解可以大大减少数据库的访问频率,优化系统性能。
154 89
|
12天前
|
Linux iOS开发 MacOS
DeepSeek爆火,如何免费部署到你的电脑上?获取顶级推理能力教程来了
如何在本地电脑上免费部署DeepSeek,获取顶级推理能力?只需三步:1. 访问Ollama官网下载并安装对应操作系统的版本(支持macOS、Linux和Windows)。2. 打开Ollama并确保其正常运行。3. 在Ollama官网搜索并选择DeepSeek模型(如deepseek-r1),根据电脑配置选择合适的模型大小(1.5B至671B)。通过终端命令(如ollama run deepseek-r1:1.5b)运行模型,即可开始使用DeepSeek进行推理。退出模型时,在终端输入/bye。更多详情请参考Ollama官方文档。
|
11天前
|
机器学习/深度学习 存储 人工智能
《深度剖析:Q-learning与策略梯度方法的本质区别》
在强化学习领域,Q-learning和策略梯度方法是两种重要的算法。Q-learning通过迭代更新状态-动作值(Q值),评估动作价值,适用于离散动作空间;策略梯度方法则直接优化参数化策略,适合连续动作空间。前者收敛稳定但速度较慢,后者收敛快但稳定性差。两者各有优劣,适用于不同场景。
65 27

热门文章

最新文章