前言
DeepSeek
的新闻和各种热搜现在是铺天盖地~有支持、有攻击、也有质疑的声音!
而最近我发现使用DeepSeek
老是出问题,相信很多人也发现了之前给大家讲过的使用DeepSeek
提供的API
接入的Cline插件助手
会一直报错!
这也包括PC端网页版
原因反正我听说被谁谁攻击了等等..这是真是假这里我们不去扯,也不去讨论这个问题,我们要的是解决这个问题,让大家正常能够使用上DeepSeek
!
那官网提供的API
不能用,那我们就另辟蹊径,把DeepSeek大模型
弄到咋们本地来进行使用!
为什么要部署到本地?
那很多人就要问了,部署到本地有什么好处?
这里就要说到几个DeepSeek
的使用途径,包括很多大模型的使用途径,都可以分为以下几种:
web网页访问
API接入
部署到本地
首先你要搞清楚这三种使用方式的区别是什么,才能知道为什么需要本都去部署一个大模型的好处!
网页版DeepSeek
这种方式也是很多人使用大模型的方式,就跟当初的ChatGPT
差不多!
网页版的使用方式也是很多人能够接受门槛最低的使用方式!
如图
这种使用方式就是官网直接给我们大众提供的一个窗口,后台已经给我们搭建部署好了大模型!
作为用户的我们只要直接打开网页,最多也是注册一个账号即可开箱使用!
同理这里和对应产品的APP
也是一样道理!
之前的我也说过网页版
其实适合那些想要快速体验DeepSeek
功能、进行简单文本处理或对话的用户, 它无需任何技术集成,只需在浏览器中打开网页即可使用,非常适合初学者或临时需求, 此外,网页版通常提供了直观的用户界面,使得操作更加简便,就跟上面一样!
API接口调用
这种方式则更适合需要将一些大模型
功能集成到自己应用中的开发者, 从使用的角度上来要有一定的门槛!
官网给出的API
提供了更高的灵活性和可定制性,可以让我们根据自己的需求来调用大模型
服务, 比如加入到自己开发的项目应用当中,或者开发编辑器工具中等等..
如图
当然这种方式是需要付费的,你想一下,官网那边提供了计算数据的服务资源以及开销,你客户端这边就一直调用官方传递过来的数据资源,难道不收费吗?
之前我发布的VSCode+Cline+DeepSeek-V3
就是一种调用官方API的形式进行使用DeepSeek大模型
,官网还会送给我们500万tokens
进行使用,使用完之后,就需要付费购买了, 但是这里我特别要说的是DeepSeek
相比其他国外的大模型付费要便宜很多,作为普通人的我们完全可以有能力去支付这种付费!
当然有些人就在后台私信我,有没有一种完全免费的使用方式,那我就要推荐以下的使用方法了本地部署大模型
本地部署DeepSeek
通常本地部署大模型的意思是将一个大型人工智能模型
比如DeepSeek
安装在你自己的本地电脑上!
这样我们就再也不用依赖与外部服务去使用大模型了, 在自己的电脑就可以直接运行和使用大模型,数据也留在本地,更安全、更可控, 那怕是你没有网也完全可以正常在本地使用, 你打开移动端
或者web端
总需要网络对吧! 没网你这么用?另一方面最近DeepSeek
在线使用也不是很稳定,上面我也说过了,如果你部署在本地的情况下,那么完全没有任何必要去担心这个问题!
所以这也是我最推荐大家使用大模型的一种方式,以后的讲解到的大模型会有相应的本都部署教程!
今天我们就先教大家把DeepSeek R1大模型
部署到你的本地电脑!
DeepSeek-R1 是一个怎样的模型
What~~~~!!
你们真的一点文档都没有去看吗~ 😲😲😲
求你们看,看看文档吧~~🤢🤢
https://api-docs.deepseek.com/zh-cn/news/news250120
如图
简单的说DeepSeek-R1模型
是深度求索
研发的一个经过强化训练学习后并且完全开源
的高性能低成本推理模型!
其优势在于数学、代码
和自然语言推理等复杂任务!
DeepSeek-R1
与我们之前说的DeepSeek V3
的主要区别在于它们的架构、训练方式、参数规模
以及应用场景
上
具体大家可以翻阅相关资料,这里我就不展开说了!
这么厉害的模型,不部署到你自己的本地电脑上用一用真的可惜了!
题外话
但是这里我要特别说明一下如果是本地部署
的大模型,那么与在线API、网页版、APP
等方式相比,在性能和功能上可能存在差距!
可能很多人会留意到蒸馏模型
这个词汇,这里我简单的给大家解释一下!
所谓的蒸馏模型
其实用最通俗的话来讲就是把大模型
学到的知识压缩
并传授
给小模型
,让小模型
也能拥有大模型
的部分
能力!
如图
比如这里其实意思就是用Llama
和Qwen
模型榨
出了几个更小但同样聪明的模型来适应我们有各种需求的普通人进行使用!
毕竟大模型
需要很强大的硬件支持
和算力
才能部署、那么我们个人在自己的本地电脑上部署这种蒸馏模型
,也是理所当然的~ 难道我们普通人还有能力去部署大模型吗!
所以网上很多人乱扯什么满血R1大模型
本地部署都是瞎扯淡的,对于普通人而言根本不可能部署满血大模型!
现在懂了吧! 但是我个人觉得蒸馏模型
对于普通人而言,这完全足够了,做人不要太贪心!
Ollama本地部署大模型辅助工具
这里我以Windows
系统为例来给大家讲解部署大模型的前提条件!
首先我们要把大模型部署到自己的电脑上需要借助
一些平台
或框架
来辅助简化操作!
简单的说通过这些平台
或框架
我们就可以更方便地管理大模型的安装、配置、更新
和升级
等工作,减少手动操作的复杂性和错误率, 最终让我们不用从头搭建复杂的环境,就能高效地在本地部署和使用大模型!
而这种平台框架工具其实有很多,这些都可以看作是辅助本地部署
和运行大模型的工具或框架,这里我个人是推荐使用Ollama
!
首先Ollama
的优势在于它专为大语言模型设计,提供极简的命令行操作,也无需复杂配置,最适合快速在本地运行和交互大模型,特别适合初学者
部署大模型,简单干脆!
你可以这样理解Ollama
,它就像一个大模型的载体!
Ollama的下载与安装
Ollama官网
如图
我们直接在这里就开始点击Download
按钮开始下载Ollama
!
然后安装到我们的电脑上,这里以Windows系统
版本为例!
如图
下载好之后直接先双击安装到电脑上!
如图
Ollama
会强制安装到你的C盘
下, 所以请先确保你C盘
有足够空间吧!
如图
等待安装完成之后,我们可以打开cmd命令行
然后输入以下命令
ollama -v
查看一下是否安装成功!
如图
当你看到上面这个提示之后,那么恭喜你安装成功了!
这个时候Ollama
的控制图标会出现在任务栏右下角
的通知区域图标列表
当中
如图
DeepSeek-R1模型的下载
然后我们就可以借助Ollama
的命令来下载DeepSeek大模型
了
Ollama
支持通过其命令来下载
和管理
大模型,其中就包含了DeepSeek大模型
我们在Ollama
官网上点击Models
菜单
如图
直接点击deepseek-r1
如图
然后选择DeepSeek
的版本
不同版本的容量大小不一样,主要在于模型参数数量、训练数据集规模
、支持的特性和优化程度等方面有所不同,所以这里根据你自己的需求进行下载, 条件允许的朋友直接开大,671b 404GB
!
我这里选择的是7b
这个版本!
如图
然后右侧会生成好对应的命令,我们复制一下
如图
然后打开cmd命令行
去执行以下,就可以开始下载DeepSeek大模型
了
如图
这里我们会进入漫长的等待中....
开始访问DeepSeek-R1模型
安装完成之后,我们就可以直接开始使用DeepSeek-R1
来进行简单的对话了!
如图
严格意义上说我们本地部署DeepSeek大模型
已经成功了!
DeepSeek-R1集成ChatboxAI
有没有想过,我们每次都要打开cmd命令行
然后输入以下命令:
ollama run deepseek-r1:7b
来进行对话,但是太麻烦了,数据的复制粘贴也很麻烦,尤其是对新手不太友好!
我们至少还是要弄一个类似于ChatGPT
的web对话网页
进行交互吧!
这里推荐一个工具ChatboxAI
, 它是一款结合人工智能技术和便捷操作界面
的智能对话工具客户端应用!
官网如下
我们可以使用它来和DeepSeek-R1模型
进行智能对话和交流
这里我是下载的Windows客户端
进行使用,当然你也可以使用网页版,大家随意!
安装好之后,你会看到如下界面
现在我们还需要配置一下这个ChatboxAI
让Ollama
来调用起DeepSeek
模型来与我们进行对话!
点击设置
, 然后在模型提供方选择Ollama api
在下方的模型
选项中,选择我们下载的模型名称!
deepseek-r1:7b
如图
然后点击保存之后,就可以和DeepSeek-R1模型
进行对话了!
如图
最后
DeepSeek
对于我们普通老百姓
来说就是用最低的成本用上最好的AI人工智能大模型
,也对国内AI发展有着巨大的帮助和贡献,我个人希望大家少一点猜疑和争论, 缺点是任何产品都是会有的, 一味地抱怨,毫无价值意义~也不能促进一点点的发展,我们需要的是多一点解决问题的方案,听得懂的人自然能听懂!