零门槛本地部署!手把手教你用Ollama+Chatbox玩转DeepSeek大模型

简介: 本教程介绍如何在个人电脑上免费部署DeepSeek模型,无需高端显卡。通过Ollama和Chatbox两款轻量工具,用户可以在普通CPU上流畅运行大型语言模型。Ollama支持跨平台操作,提供一键式安装和模型管理;Chatbox则是多平台AI客户端,支持多种主流模型。教程涵盖Ollama和Chatbox的安装、DeepSeek模型的下载与配置,帮助你在本地轻松搭建智能助手,适用于学术研究、代码编写和日常问答等场景。

9c5ff0082dd24faf9bc8240969fa84c0_0.png

在AI技术飞速发展的今天,大型语言模型已不再是云端服务的专属。本教程将教你如何通过Ollama和Chatbox两款轻量工具,在个人电脑上免费部署炙手可热的DeepSeek模型,无需高端显卡,普通CPU也能流畅运行!

ollama安装及部署Deepseek模型

首先我们需要在电脑上安装ollama,本文以windows为例。

ollama简介

Ollama 是一款开源的本地大模型部署工具,旨在让用户能够轻松在个人电脑上运行各种开源大型语言模型(如 Llama、Mistral、DeepSeek 等)。它支持跨平台操作(Windows/macOS/Linux),提供一键式安装和模型管理,优化了内存和计算资源的使用,即使是普通配置的设备也能流畅运行。通过 Ollama,开发者、研究者和爱好者可以快速部署私有化 AI 应用,无需依赖云端服务,同时享受高效、安全的本地 AI 体验。

ollama目前在github上已经拥有123k star

_20250209152319.jpg

ollama github地址:https://github.com/ollama/ollama

ollama安装

ollama安装比较简单,直接在官网下载windows安装包安装就可以了。

_20250209151707.jpg

ollama下载地址:https://ollama.com/download

安装完之后我们可以在dos窗口中使用以下命令查看版本

ollama -v

_20250209152601.jpg

使用ollama下载deepseek模型

根据自己的电脑配置选择合适的deepseek-r1模型进行安装,目前deepseek-r1有以下版本

_20250209152830.jpg

我下载的是14b的模型,下载命令如下(我已经下载过14b了,此处用8b做示范),

ollama run deepseek-r1:8b

如果之前未下载过模型文件,执行的命令的时候会下载

_20250209153143.jpg

下载完成之后我们就可以在窗口中使用deepseek-r1模型提问了

_20250209163200.jpg

ollama api默认只能在本机使用,如果我们想在局域网中使用我们模型的api,则需要在环境变量中添加以下两个配置:


OLLAMA_HOST   0.0.0.0

OLLAMA_ORIGINS   *

添加完成之后需要重启电脑、重启电脑、重启电脑才能生效

chatbox安装及api配置

chatbox 简介

Chatbox 是一个 AI 模型桌面客户端,支持 ChatGPT、Claude、Google Gemini、Ollama 等主流模型,适用于 Windows、Mac、Linux、Web、Android 和 iOS 全平台

该项目目前已经在github上拥有28.9k star

_20250209155230.jpg

github 地址: https://github.com/Bin-Huang/chatbox

chatbox安装

chatbox安装较为简单,下载最新安装包后直接安装就可以了,如果你之前安装过chatbox,卸载之后安装最新版本,不然会有点慢。

chatbox 下载地址:https://chatboxai.app/zh

_20250209155617.jpg

ollama api配置

chatbox安装完成之后就可以配置ollama api了,如果要在局域网中使用的话前面所说的环境变量务必要配置,不然只能使用127.0.0.1了。

在chatbox中点击设置,模型提供方选择OLLAMA API

_20250209160008.jpg

api 域名 填写模型安装机器的ip(本机安装的话也可以使用127.0.0.1):11434,
模型可以选择自己下载过的任意一个

_20250209160535.jpg

这样,我们就可以使用chatbox进行提问了

_20250209163730.jpg

总结

通过本教程,你已成功搭建了一个完全本地化的智能助手!无论是学术研究、代码编写还是日常问答,DeepSeek都能提供可靠支持。赶紧尝试用ollama list探索更多可用模型,开启你的本地AI之旅吧!

目录
相关文章
|
人工智能 监控 Swift
魔搭社区LLM模型部署实践 —— 以ChatGLM3为例
本文将以ChatGLM3-6B为例,介绍在魔搭社区如何部署LLM
|
数据可视化 测试技术 PyTorch
智谱ChatGLM3魔搭最佳实践教程来了!
ChatGLM3-6B 是 ChatGLM 系列最新一代的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上
|
5天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
2325 108
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
12天前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
9072 86
|
5天前
|
人工智能 Java 测试技术
本地玩转 DeepSeek 和 Qwen 最新开源版本(入门+进阶)
本文将介绍如何基于开源工具部署大模型、构建测试应用、调用大模型能力的完整链路。
259 19
|
2天前
|
Web App开发 测试技术 API
使用Ollama和Botnow本地部署DeepSeek R1模型的对比分析
本文详细对比了使用Ollama和Botnow两种方式在本地运行DeepSeek R1等开源大模型的不同。通过Ollama,用户可以在个人电脑(如MacBook Pro)上快速部署和测试模型;而Botnow则提供了企业级的API接入和本地部署方案,支持更复杂的应用场景。具体步骤包括环境准备、模型下载与运行、图形化界面操作等,帮助用户选择最适合自己的方式体验大模型的强大功能。
60 0
|
3月前
|
人工智能 自然语言处理 并行计算
探索大模型部署:基于 VLLM 和 ModelScope 与 Qwen2.5 在双 32G VGPU 上的实践之旅
本文介绍了使用 `VLLM` 和 `ModelScope` 部署 `Qwen2.5` 大模型的实践过程,包括环境搭建、模型下载和在双 32G VGPU 上的成功部署,展现了高性能计算与大模型结合的强大力量。
415 3
昇腾910A部署Qwen2-7B教程
Qwen2-7BS适配昇腾910A教程。
|
4月前
|
Linux Shell API
ollama 大模型部署 工具 | AIGC
Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。【10月更文挑战第1天】
715 1
|
7月前
|
人工智能 自然语言处理 测试技术
Meet Llama3.1,405B赶超最强闭源模型!上魔搭社区一站体验、下载、推理、微调、部署
官方公布的Benchmark显示,Llama3.1 405B已在多项基准测试中超越GPT-4o和Claude 3.5 Sonnet,这是开源大模型首次赶超最强闭源模型!

热门文章

最新文章