5分钟Deepseek R1本地化部署

简介: DeepSeek R1 是一款基于Transformer架构的先进大语言模型,以其强大的自然语言处理能力和高效的推理速度著称。本文介绍如何通过开源框架Ollama在本地快速部署DeepSeek R1。Ollama简化了大型语言模型的部署过程,支持多种操作系统和模型格式,提供便捷的安装、启动及API接口,使得研究人员和开发者能轻松运行和定制模型。通过简单的命令行操作和HTTP API,用户可以在本地环境中高效利用DeepSeek R1的强大功能。

5分钟Deepseek R1本地化部署

在人工智能领域,DeepSeek的崛起犹如一颗璀璨的新星,迅速吸引了全球科技界的目光。作为一款基于Transformer架构的先进大语言模型,DeepSeek凭借其强大的自然语言处理能力和高效的推理速度,在文本生成、问答系统、翻译、摘要等多个任务中展现出了卓越的性能。其独特的训练数据多样性和模型架构优化,使得DeepSeek能够更好地理解上下文语义,生成更加连贯和准确的文本。近年来,DeepSeek从发布第二代模型DeepSeek-V2,到推出总参数高达6710亿的DeepSeek-V3,再到性能与OpenAI的GPT-4正式版相当的DeepSeek-R1,每一次迭代都带来了技术的重大突破。其高性价比的开源策略,不仅显著降低了企业采用AI技术的门槛,还推动了AI技术的普惠化。如今,DeepSeek已经成为全球AI领域的有力竞争者,其本地化部署更是成为了众多开发者和研究人员关注的焦点。本文将详细介绍DeepSeek本地化部署的全过程,带您深入了解这款备受瞩目的大语言模型。

deepseek本地化部署的快速方式就是通过ollama。Ollama是一个专为在本地机器上便捷部署和运行大型语言模型(LLM)而设计的开源框架。它简化了大型语言模型的部署过程,提供了轻量级与可扩展的架构,并支持多种操作系统和模型格式,使得研究人员、开发人员和爱好者能够更加方便地在本地环境中运行和定制这些模型。Ollama的出现极大地拓宽了大型语言模型的应用范围,并在多个领域展现出广泛的应用前景。

Ollama是一个集成了多种大型语言模型的工具,它支持模型的部署、运行以及API的整合和调用。Ollama为不同操作系统的用户提供了便捷的安装方式,并具备丰富的命令行界面(CLI)和API接口,使得用户可以轻松地管理和运行大型模型。

yyq-2024-08-10-00-38-00.png

目前Ollama官方支持deepseek r1模型

yyq-2025-02-11-20-44-29.png

一、安装

Ollama的安装方式因操作系统而异,以下是主要操作系统的安装步骤:

macOS

  1. 安装Homebrew(如果尚未安装):

    • 打开终端,输入以下命令安装Homebrew:/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  2. 安装Ollama

    • 在终端中输入brew install ollama命令进行安装。
  3. 验证安装

    • 安装完成后,可以通过输入ollama --version来验证Ollama是否安装成功。

Windows

  1. 下载安装包

    • 访问Ollama的官方网站,下载适用于Windows的安装包。
  2. 运行安装包

    • 双击下载的安装包,按照提示完成安装。默认安装路径通常为C:\Users\{你的电脑账户名}\AppData\Local\Programs\Ollama
  3. 配置环境变量(如遇到ollama命令无法使用的情况):

    • 控制面板 → 系统 → 高级系统设置 → 环境变量 → 在系统变量中找到Path → 编辑 → 新建,添加Ollama的安装路径。
  4. 验证安装

    • 打开命令提示符,输入ollama --version来验证安装是否成功。

Linux

  1. 更新包列表(以Debian/Ubuntu为例):

    • 打开终端,输入sudo apt-get update命令。
  2. 安装Ollama

    • 输入curl -fsSL https://ollama.com/install.sh | sh命令进行安装
  3. 验证安装
    • 输入ollama --version来验证安装是否成功。

二、启动

Ollama的启动可以通过命令行完成,使用ollama serve或其别名servestart命令即可启动Ollama服务。Ollama将自动处理模型的加载和配置,无需用户手动干预。

也可以通过sudo systemctl start ollama, 具体的启动service

# /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3

[Install]
WantedBy=default.target

三、常用命令

Ollama提供了丰富的命令行工具,以下是一些常用命令:

  1. 启动Ollama服务ollama serve
  2. 从模型文件创建模型ollama create [模型名称] -f [模型文件路径]
  3. 显示模型信息ollama show [模型名称]
  4. 运行模型ollama run [模型名称] [输入文本]
  5. 从注册表中拉取模型ollama pull [模型名称]
  6. 将模型推送到注册表ollama push [模型名称]
  7. 列出所有模型ollama list
  8. 复制模型ollama cp [源模型名称] [目标模型名称]
  9. 删除模型ollama rm [模型名称]
  10. 获取帮助信息ollama help

特别的,可以通过ollama ps查看模型运行负载情况

ollama ps
NAME          ID              SIZE     PROCESSOR    UNTIL
llama3:70b    bcfb190ca3a7    42 GB    100% GPU     4 minutes from now

可以通过ollama run deepseek-r1:70b 来下载模型和启动CLI

模型默认在

  • macOS: ~/.ollama/models
  • Linux: /usr/share/ollama/.ollama/models
  • Windows: C:\Users\%username%.ollama\models

四、接口API使用

ollama run模型后会启动一个http服务: localhost:11434,可以通过prompt和chat方式和大模型进行交互


curl http://localhost:11434/api/generate -d '{
  "model": "deepseek-r1:70b",
  "prompt":"Why is the sky blue?"
}'

curl http://localhost:11434/api/chat -d '{
  "model": "deepseek-r1:70b",
  "messages": [
    { "role": "user", "content": "why is the sky blue?" }
  ]
}

ollama也提供了openai式的接口

from openai import OpenAI

client = OpenAI(
    base_url='http://localhost:11434/v1/',

    # required but ignored
    api_key='ollama',
)

chat_completion = client.chat.completions.create(
    messages=[
        {
   
            'role': 'user',
            'content': 'Say this is a test',
        }
    ],
    model='deepseek-r1:70b',
)


completion = client.completions.create(
    model="deepseek-r1:70b",
    prompt="Say this is a test",
)

list_completion = client.models.list()

model = client.models.retrieve("deepseek-r1:70b")

embeddings = client.embeddings.create(
    model="all-minilm",
    input=["why is the sky blue?", "why is the grass green?"],
)

五、ollama还支持的模型

ollama支持绝大多数开源大模型和一些多模态模型

yyq-2024-08-10-01-05-35.png

更全的参考

目录
相关文章
|
8天前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
8天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
2850 112
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
3天前
|
云安全 边缘计算 人工智能
对话|ESA如何助力企业高效安全开展在线业务?
ESA如何助力企业安全开展在线业务
1024 8
|
7天前
|
API 开发工具 Python
阿里云PAI部署DeepSeek及调用
本文介绍如何在阿里云PAI EAS上部署DeepSeek模型,涵盖7B模型的部署、SDK和API调用。7B模型只需一张A10显卡,部署时间约10分钟。文章详细展示了模型信息查看、在线调试及通过OpenAI SDK和Python Requests进行调用的步骤,并附有测试结果和参考文档链接。
1546 9
阿里云PAI部署DeepSeek及调用
|
6天前
|
人工智能 自然语言处理 JavaScript
宜搭上新,DeepSeek 插件来了!
钉钉宜搭近日上线了DeepSeek插件,无需编写复杂代码,普通用户也能轻松调用强大的AI大模型能力。安装后,平台新增「AI生成」组件,支持创意内容生成、JS代码编译、工作汇报等场景,大幅提升工作效率。快来体验这一高效智能的办公方式吧!
1429 6
|
3天前
|
人工智能 自然语言处理 API
DeepSeek全尺寸模型上线阿里云百炼!
阿里云百炼平台近日上线了DeepSeek-V3、DeepSeek-R1及其蒸馏版本等六款全尺寸AI模型,参数量达671B,提供高达100万免费tokens。这些模型在数学、代码、自然语言推理等任务上表现出色,支持灵活调用和经济高效的解决方案,助力开发者和企业加速创新与数字化转型。示例代码展示了如何通过API使用DeepSeek-R1模型进行推理,用户可轻松获取思考过程和最终答案。
|
15天前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
9589 86
|
1月前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171380 18
|
7天前
|
缓存 自然语言处理 安全
快速调用 Deepseek API!【超详细教程】
Deepseek 强大的功能,在本教程中,将指导您如何获取 DeepSeek API 密钥,并演示如何使用该密钥调用 DeepSeek API 以进行调试。
|
4天前
|
人工智能 数据可视化 Linux
【保姆级教程】3步搞定DeepSeek本地部署
DeepSeek在2025年春节期间突然爆火出圈。在目前DeepSeek的网站中,极不稳定,总是服务器繁忙,这时候本地部署就可以有效规避问题。本文以最浅显易懂的方式带读者一起完成DeepSeek-r1大模型的本地部署。

热门文章

最新文章