Python 中调用 DeepSeek-R1 API的方法介绍,图文教程

简介: 本教程详细介绍了如何使用 Python 调用 DeepSeek 的 R1 大模型 API,适合编程新手。首先登录 DeepSeek 控制台获取 API Key,安装 Python 和 requests 库后,编写基础调用代码并运行。文末包含常见问题解答和更简单的可视化调用方法,建议收藏备用。原文链接:[如何使用 Python 调用 DeepSeek-R1 API?](https://apifox.com/apiskills/how-to-call-the-deepseek-r1-api-using-python/)

原文链接:如何使用 Python 调用 DeepSeek-R1 API?超详细的图文教程


本教程将手把手教你通过 Python 调用 DeepSeek 的 R1 大模型 API,即使没有编程基础也能轻松上手。文末还包含常见问题解答,建议收藏备用!


一、准备工作

获取 API Key

首先登录 DeepSeek 控制台,获取 API Key。首次注册登录的用户, DeepSeek 会赠送 10 块钱的 tokens 额度(先看看有没有,也有可能不送了,导致你的 API Key 不能用,没有额度的话得先充钱)。


在「API Keys」页面点击「创建 API Key」,复制生成的密钥(如:sk-123456789abc)。请保存下来,如果忘记或者丢失了需要重新创建一个 API Key。



二、Python 调用步骤

1. 环境准备:安装 Python(已安装可跳过)

  • 如果电脑没有 Python 环境,需要先去安装 Python 环境(macOS 自带 Python3 环境)。可以访问 python.org 来下载安装。
  • 下载最新版(推荐 3.8+)
  • 安装时务必勾选 Add Python to PATH


不需要 Python 环境,直接通过可视化界面来调用 API 的方法:Deepseek API 调用教程,图文讲解


2. 安装 requests 库(已安装可跳过)

在 VSCode 或者其它 IDEA 工具中,新建一个项目文件夹,然后打开终端(顶部菜单:Terminal → New Terminal)执行以下命令:

pip install requests
# 或
pip3 install requests


如果命令执行成功,那么会体现类似这样的提示:

或者这样的:

Successfully installed requests-x.x.x


如果安装失败,并且你的电脑也有 Python 环境,那么可能是因为你的系统中有多个 Python 版本,导致你在不同的环境中使用了不同的 Python 版本,而 requests 库可能只安装在其中一个版本的环境中。


你可以在页面右下角切换版本。


还可以在 VSCode 中安装一个名为 “Python” 的插件,然后通过下面的方式来查看你当前的版本,并打开对应版本的控制台面板来运行上面的命令,比如:


如果实在处理不了这些报错的问题,可以跳到文章的最后一个小节,那里提供了一种更简单的调用 DeepSeek-R1 API 的方法。或者直接访问这篇文章,通过可视化的面板来调用 API:Deepseek API 调用教程,图文讲解


3. 基础调用代码

上面的命令执行成功后,在项目中新建一个以 .py 结尾的文件,比如 deepseek.py 文件,并将以下代码复制粘贴进去(注意替换 sk-你的密钥)。

# deepseek.py 
import requests
# 填写你的 API Key
API_KEY = "sk-你的密钥"  
url = "https://api.deepseek.com/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
data = {
    "model": "deepseek-reasoner",  # 指定使用 R1 模型(deepseek-reasoner)或者 V3 模型(deepseek-chat)
    "messages": [
        {"role": "system", "content": "你是一个专业的助手"},
        {"role": "user", "content": "你是谁?"}
    ],
    "stream": False  # 关闭流式传输
}
response = requests.post(url, headers=headers, json=data)
if response.status_code == 200:
    result = response.json()
    print(result['choices'][0]['message']['content'])
else:
    print("请求失败,错误码:", response.status_code)


通过指定 model='deepseek-chat' 即可调用 DeepSeek-V3。

通过指定 model='deepseek-reasoner',即可调用 DeepSeek-R1。


4. 运行代码

可以通过以下几种方式来运行代码:

  • 可以点击右上角「▶」按钮来运行代码
  • 可以在控制台通过python3 deepseek.pypython deepseek.py来运行代码
  • 可以 “右键编辑器 → Run Python File in Terminal” 来运行代码



5.  成功效果

当看到类似以下输出即表示调用成功:

您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。

或者其它问题的答案。

量子计算是一种利用量子力学特性进行信息处理的新型计算模式,其核心原理与传统经典计算有本质区别。以下是量子计算的基本原理分点解释:
---
### 1. **量子比特(Qubit)**
   - **经典比特 vs. 量子比特**  
     经典计算机使用比特(0或1)作为信息基本单位,而量子计算机使用量子比特(qubit)。量子比特的独特之处在于它可以同时处于0和1的**叠加态**。
   - **叠加态(Superposition)**  
     量子比特的状态可表示为:  
     \[
     |\psi\rangle = \alpha|0\rangle + \beta|1\rangle
     \]  
     其中,\(\alpha\)和\(\beta\)是复数(概率幅),满足\(|\alpha|^2 + |\beta|^2 = 1\)。测量时,量子比特会坍缩到0或1,概率分别为\(|\alpha|^2\)和\(|\beta|^2\)。  
     **类比**:想象一枚旋转的硬币,在停下前既是“正面”又是“反面”。
---
### 2. **量子纠缠(Entanglement)**
   - **定义**  
     多个量子比特可形成纠缠态,此时一个量子比特的状态会瞬间影响另一个,即使它们相隔遥远(爱因斯坦称为“鬼魅般的超距作用”)。
   - **示例**  
     贝尔态(Bell state)是最简单的纠缠态之一:  
     \[
     |\Phi^+\rangle = \frac{|00\rangle + |11\rangle}{\sqrt{2}}
     \]  
     若测量其中一个量子比特为0,另一个必然也是0,反之亦然。
   - **作用**  
     纠缠是实现量子并行性和量子通信(如量子隐形传态)的关键。


三、代码解析

1. 关键参数说明

参数

说明

model

deepseek-reasoner 表示 R1 模型

messages

对话历史记录(支持多轮对话)

stream

True 开启流式输出(适合长文本)


2. 多轮对话示例

messages = [
    {"role": "system", "content": "你是一位诗人"},
    {"role": "user", "content": "写一首关于春天的诗"},
    {"role": "assistant", "content": "春风拂面柳丝长..."},
    {"role": "user", "content": "请继续补充第二段"}
]



四、流式传输模式

修改以下参数即可开启:

data["stream"] = True
response = requests.post(url, headers=headers, json=data, stream=True)
for line in response.iter_lines():
    if line:
        decoded_line = line.decode('utf-8')
        print(decoded_line)


完整代码:

# deepseek.py 
import requests
# 填写你的 API Key
API_KEY = "sk-你的 API Key"  
url = "https://api.deepseek.com/chat/completions"
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
data = {
    "model": "deepseek-chat",  # 指定使用 R1 模型(deepseek-reasoner)或者 V3 模型(deepseek-chat)
    "messages": [
        {"role": "system", "content": "你是一个专业的助手"},
        {"role": "user", "content": "你是谁?"}
    ],
    "stream": False  # 关闭流式传输
}
data["stream"] = True
response = requests.post(url, headers=headers, json=data, stream=True)
for line in response.iter_lines():
    if line:
        decoded_line = line.decode('utf-8')
        print(decoded_line)

下面用的是 V3 模型(deepseek-chat)输出的结果,为什么不用 R1?太火爆了,经常没响应:


五、常见问题

Q1:如何区分 V3 和 R1 模型?

  • V3:model: "deepseek-chat"
  • R1:model: "deepseek-reasoner"


Q2:出现 401 错误?

  • 检查 API Key 是否填写正确
  • 确认密钥未过期


Q3:出现「No module named 'requests'」?

检查是否:

  1. 在正确的终端执行了 pip install requests
  2. VSCode 使用的是正确的 Python 解释器(见上文)


Q4:出现 requests.exceptions.JSONDecodeError: Expecting value: line 1 column 1?

嗯……,跟“服务器繁忙”一个道理,可能用的人太多,响应失败了。


错误提示 Expecting value: line 1 column 1 (char 0) 表示 json() 方法期望收到的是一个有效的 JSON 数据,但实际收到的内容为空。这可能是因为 API 没有返回数据,或者返回的是一个空的响应体。


Q5:为什么启用流式输出后一直出现 keep-alive?

嗯……,跟“服务器繁忙”一个道理,可能用的人太多,所以一直处于长连接状态。


六、更简单的调用 DeepSeek-R1 API 的方法(推荐)

你可以在 Apifox 中调用 DeepSeek-R1 API 或者 DeepSeek-V3 API,你可以通过 Apifox 来进行流式输出结果:


或者整体输出结果:


详情请查看这篇文章:【Deepseek API 调用教程,图文讲解




通过本教程,你已经掌握了 DeepSeek API 的核心调用方法。建议先从简单对话开始测试,逐步尝试流式传输、多轮对话等高级功能。如果在实践中遇到问题,欢迎在评论区留言讨论!


相关文章
|
1月前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
阿里云与企业共筑容器供应链安全
171369 16
|
2天前
|
人工智能 搜索推荐 Docker
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
DeepSeek R1 + LobeChat + Ollama:快速本地部署模型,创建个性化 AI 助手
1593 95
手把手教你使用 Ollama 和 LobeChat 快速本地部署 DeepSeek R1 模型,创建个性化 AI 助手
|
1月前
|
供应链 监控 安全
对话|企业如何构建更完善的容器供应链安全防护体系
随着云计算和DevOps的兴起,容器技术和自动化在软件开发中扮演着愈发重要的角色,但也带来了新的安全挑战。阿里云针对这些挑战,组织了一场关于云上安全的深度访谈,邀请了内部专家穆寰、匡大虎和黄竹刚,深入探讨了容器安全与软件供应链安全的关系,分析了当前的安全隐患及应对策略,并介绍了阿里云提供的安全解决方案,包括容器镜像服务ACR、容器服务ACK、网格服务ASM等,旨在帮助企业构建涵盖整个软件开发生命周期的安全防护体系。通过加强基础设施安全性、技术创新以及倡导协同安全理念,阿里云致力于与客户共同建设更加安全可靠的软件供应链环境。
150306 32
|
9天前
|
Linux iOS开发 MacOS
deepseek部署的详细步骤和方法,基于Ollama获取顶级推理能力!
DeepSeek基于Ollama部署教程,助你免费获取顶级推理能力。首先访问ollama.com下载并安装适用于macOS、Linux或Windows的Ollama版本。运行Ollama后,在官网搜索“deepseek”,选择适合你电脑配置的模型大小(如1.5b、7b等)。通过终端命令(如ollama run deepseek-r1:1.5b)启动模型,等待下载完成即可开始使用。退出模型时输入/bye。详细步骤如下图所示,轻松打造你的最强大脑。
7578 85
|
2天前
|
机器学习/深度学习 人工智能 自然语言处理
PAI Model Gallery 支持云上一键部署 DeepSeek-V3、DeepSeek-R1 系列模型
DeepSeek 系列模型以其卓越性能在全球范围内备受瞩目,多次评测中表现优异,性能接近甚至超越国际顶尖闭源模型(如OpenAI的GPT-4、Claude-3.5-Sonnet等)。企业用户和开发者可使用 PAI 平台一键部署 DeepSeek 系列模型,实现 DeepSeek 系列模型与现有业务的高效融合。
|
10天前
|
人工智能 自然语言处理 Java
Spring AI,搭建个人AI助手
本期主要是实操性内容,聊聊AI大模型,并使用Spring AI搭建属于自己的AI助手、知识库。本期所需的演示源码笔者托管在Gitee上(https://gitee.com/catoncloud/spring-ai-demo),读者朋友可自行查阅。
925 41
Spring AI,搭建个人AI助手
|
2月前
|
弹性计算 人工智能 安全
对话 | ECS如何构筑企业上云的第一道安全防线
随着中小企业加速上云,数据泄露、网络攻击等安全威胁日益严重。阿里云推出深度访谈栏目,汇聚产品技术专家,探讨云上安全问题及应对策略。首期节目聚焦ECS安全性,提出三道防线:数据安全、网络安全和身份认证与权限管理,确保用户在云端的数据主权和业务稳定。此外,阿里云还推出了“ECS 99套餐”,以高性价比提供全面的安全保障,帮助中小企业安全上云。
201990 15
对话 | ECS如何构筑企业上云的第一道安全防线
|
2天前
|
机器学习/深度学习 人工智能 并行计算
一文了解火爆的DeepSeek R1 | AIGC
DeepSeek R1是由DeepSeek公司推出的一款基于强化学习的开源推理模型,无需依赖监督微调或人工标注数据。它在数学、代码和自然语言推理任务上表现出色,具备低成本、高效率和多语言支持等优势,广泛应用于教育辅导、金融分析等领域。DeepSeek R1通过长链推理、多语言支持和高效部署等功能,显著提升了复杂任务的推理准确性,并且其创新的群体相对策略优化(GRPO)算法进一步提高了训练效率和稳定性。此外,DeepSeek R1的成本低至OpenAI同类产品的3%左右,为用户提供了更高的性价比。
707 10
|
12天前
|
人工智能 JavaScript 前端开发
白嫖 DeepSeek ,低代码竟然会一键作诗?
宜搭低代码平台接入 DeepSeek AI 大模型能力竟然这么方便!本教程将揭秘宜搭如何快速接入 DeepSeek API,3 步打造专属作诗机器人,也许你还能开发出更多有意思的智能玩法,让创意在代码间自由生长。
1551 13
|
10天前
|
Linux iOS开发 MacOS
DeepSeek爆火,如何免费部署到你的电脑上?获取顶级推理能力教程来了
如何在本地电脑上免费部署DeepSeek,获取顶级推理能力?只需三步:1. 访问Ollama官网下载并安装对应操作系统的版本(支持macOS、Linux和Windows)。2. 打开Ollama并确保其正常运行。3. 在Ollama官网搜索并选择DeepSeek模型(如deepseek-r1),根据电脑配置选择合适的模型大小(1.5B至671B)。通过终端命令(如ollama run deepseek-r1:1.5b)运行模型,即可开始使用DeepSeek进行推理。退出模型时,在终端输入/bye。更多详情请参考Ollama官方文档。