今天刷到 DeepSeek 发了 V4 预览版,我第一反应是:又来?V3 我才用熟,V4 就来了。但点进去看了下 benchmark,确实有提升,尤其是长上下文和代码生成这块。正好我一个学弟刚学 Python,问我「哥,这个 API 到底怎么调?我连 Key 是啥都不知道」——我寻思干脆写一篇从零开始的教程,把术语也解释清楚,省得每次都在微信上打字教。
DeepSeek V4 预览版的 API 调用流程很简单:注册账号拿到 API Key,装个 openai 这个 Python 库,然后不到 10 行代码就能发出第一个请求。整个过程 5 分钟内跑通,不需要任何机器学习基础,会装 Python 就行。
先说结论
| 步骤 | 耗时 | 难度 |
|---|---|---|
| 注册账号 | 1 分钟 | 填个手机号就行 |
| 获取 API Key | 30 秒 | 点一下按钮 |
| 安装依赖 | 30 秒 | 一行 pip 命令 |
| 写代码跑通 | 3 分钟 | 复制粘贴即可 |
下面每一步我都会截图级别地讲清楚,术语也会解释,完全零基础友好。
术语扫盲(30 秒读完)
开始之前先搞懂几个词,不然后面会懵:
- API:Application Programming Interface,简单理解就是「你的代码和 DeepSeek 服务器之间的对话通道」。你发一段话过去,它返回 AI 的回答。
- API Key:一串密码字符串,用来证明「这个请求是你发的,从你账户扣费」。类似银行卡号,别泄露。
- Token:AI 处理文本的最小单位。大约 1 个中文字 ≈ 1-2 个 token,1 个英文单词 ≈ 1 个 token。API 按 token 数量计费。
- base_url:你的代码要把请求发到哪个服务器地址。不同平台地址不同。
- model:你要调用哪个模型,比如
deepseek-v4就是指定用 V4 预览版。
搞懂这几个就够了,往下走。
第一步:环境准备
你需要:
- Python 3.8+(终端输入
python --version确认) - pip(Python 自带的包管理器)
如果你连 Python 都没装,去 python.org 下载安装,记得勾选「Add to PATH」。
安装唯一需要的依赖:
pip install openai
这里用的是 OpenAI 官方的 Python SDK。你可能会问:我要调 DeepSeek,为啥装 openai 的库?
好问题。因为 DeepSeek 的 API 协议兼容 OpenAI 格式,直接复用这个 SDK,改一下 base_url 就行。目前大部分模型厂商都兼容 OpenAI 的接口格式,算是行业事实标准了。
第二步:注册账号 + 拿 Key
方案一:DeepSeek 官方平台
- 打开 platform.deepseek.com
- 手机号注册,验证码登录
- 进入控制台,左侧菜单找到「API Keys」
- 点「创建 API Key」,起个名字(比如
my-first-key),复制保存
⚠️ Key 只显示一次,复制后存到本地文件里,丢了只能重新创建。
拿到的 Key 长这样:sk-xxxxxxxxxxxxxxxxxxxxxxxx
方案二:用聚合平台(省事版)
说实话,如果你后面还想试 GPT-5.5、Claude 4.6、Gemini 3 这些模型,每个平台都注册一遍挺烦的。我现在的做法是用 ofox.ai 这个聚合平台——一个 API Key 可以调用 50+ 模型,包括 DeepSeek V4,改个 model 参数就能切换,不用到处注册。ofox.ai 支持支付宝/微信付款,按量计费,免费版可以起步,对学生来说比较友好。
两种方案都行,下面代码我两种都写。
第三步:跑通第一个请求
用 DeepSeek 官方接口
创建一个文件 hello_deepseek.py:
from openai import OpenAI
client = OpenAI(
api_key="sk-你的DeepSeek-Key", # 替换成你自己的 Key
base_url="https://api.deepseek.com/v1" # DeepSeek 官方地址
)
response = client.chat.completions.create(
model="deepseek-v4", # V4 预览版模型名
messages=[
{"role": "user", "content": "用一句话解释什么是 API"}
],
max_tokens=200 # 限制回答长度,省 token
)
print(response.choices[0].message.content)
运行:
python hello_deepseek.py
如果一切正常,你会看到类似这样的输出:
API 是一种让不同软件之间互相通信的接口,就像餐厅的服务员——你告诉它你要什么,它去厨房拿给你。
第一个 AI API 调用成功了 🎉
用聚合接口(改一行就行)
from openai import OpenAI
client = OpenAI(
api_key="your-ofox-key", # 在 ofox.ai 拿到的 Key
base_url="https://api.ofox.ai/v1" # 聚合接口地址
)
response = client.chat.completions.create(
model="deepseek-v4", # 同样的模型名
messages=[
{"role": "user", "content": "用一句话解释什么是 API"}
],
max_tokens=200
)
print(response.choices[0].message.content)
代码几乎一模一样,就改了 api_key 和 base_url。哪天想试试 GPT-5.5,把 model 改成 gpt-5.5 就行,其他代码一个字不用动。
第四步:进阶一点——多轮对话
刚才是单轮问答,实际场景经常需要多轮对话(让 AI 记住上下文)。核心就是 messages 列表里多塞几条消息:
from openai import OpenAI
client = OpenAI(
api_key="your-key",
base_url="https://api.ofox.ai/v1"
)
messages = [
{"role": "system", "content": "你是一个耐心的编程老师,用大白话解释概念"},
{"role": "user", "content": "什么是变量?"},
]
# 第一轮
response = client.chat.completions.create(
model="deepseek-v4",
messages=messages,
max_tokens=300
)
answer1 = response.choices[0].message.content
print("AI:", answer1)
# 把 AI 的回答加进历史
messages.append({"role": "assistant", "content": answer1})
# 第二轮追问
messages.append({"role": "user", "content": "那函数呢?跟变量有啥关系?"})
response = client.chat.completions.create(
model="deepseek-v4",
messages=messages,
max_tokens=300
)
print("AI:", response.choices[0].message.content)
role 的三个值解释一下:
| role | 含义 | 什么时候用 |
|---|---|---|
system | 系统提示词,设定 AI 的角色和行为 | 对话开头放一条 |
user | 用户说的话 | 你的每次提问 |
assistant | AI 之前的回答 | 塞进去让 AI 记住上下文 |
第五步:流式输出(打字机效果)
默认调用是等 AI 全部生成完才一次性返回,等待时间比较长。加个 stream=True 就能像 ChatGPT 那样一个字一个字蹦出来:
from openai import OpenAI
client = OpenAI(
api_key="your-key",
base_url="https://api.ofox.ai/v1"
)
stream = client.chat.completions.create(
model="deepseek-v4",
messages=[
{"role": "user", "content": "写一首关于代码的五言绝句"}
],
stream=True # 开启流式输出
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)
print() # 最后换行
运行效果就是文字一个个冒出来,体验好很多。
整体调用流程
graph LR
A[你的 Python 代码] -->|发送 messages| B{API 网关}
B -->|官方直连| C[DeepSeek V4 服务器]
B -->|聚合接口| D[ofox.ai 网关]
D --> C
D --> E[GPT-5.5]
D --> F[Claude 4.6]
C -->|返回生成结果| A
不管走哪条路线,代码写法都一样,区别只在 base_url 和 api_key。
踩坑记录
写这篇的时候我让学弟跟着操作了一遍,果然踩了几个坑:
坑 1:ModuleNotFoundError: No module named 'openai'
他装了 Python 但用的是系统自带的旧版,pip 装到了另一个环境里。解决:
python -m pip install openai
用 python -m pip 而不是直接 pip,确保装到你实际运行的那个 Python 环境里。
坑 2:AuthenticationError: Incorrect API key
Key 复制的时候前面多了个空格……低级错误但真的常见。建议把 Key 存到环境变量里:
# Mac/Linux
export DEEPSEEK_API_KEY="sk-xxxxxx"
# Windows PowerShell
$env:DEEPSEEK_API_KEY="sk-xxxxxx"
代码里这样读:
import os
client = OpenAI(
api_key=os.environ.get("DEEPSEEK_API_KEY"),
base_url="https://api.deepseek.com/v1"
)
坑 3:返回结果是空的
max_tokens 设太小了(他设了 10),AI 话说一半就被截断。新手建议设 500-1000,等熟悉了再按需调整。
坑 4:报错 429 Too Many Requests
免费额度用完了或者请求太频繁。DeepSeek 免费额度有限,如果是学习用途,控制下调用频率,或者充几块钱。
费用大概多少?
学生党最关心这个,我算了一下:
| 场景 | 大约 token 数 | V4 预览版费用(估算) |
|---|---|---|
| 问一个简单问题 | ~500 tokens | < ¥0.01 |
| 让 AI 写一段代码 | ~2000 tokens | ~¥0.02-0.05 |
| 多轮对话聊 10 分钟 | ~5000 tokens | ~¥0.05-0.15 |
| 一天高强度学习调试 | ~50000 tokens | ~¥0.5-1.5 |
学习阶段一个月花不了几块钱。别怕烧钱,大胆调。
小结
整个流程回顾:
- 装好 Python +
pip install openai - 注册拿 Key(官方或聚合平台都行)
- 10 行代码跑通第一个请求
- 多轮对话就是往
messages列表里追加消息 - 加
stream=True实现打字机效果
DeepSeek V4 预览版目前体验下来,中文理解和代码生成比 V3 有进步,长上下文场景不容易丢信息了。作为学习 AI API 的入门模型,性价比很高。
有问题评论区问,我看到会回。学弟已经跑通了,你也行。