DeepSeek真这么强!?——三种使用方式+推理询问指令😋

2,819 阅读4分钟

放假期间,这款由国内开发的大模型——DeepSeek 直接爆火,下载量达到过No.1 国内刷屏 为啥deepseek真是很优秀的一款AI软件?

如果如此优秀,那怎么能嵌入到日常开发?能不能调用deepseek的API来使用?平时使用deepseek来进行科研项目或是项目开发,怎么更好的使用指令尼?

来看看,有没有你不知道的deepseek🚀🚀

一、DeepSeek 的核心优势

1. 高效推理,降低成本

  • DeepSeek 通过优化的 Transformer 架构和轻量级推理技术,显著降低了计算资源需求。
  • 相比 GPT-4,DeepSeek 的成本仅为 1/10,但性能接近(99.6% 的准确率)。
  • 支持 4bit 量化,模型体积减少 75%,推理速度提升显著。

2. 开源与闭源双轨并行

  • DeepSeek 提供开源版本,方便开发者自定义和优化。
  • 同时提供闭源的高性能版本,满足企业级需求。

3. 灵活的部署方式

  • 支持网页访问、API 调用和本地部署,适应不同场景需求。
  • 本地部署支持多种硬件配置,从高端 GPU 到普通 CPU 均可运行。

二、DeepSeek 的三种使用方式

1. 通过 DeepSeek 聊天平台进行网页访问

DeepSeek 提供了一个友好的用户界面,无需任何设置即可与模型互动。

访问步骤:

  1. 浏览至 DeepSeek 聊天平台
  2. 注册账号或直接登录。
  3. 选择“深度思考”模式,体验 DeepSeek-R1 的逐步推理功能。

特点:

  • 零门槛,适合非技术用户。
  • 支持多轮对话和复杂问题推理。

只是现在deepseek爆火,甚至被攻击,有时候会无法发送请求

2. 通过 DeepSeek API 访问

DeepSeek 提供了与 OpenAI 兼容的 API,方便开发者将模型嵌入应用程序中。

使用步骤:

  1. 获取 API 密钥
  2. 配置环境
    • 设置 base_urlhttps://api.deepseek.com/v1
    • 使用 API 密钥进行认证(通过 Bearer Token)。
  3. 发起 API 调用
    • 参考以下代码示例调用 API。

代码示例:

from openai import OpenAI

# 初始化客户端
client = OpenAI(api_key="<DeepSeek API Key>", base_url="https://api.deepseek.com/v1")

# 发起请求
response = client.chat.completions.create(
    model="deepseek-chat",
    messages=[
        {"role": "system", "content": "You are a helpful assistant"},
        {"role": "user", "content": "用 Python 实现一个快速排序算法"},
    ],
    stream=False
)

# 输出结果
print(response.choices[0].message.content)

特点:

  • 与 OpenAI API 完全兼容,迁移成本低。
  • 支持流式响应,适合实时应用场景。

3. 在本地部署 DeepSeek

DeepSeek 支持本地部署,适合对数据隐私和延迟要求较高的场景。

硬件需求:

  • 完整模型:推荐使用高端 GPU(如 Nvidia RTX 3090 或更高),至少 48GB 显存。
  • 蒸馏模型:支持低配硬件,7B 参数模型可在 6GB 显存的 GPU 或 4GB 内存的 CPU 上运行。

本地部署步骤:

  1. 安装 Ollama
    • Ollama 是一个支持本地运行 AI 模型的工具,可从 ollama.com 下载。
  2. 验证安装
    • 打开终端,运行以下命令验证安装:
      ollama --version
      
    • 如果显示版本号,说明安装成功。
  3. 下载 DeepSeek 模型
    • 使用 Ollama 下载 DeepSeek 模型:
      ollama pull deepseek-r1
      
  4. 运行模型
    • 启动 DeepSeek 模型:
      ollama run deepseek-r1
      

特点:

  • 支持离线运行,数据隐私有保障。
  • 可根据硬件配置选择不同规模的模型。

三、DeepSeek 的模型选择:R1 与 R1-Zero

DeepSeek 提供两种主要模型版本,满足不同需求:

特性R1R1-Zero
参数量13B7B
内存占用26GB14GB
适用场景复杂逻辑推理实时响应需求
量化支持支持到 4bit支持到 2bit
API 延迟350ms180ms

选择建议:

  • 如果需要处理复杂任务(如代码生成、数学推理),选择 R1。
  • 如果需要快速响应和低资源消耗,选择 R1-Zero。

四、DeepSeek 的典型应用场景

使用 “身份 + 任务 + 细节约束 + 输出格式” 这一公式非常重要。这个方法可以确保你在提问时更加明确需求,从而得到最合适的答案。

身份:指你扮演的角色(如学生、程序员、电商运营等)。

任务:明确需要AI完成的任务。

细节约束:是否有特殊要求,比如字数、风格、场景等。

输出格式:你想要的结果形式(如表格、段落、总结等)。

1. 代码生成与优化

  • 示例指令:
    用 Python 实现一个 REST API,要求支持 JWT 认证,说人话。
    

2. 技术文档解读

  • 示例指令:
    解释 Kubernetes 的 Pod 概念,让新手也能听懂。
    

3. 数据分析与可视化

  • 示例指令:
    用 Pandas 分析 CSV 数据,并生成柱状图,给出完整代码。
    

4. 多轮对话与推理

  • 示例指令:
    我想实现一个推荐系统,担心数据稀疏性问题,希望给出解决方案。
    

五、总结

立即体验 DeepSeek,开启高效 AI 之旅:

DeepSeek,让 AI 更简单、更强大!