DeepSeek使用及本地部署教程

253 阅读4分钟

一、DeepSeek的几种使用/部署方式:

针对普通用户:
  • 网页版:访问 DeepSeek官网 即可使用。
  • App版本:在各大应用商店搜索“DeepSeek”并下载安装。
针对高阶用户(如开发者):
  • 调用API + DeepSeek 服务器
  • 通过第三方平台
    • 特点:不卡顿,适合需要稳定服务的用户。
    • 举例
  • 本地算力部署
    • 特点:小模型的蒸馏版本;离线使用,数据安全,完全免费;不支持联网访问。
    • 工具:Ollama + ChatBox / Anything LLM
    • 模型下载地址github.com/deepseek-ai…

二、DeepSeek部署具体步骤

调用API + DeepSeek 服务器

  1. 注册并获取API Key
  1. 配置API请求
    • 使用获取的API Key和API终端请求地址进行配置。

通过第三方平台

  1. 选择平台
    • 选择一个第三方平台(如硅基流动、秘塔搜索、百度千帆)。
  1. 注册并获取API Key
    • 在所选平台注册账号并获取API Key。
  1. 配置API请求
    • 使用获取的API Key和API终端请求地址进行配置。

本地算力部署

  1. 下载模型
  1. 安装工具
    • 安装Ollama和ChatBox / Anything LLM。
  1. 配置模型
    • 将下载的模型配置到Ollama和ChatBox / Anything LLM中。
本地算力部署前需要了解的关键信息
  • 模型提供商地址(API终端请求地址/API域名/base_url)
  • API Key
  • 模型名或id(model/Model ID)
模型供应商推荐:
  1. 英伟达
    • 网址build.nvidia.com/
    • 特点:不需要特殊网络、免费赠送1000次使用R1。
  1. 天翼云
总结:

具体步骤

  1. 打开英伟达官网( https://build.nvidia.com/ ),登录并点击“deepseek-r1”模块

  1. 获取英伟达调deepseek-r1对应的三大关键信息:
  • 模型提供商地址(API终端请求地址/API域名/base_url):integrate.api.nvidia.com/v1 对应的base_url的内容
  • API Key:nvapi-n1aGGw2ozDGZIYoiAMYvlPq..... 对应的api_key
  • 模型名:deepseek-ai/deepseek-r1 对应的model

  1. DeepSeek 的Github上下载可接入模型的 客户端

DeepSeek提供的可接入客户端:github.com/deepseek-ai…

如下图,DeepSeek提供了很多应用程序,你可以选择一个,将DeepSeek 大模型能力轻松接入。

这里选择的是ChatBox为例,点击ChatBox直接去官网下载客户端

  1. 配置 ChatBox 信息

下载完ChatBox客户端之后直接打开,会有如下的信息配置弹窗,(如果没有,可以找下“设置“),点击“使用自己的API Key 或本地模型”

将我们前面获取的英伟达调用deepseek-r1对应的三大关键信息直接粘贴录入(这里的API路径可以不用写),点击“保存”。

  1. 正确使用

然后打开一个新对话框,显示如下,说明已经部署成功了。

chatbox web如果api setting配置错误,更改后,仍然会报错。建议重新开启一个对话,再次尝试即可。

如果使用英伟达的不顺畅,可以试试使用天翼云的

三、常见软件配置

Dify

地址:cloud.dify.ai/apps

点击“模型供应商”,选择你需要添加的模型,我这里选择OpenAI-API-compatible

添加配置信息,记得保存

四. 补充说明

  1. API Key的安全性
    • 请妥善保管API Key,避免泄露。
    • 建议定期更换API Key以增强安全性。
  1. 本地部署的优势
    • 数据安全:所有数据处理都在本地进行,无需担心数据泄露。
    • 离线使用:无需联网即可使用,适合网络不稳定的环境。
  1. 第三方平台的选择
    • 根据具体需求选择合适的第三方平台,不同平台可能有不同的服务特点和价格。
  1. 常见问题排查
    • API请求失败:检查API Key和API终端请求地址是否正确。
    • 模型加载失败:确保模型文件完整且路径正确。