DeepSeek 本地部署:从环境配置到 API 调用,全流程拆解

2,858 阅读3分钟

一、Deepseek是什么?

DeepSeek是一家专注通用人工智能(AGI)的中国科技公司,主攻大模型研发与应用。

DeepSeek-R1是其开源的推理模型,擅长处理复杂任务且可免费商用。

image.png

二、Deepseek能够做什么?

直接面向用户或者支持开发者,提供智能对话、文本生成、语义理解、计算推理、代码生成补全等应用场景,支持联网搜索与深度思考模式,同时支持文件上传,能够扫描读取各类文件及图片中的文字内容。

image.png

文本生成

image.png

自然语言理解与分析

image.png

编程与代码相关

image.png

常规绘图

image.png

三、如何部署Deepseek?

image.png

1. 在线使用

  • 访问官网: 前往 DeepSeek 官方网站(chat.deepseek.com)

  • 开始对话: 点击“开始对话”按钮。

  • 登录: 首次使用时,需要登录账号。您可以使用手机号、微信或邮箱进行注册和登录。

  • 使用: 登录成功后,您可以在对话框中输入您的需求,DeepSeek 将根据您的指示提供帮助。

2. 本地部署

1.下载 Ollama

ollama.com/

  • Ollama 是一个用于管理和部署机器学习模型的工具。
  • 目前 Ollama 支持 macOS、Linux、Windows,选择相应的系统下载即可。
  • 如果您希望在本地运行 DeepSeek,可以参考以下视频教程,了解如何进行本地部署: youtu.be/2b-CG_FmBQo

image.png

2.选择模型

点击Search models 搜索框,第一条就是 deepseek-r1 模型。

image.png

3.运行模型

运行模型很简单:确定模型后,复制这条指令到终端里

image.png

当进度条跑满时,恭喜,你的电脑已经拥有了顶级的推理能力

4.使用 && 测试

这里我已经提前下好了,使用 ollama 提供的终端指令 ollama list 可以看我们电脑上已经部署了哪些模型,然后使用 ollama run 对应的模型就可以了

image.png

输入 /bye即可退出

image.png

  • ollama 命令查看

3. API 调用

image.png

虽然这里终端已经可以使用了,但是还是不太方便。

  • 这里就有人要问博主了,你推荐的模型确实挺不错的,但是还是太吃操作了,有没有更加方便的使用方式呢?
  • 有的兄弟有的,像更方便的使用方式那么就是 Chatbox

4. Chatbox:设置语言为中文并保存

浏览器搜索 Chatbox 并下载客户端或者网页版都可以

image.png

5. 点击设置选择模型为 OLLAMA API

image.png 为了确保可以连接到本地服务,大家按照提供的教程设置一下,不同的操作系统设置不太一样,然后选择 R1模型并保存

6. 连接到本地服务教程跳转

image.png 现在你就可以在 浏览器/客户端 上流畅的使用 R1 了。

7. 创建你的专属 GPTs

image.png

以上就是我对 DeepSeek R1本地化部署 Ollama + Chatbox 打造最强 AI 工具 的理解,觉得这篇文章对你有帮助的,可以点赞收藏关注支持一波~

原文:blog.csdn.net/weixin_5077…