deepseek详细安装教程: 本地部署deepseek R1 模型

256 阅读4分钟

深度学习领域迎来一则重磅消息:DeepSeek 正式发布了 R1 模型。这款模型在推理和数学能力方面表现卓越,一举超越了 OpenAI 的 O1 模型,而且关键的是,它免费且开源,这无疑为广大开发者和 AI 爱好者带来了福音。

无论是对电影神话故事的深入分析,还是详细的美食制作指南,它都能给出令人满意的回答,处理起来游刃有余。如此出色的表现,让我们对其充满了更多期待。

前言

目前网上关于很多关于Deepseek服务崩溃而推荐本地部署. 小编认为选择本地部署一定是有一定兴趣. 想研究或者训练自己的AI。而不是因为其他原因. 像服务器崩溃问题后续肯定会被妥善处理.

对于本地部署. 由于个人电脑硬件的限制.例如GPU. 本地部署没法选择大神经原参数. 通常选择7b,8b参数. 相对来说还是有一定差距的.

因此对于普通个人来说. 最合适的就是研究deepseek 的使用. 关键词组合. 使用在线deepseek. 本地部署deepseek 更适合大型企业, 研究机构或对数据隐私要求高的行业.

现在网络上关于 DeepSeek R1 的使用教程丰富多样,涵盖专业知识和行业应用。

如果你对本地部署感兴趣. 接下来,为大家详细介绍deepseek本地部署的方法。

在线deepseek 使用

最简单的使用方式莫过于网页或下载APP。你只需打开网页: chat.deepseek.com/ 即可轻松开启与 DeepSeek R1 的交互之旅。

独特功能介绍

  • 深度思考推理:【深度思考】是 R1 的推理模型,它具备自动思考的能力,能够深入分析问题,为你提供更具深度和逻辑性的答案。
  • 联网搜索获取最新信息:开启【联网搜索】功能,你可以及时搜索到最新的内容,特别是查看最新的新闻资讯,让你时刻紧跟时代步伐。
  • 文件内容提取:点击右下角的 “选择文件” 按钮,你可以上传图片、文档等文件,DeepSeek R1 能够智能提取其中的文字内容,方便又实用。

本地部署

Ollama 本地安装

首页打开 Ollama 官网 ollama.com/ ,点击下载按钮,将其安装到本地。

安装完成后,打开 Ollama 的模型列表,在搜索框中输入 “DeepSeek R1”,访问 ollama.com/library/dee… 查找对应的模型。

模型名称中的 1.5B、7B、8B 等数字代表模型的参数量, 其中 B 是英文 Billion(十亿) 的缩写。参数越多,模型通常更“聪明”(能处理更复杂的任务),但对硬件资源(显存、内存)的要求也更高。

对于普通电脑用户,安装 1.5B 或 7B 版本即可满足使用需求。在模型页面的【右上角代码】处复制命令,然后在命令行中运行。

安装过程需要一些时间,请耐心等待,当看到 “success” 提示时,就代表安装成功。

安装成功后,在命令行输入ollama list命令就可以查看已安装的模型

设置安装之后,我们只能在命令行中使用会特别的不方便。

我们可以安装方客户端或者chrome浏览器插件,客户端推荐Chatbox 和Cherry Studi

chrome 插件

在chrome浏览器中安装Page Assist创建. 安装完成后打开插件

选择本地安装的模型, 就可以使用了

Cherry Studio客户端使用

访问 Cherry Studio 官网 cherry-ai.com/ 。Cherry Studio 功能强大,支持国内外众多模型,还内置了丰富的提示词、文生图、文档处理等实用功能。

在 Cherry Studio 客户端中配置 Ollama 安装过的模型。默认 API 地址为:http://localhost:11434/v1 ,模型名填写:deepseek - r1:1.7b 。

第三方 API 使用教程

如果你的电脑没有 GPU,不建议进行本地安装,使用第三方 API 是更明智的选择。下面以【硅基流动】为例为大家介绍。

访问 cloud.siliconflow.cn ,注册一个账号,注册成功后会赠送 14 元,足够使用一段时间。

打开【模型广场】,找到 DeepSeek R1,复制对应的模型信息。

访问 API Key 页面 cloud.siliconflow.cn/account/ak ,创建一个 API - Key。

打开 Cherry Studio,配置模型

在配置好模型后, 就可以在顶部选择模型,即可畅快使用。