放弃没用的本地部署残血版DeepSeek吧,教你如何白嫖满血版DeepSeek

27,684 阅读5分钟

一、介绍

春节期间,热度最高的当属DeepSeek了,嘟嘟春节期间也各种安利身边朋友使用DeepSeek,但是随着时间的发酵,大家会发现DeepSeek经常不能用,那是因为DeepSeek受到了大规模恶意攻击,IP地址都在美国。​

下面这个是查看DeepSeek状态的网站:​

status.deepseek.com/

可以发现,最近标红的就是故障中​

image.png

如果你遇到使用的时候,提示服务器繁忙,就大概率是被攻击了

image.png

由于DeepSeek是开源生态,模型都提供了,所以有一种解决方案是本地部署,然后利用一些第三方软件来接入这个模型来使用。

image.png

最近我看很多博主写了很多这方面的教程,一些不明真相的人就跟着去本地搭建,然后本地接入使用,其实这有很大的缺陷:

  • 一方面电脑配置制约了你选择的模型,我个人4090显卡的电脑顶多只能跑32b,再往上就跑不了,又卡又慢。​

  • 另一方面你可知道满血版本模型是671b的,个人电脑基本无望,你如果电脑配置不高,运行了7b这种低参数的模型,这种低配版本的没啥意思好吧,效果绝对不好的,只是个玩具。

微信图片_20250204104610.png

所以一般就企业会考虑本地部署方案,比如内网环境下,或者就是你的需求不需要那么强的模型,并且想生成一些mg类话题内容,不然真的不推荐个人本地部署。

二、推荐方案

所以,最好的方案就是去寻找满配版本,目前,DeepSeek官网之外提供满血版DeepSeek能力的有三家。

第一家是360的纳米AI搜索,原本只提供32b的,后面上了满血的但是有限度。

www.n.cn/

使用的时候勾上这个慢思考模式就是了

image.png

image.png

第二家是秘塔AI搜索

metaso.cn/

image.png

秘塔AI搜索算是去年比较火的一个AI搜索引擎了,挺好用,现在接入了R1模型,效果更好,一边帮你深度搜索一边帮你深度思考,效果很强。

最后一个就是2月1号刚出来的,经过硅基流动和华为云团队连日攻坚,今天,我们也为国内用户献上春节礼物:大模型云服务平台 SiliconCloud 首发上线基于华为云昇腾云服务的 DeepSeek-V3、DeepSeek-R1。

这是一种API的方案,官网API最近也经常不行,所以这家公司结合华为云团队,推出了DeepSeek-R1 API接口服务。

image.png

硅基流动大家应该有印象吧,就是以前给大家推荐的ComfyUI BizyAir插件的公司,他们提供了 DeepSeek R1的API服务。

API的价格和DeepSeek 官方优惠期价格保持一致,SiliconCloud 上的 DeepSeek-V3 的优惠期价格(截止 2 月 8 日 24:00)为 ¥1 / M tokens(输入)& ¥2 / M tokens (输出),DeepSeek-R1 的价格为 ¥4 / M tokens(输入)& ¥16 / M tokens (输出)。 

一般情况下模型中 token 和字数的换算比例大致如下:
1 个英文字符 ≈ 0.3 个 token。
1 个中文字符 ≈ 0.6 个 token。

image.png

DeepSeek 的API价格其实也很便宜,随便充值了10多块可以用非常久了,但是官方的最近不是经常受到攻击么,API也无法使用,所以我是推荐直接用 SiliconCloud 家的API服务。

之所以推荐这家,是因为目前这家注册是有送奖励金的,可以实现白嫖的效果。

SiliconCloud 邀请别人注册,您与好友均可获赠2000万Tokens(14元平台配额)

直接邀请家人注册一下,你就有2000万Tokens,可以用很久很久。所以大家一会走我的邀请链接,就直接可以获得2000万Tokens了。

弄到API密钥后,再配合一些第三方支持配置API接口的软件,就可以直接用上满血版本的DeepSeek 了,这才是大家应该学的。

下面我就教大家如何搞定这个完整流程,免费的用上这个满血版本的 DeepSeek。​

三、白嫖满血版 DeepSeek 流程​

3.1 注册账号​

登录一下网址,通过手机号注册个账号​

cloud.siliconflow.cn/i/jLn1Ba4N

image.png

3.2 提取API key​

登录后,打开API密钥,新建一个API密钥,如下图这样,点击复制一下​

image.png

3.3 安装客户端软件​

如果你想直接在客户端应用里体验 DeepSeek-R1 & V3 模型,可在本地安装以下产品,接入 SiliconCloud 的 API 后(可自定义添加这两款模型),即可体验 DeepSeek-R1 & V3。 ​

如果你想直接在客户端应用里体验 DeepSeek-R1 & V3 模型,可在本地安装以下产品,接入 SiliconCloud 的 API 后(可自定义添加这两款模型),即可体验 DeepSeek-R1 & V3。 ​

  • 大模型客户端应用:ChatBox、Cherry Studio、OneAPI、LobeChat、NextChat​
  • 代码生成应用:Cursor、Windsurf、Cline​
  • 大模型应用开发平台:Dify​
  • AI 知识库:Obsidian AI、FastGPT​
  • 翻译插件:沉浸式翻译、欧路词典

这里我是使用 Cherry Studio, 就拿这个当做案例讲解,其他软件类似​

进入Cherry Studio官网(cherry-ai.com/),按步骤下载安装对应版本的Cherry Studio即可直接使用。

image.png

目前Cherry Studio支持Windows、Mac、Linux三种版本

3.4配置API并且管理模型​

运行 Cherry Studio,左下角点击设置,第一个就是硅基流动的,把API密钥填入,然后选择下方的管理,勾选上最新的DeepSeek-R1即可,最后点一下检查,没问题的话会提示链接成功。

image.png

然后就可以开心的使用了,点击左侧上方的聊天菜单,顶部选择好了DeepSeek-R1模型,就可以开始愉快的使用了

image.png

四、总结​

这种方案即不要求电脑配置,还能用上满血版的DeepSeek-R1,回答速度还很快,算是目前最优方案了。

当然,这2个方案都是备选方案,官网能使用的情况下还是推荐直接官网使用,不过最近不懂是一直被攻击还是太多人使用,深度模式经常提示服务器繁忙。