近段时间,国产AI-DeepSeek深度求索无疑是市场上最火的话题之一。随着DeepSeek现象级爆火,当我们访问Deepseek的时候,"服务器繁忙"几乎是最常见的答案了,这显示出,在爆火了一整个春节之后,DeepSeek依然没能从服务器崩溃中走出来。可以对于想要使用的小伙伴怎么办呢?我们就介绍两种最容易也最稳定的方式,博主亲试完全可行的方法。
方案一:硅基流动
第一步:基于硅基流动提供的服务,只需注册账号即可访问满血的DeepSeek-R1
cloud.siliconflow.cn/i/ECOYXGXO
注:这里的邀请码不能删除哦,否则获取不到2000 万 Tokens
我们这里就使用手机号正常注册即可
第二步: 生成密钥
选择左侧菜单API密钥
,然后点击右上角新建API密钥
, 给密钥取一个名字就OK了
第三步:下载可视化UI工具
这里我们下载使用率最高的ChatboxAi(chatboxai.app/zh)
下载好以后,我们打开Chatbox软件
点击左侧设置
菜单
选择SILICONFLOW API
,填写API密钥
, 选择运行模型
第四步:验证一下我们的成果
选择左侧Just chat
菜单,然后就可以跟Deepseek愉快的对话了
至此大功告成了! 我们就可以愉快的使用DeepSeek-R1了
方案二: 本地化部署 Ollama
这个方案在离线环境下也可使用AI,但是对于电脑的配置相对高一些
第一步:首先我们下载Ollama客户端
选择适合我们的系统下载客户端即可
第二步:通过ollama下载我们的大数据模型
搜索我们要下载的deepseek-r1模型
第三步 根据我们的电脑配置下载模型
网站提供了从1.5b到671b的各种模型,对于一般的电脑我们选择7b模型来用
然后我们复制下载命令
打开我们的命令行(不会打开的自行百度即可)
输入我们复制的命令等待下载完成
第四步:下载可视化UI工具
这里我们下载使用率最高的ChatboxAi(chatboxai.app/zh)
下载好以后,我们打开Chatbox软件
点击左侧设置
菜单
选择OLLAMA API
, 选择刚刚下载的模型
至此大功告成
本文章介绍了两种DeepSeek-R1的使用方案,仅供参考!