Deepseek官网太卡,教你5分钟在云服务器上部署Deepseek-R1

3,651 阅读2分钟

深度求索在2025年1月20日开源了其第一代推理模型 DeepSeek-R1,性能对标 OpenAI o1 模型。云应用支持 DeepSeek-R1 快速部署。

1.安装Deepseek

  1. 我们需要在腾讯云服务器上进行部署,打开地址:app.cloud.tencent.com/detail/SPU_… ,点开Deepseek的应用安装页面

  2. 点击安装应用按钮,我们准备下一步操作

在这里插入图片描述

2.选中服务器类型

我们选择VPC类型、地域、还有云服务器类型,第一次使用时选择最便宜的那款即可,然后点击下一步:确定资源

在这里插入图片描述

3.确认订单信息

在确定订单页面,需要提前在账户里充钱,至少要求运行一个小时需要的余额,这里我的余额不足,无法点击下一步,我们给老马充点钱之后,就可以继续下一步了

在这里插入图片描述

4.等待安装

接着我们等待5分钟左右,Deepseek就安装好了

在这里插入图片描述

5.使用Deepseek

1.安装完成后,我们点击打开应用按钮,即可打开Web界面

在这里插入图片描述

2.打开页面后,在Web界面的欢迎页,点击开始使用

3.初次使用时,需要创建管理员账号

在这里插入图片描述

4.我们可以在用户设置的General里将系统语言设置为中文

在这里插入图片描述

5.接着我们就可以开始愉快的对话了,R1大模型就是具有深度思考能力的,V3模型是普通模型,不具备深度思考能力

在这里插入图片描述

Ollama API支持

云应用部署的版本,已经支持了Ollama API的访问端口,可以在应用视图的安装信息界面查看API地址,访问API地址后,可以看到Ollama is running的字样说明正常运行中。

可以在URL后面拼接/api/tags查看已经支持的模型,Ollama API官方接口文档请参考:github.com/ollama/olla…

在这里插入图片描述

在这里插入图片描述