前言
最近,DeepSeek
迅速引起了全网关注,其开源的 DeepSeek-R1
蒸馏模型因其卓越的表现而成为焦点。这也催生了一波开发者尝试自行部署 DeepSeek
大模型的热潮。然而,由于硬件成本的高昂,许多开发者对部署 DeepSeek-R1
模型望而却步。
现在,这一切都变得更加简单!腾讯云高性能应用服务 HAI
产品一直致力于为开发者提供即插即用的高性能云服务,而现在,它新增了对 DeepSeek-R1
模型的支持。通过这一产品,开发者能够简化部署流程,降低硬件资源门槛,从而能够更专注于模型的应用和优化。将 DeepSeek-R1
模型部署到腾讯云高性能应用服务 HAI
后,你可以轻松调用其强大的功能,开启 AI
应用的无限可能。
本文将手把手教你如何在 腾讯云高性能应用服务 HAI
部署 DeepSeek-R1
模型,助你快速踏上 AI
探索之旅!
准备好了吗?准备一杯你最喜欢的咖啡或茶,随着本文一探究竟吧。
高性能应用服务 HAI
高性能应用服务(Hyper Application Inventor
,HAI
)是一款面向 AI
、科学计算的 GPU
应用服务产品,提供即插即用的澎湃算力与常见环境。助力中小企业及开发者快速部署 LLM。
产品特性:
- 灵活使用
- 一键部署
- 可视化界面
使用场景:
- AI 作画
- AI 对话/写作
- AI 开发/测试
Deepseek 大模型部署
使用 腾讯云高性能应用服务 HAI,DeepSeek-R1
模型可以通过以下两种方式进行部署:
- 选择预装
DeepSeek-R1
模型的应用- 优点:即开即用,快速启动。
- 缺点:可能无法选择所需的
DeepSeek-R1
模型版本。
- 选择内置
Ollama
环境的应用- 优点:可以根据需求部署指定版本的
DeepSeek-R1
模型进行部署。 - 缺点:无法实现即开即用,需要更多配置。
- 优点:可以根据需求部署指定版本的
选择预装 DeepSeek-R1 模型的应用的方式
购买资源
-
首先,访问 高性能应用服务 HAI 产品页,点击 立即使用 按钮,进入到控制台。
-
其次,在 算力管理 页面,点击新建按钮,新建一个 高性能应用服务 HAI 应用。
-
接下来,在购买 高性能应用服务 HAI 页面,应用选择 社区应用-DeepSeek-R1,其他项根据自己的需求进行填写或选择即可,然后点击 立即购买。
-
购买成功后,你可以在 算力管理 页面看到已购买的资源。
DeepSeek 体验
资源创建成功后,我们可以进入 算力连接-ChatbotUI 页面来体验 DeepSeek-R1
大模型。
进入到 ChatbotUI
界面,我么可以看到有两个模型可供选择,按照自身的需求选择其中之一即可。
接下来我们与 DeepSeek-R1
大模型进行对话。
当然我们也可以进入 算力连接-JupyterLab 页面,打开终端运行 ollama run deepSeek-r1:7b
来与大模型进行对话。
除此之外,我们还可以进入到 算力连接-CloudStudio 页面, 在终端与 DeepSeek
大模型进行对话。
选择内置 Ollama 环境的应用的方式
购买资源的步骤与前面类似,只是在选择应用这块需要选择 AI 模型-Ollama。
资源创建成功后,然后进入到 终端连接(SSH) 页面(密码可通过站内信查看)。
通过命令部署 DeepSeek
模型,比如我们要部署 1.5b
的模型,使用这个命令:ollama run deepseek-r1:1.5b
。
同时,在 算力连接-ChatbotUI 页面里也能与刚才部署的大模型进行聊天。
小结
通过本文的介绍,大家应该对如何在 腾讯云高性能应用服务 HAI 上部署 DeepSeek-R1
模型有了清晰的了解。无论是选择 预装模型 的便捷方式,还是通过 内置 Ollama 环境 灵活定制所需版本,腾讯云 HAI
平台都为开发者提供了高效、灵活的部署选择。
现在就开始部署 DeepSeek-R1
,开启你的 AI
探索之旅吧!
你好,我是陈明勇,一名热爱技术、乐于分享的开发者,同时也是开源爱好者。
成功的路上并不拥挤,有没有兴趣结个伴?
关注我,加我好友,一起学习一起进步!