之前分享过本地部署 Deepseek 的内容,但是由于本地电脑硬件环境的各种限制,不能得到更好的体验,所以这里分享云部署 Deepseek 的相关内容。
为什么要云部署?
前面介绍过本地部署的流程,但是 Deepseek 的能力取决于你的硬件设备(电脑),而我们的设备有限,也不可能去买个几十万的显卡,那么云服务部署是我们的一个好的选择方式,也可以进行私有数据的管理。
大致可以分为一下几个方面
- 硬件要求:本地不足以跑高参数模型,如 70B
- 开放性:可以开 api 到公共平台
- 减少电脑性能消耗
腾讯 ide
ide.cloud.tencent.com/dashboard/g…
可以体验限量免费 GPU,送总计 50000 分钟。
立即创建
快速选择模板
可以选择更多模板
效果
腾讯云 TI 平台快速部署 DeepSeek
如何通过 腾讯云 TI 平台,快速部署 DeepSeek 系列模型。完成模型部署后,即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中。
模型列表及资源/价格参考
腾讯云 TI 平台已上架 DeepSeek 全系模型,详见下表。
注意:
- 刊例价总价包括了 CVM 算力费用 和 TI 平台软件订阅费用,因此略高于 CVM 算力费用。
CVM 各机型最新库存及价格请前往 CVM 控制台查看,可参考 CVM-实例创建指引。
PNV6/HCCPNV6 机型需联系您所对接的腾讯云销售或售前架构师进行开通。
按量计费模式下,TI 平台软件订阅费按天结算,具体以账单为准。更多计费规则可见计费概述。
在部署 V3 或 R1 模型时,如仅需短时体验,对并发/上下文窗口要求不高,可使用单节点部署,部署方式请选择标准部署;其他情况下更推荐多节点部署,部署方式请选择多机分布式部署,节点数至少配置为 2 个。表中仅列出了部分 CVM 实例规格,更多资源推荐可参考大模型推理所需资源指南。
单节点部署:最大支持 64K 上下文,可用的最小 CVM 实例规格是“PNV6.32XLARGE1280”;若该机型库存不足也可使用“PNV6.96XLARGE2304”。
多节点部署:最大支持 128K 上下文,可用的 CVM 实例规格是“HCCPNV6.96XLARGE2304”。
上下文窗口:针对 DeepSeek V3/R1 模型,最大上下文窗口默认配置为 16K。在部署时,可通过修改环境变量 MAX_MODEL_LEN 来进行扩展。例如:MAX_MODEL_LEN=131072 对应最大上下文窗口为 128K。
在部署 1.5B 至 70B 的 DeepSeek 蒸馏版模型时,仅需单节点,部署方式请选择标准部署。
下表的推理资源配置略小于 CVM 实例配置,是因为在“从 CVM 机器中选择”模式下 TI 平台管理 CVM 机器时将占用少量资源。例如:某 CVM 实例规格包含 128 核,添加至资源组后的可用资源为 125.6 核。
登录腾讯 TI 平台部署
登录 腾讯云 TI 平台
点击【大模型广场】
点击 Deepseek 打开详情查看介绍
点击【新建在线服务】
填写相关配置信息
选择模型
选择算力
查看推理模型并体验模型效果
您可以通过访问“模型服务 > 在线服务
Cherry Studio 马甲
参考
腾讯云快速部署 DeepSeek:cloud.tencent.com/document/pr…