前言
最近deepseek的爆火导致了其官网大部分时间不可使用,很多小伙伴在官网访问的时候经常会遇到以下问题:
那么,应该如何解决这个问题,使我们可以无限制的使用deepseek呢?网络上有一些说法是将deepseek部署到本地(基本都是基于ollama),这么做不能说不行,但基本都是有损的。一般来说我们本地的配置基本上不可能带的动满血deepseek大模型,而使用阉割版的话其实效果并不一定强过现有的其他大模型。所以为了能获得最好的效果,一个可行的方向是:使用云端的资源和算力来为我们部署满血的deepseek。接下来我们以腾讯云大模型知识引擎为例来看看如何进行部署和使用。(整个流程5min以内搞定)
腾讯云大模型知识引擎
进入腾讯云大模型引擎官方网站。点击【产品体验】,即可进入体验中心,即可看到体验中心中给出的一些最佳实践。
其中,就有我们的DeepSeek联网助手,我们可以点击【立即体验】进入进行体验。
可以看到,基本的功能是足够的。
创建自己的应用
上一步骤中我们看到的最佳实践其实相当于一个模板,如果我们想自己搭建这样一个基于其他大模型的应用(比如接下来出现了一个更厉害的大模型),我们可以在应用管理页面点击【新建应用】(也可以在上图页面右上角点击【创建为我的应用】,基于这个实践模板来创建自己的应用)
在模型配置这里选择我们需要的模型,比如现在我们期望使用DeepSeek-R1或者DeepSeek-V3。同时如果我们期望使用联网能力,需要在下方打开联网搜索的功能。当设置好之后,我们可以在右侧的调试区域查看效果。
当我们调试完毕后续希望使用的时候,点击右上角的【发布】按钮,将我们设置的功能发布到线上。
通过API调用
对于一般用户来说,使用我们刚刚发布的应用即可满足我们大部分需求。但对于专业的用户来说,可能希望将应用的能力嵌入到自己的应用中去,这个时候就需要用到API调用了。以openai接口兼容的方式调用为例,首先获取到访问API时的API KEY。
然后参考官方给出的示例代码片段进行调用:
from openai import OpenAI
# 构造 client
client = OpenAI(
api_key="sk-xxxxxxxxxxx", # 知识引擎原子能力 APIKey
base_url="https://api.lkeap.cloud.tencent.com/v1",
)
# 流式
s_value = True
# 请求
chat_completion = client.chat.completions.create(
model="deepseek-r1",
messages=[
{
"role": "user",
"content": "你是谁",
}
],
stream=s_value,
)
if s_value:
for chunk in chat_completion:
# 打印思维链内容
if hasattr(chunk.choices[0].delta, 'reasoning_content'):
print(f"{chunk.choices[0].delta.reasoning_content}", end="")
# 打印模型最终返回的content
if hasattr(chunk.choices[0].delta, 'content'):
if chunk.choices[0].delta.content != None and len(chunk.choices[0].delta.content) != 0:
print(chunk.choices[0].delta.content, end="")
else:
result = chat_completion.choices[0].message.content
最后
本文主要介绍了一种通过腾讯云大模型引擎来部署DeepSeek满血模型的方法,通过这种方法解决了DeepSeek官网不能访问问题。如果你有类似的需求(使用DeepSeek/集成DeepSeek),不妨试一试~