deepseek r1 本地部署API并接入飞书

1,390 阅读3分钟

本地部署deepseek-r1:8b并接入飞书

最近deepseek比较火,网上有很多本地部署的教程,这里就不讲部署教程了

本教程侧重于接入飞书,第一次写请多多包涵,各位大佬轻点喷。

我菜,我有罪。~

场景
  1. 替换飞书的Aily中的模型(好像收费~)
  2. deepseek目前流量暴涨,访问缓慢(好像也收费~)
  3. 既然本地部署模型了,就不想使用第三方API调用,比如火山方舟,硅基流动等 (不知道收不收费~但是访问应该会慢)

所以使用本地部署的模型接入飞书

前置条件
  1. ollama 部署 deepseek-r1,我使用的是 deepseek-r1:8b参考链接
  2. 创建好飞书的Aily,进入模型管理,接入自定义模型,按照飞书的文档进行
来到正题

既然到这一步了,说明以上都准备好了,那就开始吧。

  1. 首先打开终端 输入 ollama list,看到NAMEdeepseek-r1:8b,复制它

image.png

  1. 将第一步复制的名称填入模型名称中(别改别动,这个地方要和ollama中的名称一致),其他按图来填就行 image.png
  2. 现在需要请求地址了,我们的模型部署在本地,一般都是局域网(你要是服务器当我没说),飞书会使用http来请求我们的api,就好像前端请求后端接口一样(我是这么感觉的),所以我们需要一个公网的地址来让飞书请求。 这个地方我们使用ngrok
  • ngrok
  • 先注册,在下载brew install ngrok,在设置authtoken
  1. 使用命令生成公网地址 ngrok http 11434 --host-header="localhost:11434",你会看到如下,红色区域就是你要的公网地址。 为什么是11434,因为这是ollama的默认端口 image.png 在浏览器中输入https://9f8e-31-223-184-170.ngrok-free.app你会看见下图

image.png 点击后如下说明成功

image.png

  1. 地址我们有了,那API是什么呢?(我找了很多地方,在ollama官网看到了地址,deepseek官网文档我没理解,可能是我太菜了~) ollama官网展示的API地址是红色部分

image.png 6. 所以我们的请求地址就是

  • https://9f8e-31-223-184-170.ngrok-free.app/v1/chat/completions

    将其填入飞书的表格中,基本如下

image.png 7. 这样我们就接入了模型

image.png

总结
  1. 我在API的地址到底是什么这个地方耗费了1天时间,这是为什么写文档的直接原因(被自己的菜气到了)
  2. R1模型的深度思考内容会被飞书展示出来,后期deepseek可能会将思考内容换个字段
  3. 个人认为简单的对话或者我遇到的场景不适合R1,V3更合适,R1(深度思考)
  4. 如果你是服务器环境,有自己的公网地址就用自己的公网地址
  5. 如果飞书中要去掉思考内容的话,目前我的方案是自己写一个代理服务,将<think>内容去掉,但是思考的过程还在,并不能节约时间
最后

以上全部建立在我匮乏的认知上,希望大佬多多提携