「无穹玩法」专栏旨在与各位读者一起探索如何借助无问芯穹大模型服务平台(GenStudio)提供的高性能推理加速API,解锁AI应用的无限可能。
想象一下这样的场景:AI自动解析飞书文档中PRD的需求,并一键生成前端代码。而你,只需要端起咖啡,悠闲等待它完成工作——就像下图展示的这样:
有了MCP后,这样的场景实现,就变得更简单了。
下面我们将探索如何将无问芯穹大模型服务平台(GenStudio)与飞书文档MCP集成,打造从产品PRD文档自动生成官网前端代码的工作流。
01
安装Cline扩展并配置模型服务
配置无问芯穹 GenStudio 的API服务
VSCode安装Cline扩展
marketplace.visualstudio.com/items?itemN… 可通过OpenAI Compatible设置无问芯穹的GenStudio(cloud.infini-ai.com/genstudio/m… 提供的 OpenAI兼容 API 服务
- 点击Cline图标打开设置面板
-
注意:Plan和Act功能的API配置是独立的,我们需要配置Act功能
-
选择"OpenAI Compatible"作为API Provider
-
填写以下关键信息:
Base URL:
API Key: GenStudio API密钥
Model ID: deepseek-v3
02
MCP服务安装与配置
Step 1:飞书开发者平台配置
创建应用
-
登录飞书开放平台,进入「开发者后台」
-
点击「创建应用」,填写应用名称和描述,选择「企业自建应用」
-
记录 App ID 和 App Secret(后续需要)
-
点击「权限管理」,开通「云文档」的权限
Step 2:安装
飞书文档MCP服务选择的是Feishu-MCP这个开源项目,下面在本地Cline中安装该MCP服务
- 克隆仓库
git clone https://github.com/cso1z/Feishu-MCP.gitcd Feishu-MCP
-
使用 pnpm install 安装依赖
-
复制 .env.example 到 .env 并填入你的飞书应用凭证。
-
使用 pnpm run dev 运行服务器,可以使用命令行参数部分的任何标志。
Step 3:Cline中配置MCP_Server
在Cline的MCP_Server中配置飞书MCP服务
{ "mcpServers": { "feishu-mcp": { "command": "npx", "args": ["-y", "feishu-mcp", "--stdio"], "env": { "FEISHU_APP_ID": "<你的飞书应用ID>", "FEISHU_APP_SECRET": "<你的飞书应用密钥>" } } }}
03
真实场景演示
在Cline的Act对话框中输入:
获取这份飞书文档内容:#飞书文档链接#,并根据飞书文档中的产品需求文档设计一个产品介绍官网页
生成结果展示
目前实现的工作流是基础版本,目标是探索利用 Cline 等代码 AI 工具打造更智能的代码工作流的方法。实际所生成的官网页面与PRD文档要求存在显著差距。需要特别说明的是,现有PRD文档未包含任何原型设计稿,当前产出仅为最小可行型(MVP)官网。下一步,也可以通过引入更多的MCP(如Figma等)原型设计工具,来打造更符合真实业务场景的产品官网。
无问芯穹大模型服务现已支持在多个AI应用、开发平台中使用。可在网页或本地安装以下应用,接入无问芯穹的 API 后(可自定义添加这两款模型),即可体验Qwen3、DeepSeek V3/R1、QWQ32B、Qwen2.5-VL 等最新模型高性能推理加速版API。
-
AI应用:Cherry Studio、LobeChat、NextChat
-
代码应用:Cursor、Cline
-
AI应用开发平台:Dify
-
Agent项目:LangManus
-
AI 笔记:Obsidian AI
-
翻译插件:沉浸式翻译
-
浏览器插件:Sider、Page Assist
更多场景与应用案例接入教程可参考:docs.infini-ai.com/posts/#tag=…
欢迎更多AI应用合作伙伴加入我们,一起为开发者、企业提供更高效的智能应用。如果你还想无问芯穹大模型服务接入其他AI应用,也可以在评论区告诉我们。