Deep Research 是一个由人工智能驱动的研究助手,通过结合搜索引擎、网络抓取和大语言模型,可以让 AI 根据某个问题自己搜索资料并且不断深挖,最后输出一份研究报告。
无问芯穹大模型服务平台提供大模型高性能推理加速API,资源充足,确保 Deep Research 应用的稳定性。涵盖DeepSeek V3/R1、Qwen3、QWQ32B、Qwen2.5-VL等最新模型,支持文本、图像、视频等多种模态,以及Jina/bge等sota嵌入重排模型等。在cloud.infini-ai.com完成注册后,可无门槛使用基础免费版(含API调用)。
01
获取 API Key
代码运行展示可以复制已有 API Key 或创建新的 Key。
cloud.infini-ai.com/genstudio/m…
02
添加无问芯穹 API 服务
前往 Deep Research 网页版(deep-research.ataw.top/)
1. 打开右上角设置
2. 基础配置
-
AI 服务:选择「Infiniai 无问芯穹」。
-
API 密钥:粘贴 无问芯穹大模型服务平台 API 密钥。
-
API Base URL:不需要填写,默认即可。
-
模型名称:输入无问芯穹提供的模型名称,例如,deepseek-r1、deepseek-v3等。
可以访问无问芯穹模型广场获取更多模型名称。
3. (可选)设置上下文长度
如果要做大规模的研究,建议配置“上下文长度”选项,不要超过所选模型的最大上下文长度,避免请求失败。无问芯穹预置模型一般支持 64k。具体请查询无问芯穹模型广场。
03
配置联网搜索
目前支持 Tavily 和 Firecrawl。Tavily 提供了每月 1000 次的免费搜索,足够大部分场景使用。
1. 获取 Tavily API Key
前往 Tavily 官网,新建一个 API key。
新建 API Key 时,Key Type 可以选择「Development」,请求上限为 100次/分钟。如重度使用,可考虑升级并选择「Production」。
2. 在 Deep Research 中配置 Tavily API Key
在 Deep Research 设置的「联网搜索服务」部分,选择 「Tavily」,填入 Tavily API Key。
AI 模型默认会使用你网页的当前语言来搜索和回复。可以在设置搜索时将「使用语言」改成 English,用英文搜索词来查找更高质量的资料。
例如,查找一下 NVIDIA RTX 50 系列显卡的信息:
无问芯穹大模型服务现已支持在多个AI应用、开发平台中使用。可在网页或本地安装以下应用,接入无问芯穹的 API 后(可自定义添加这两款模型),即可体验 DeepSeek V3/R1、QWQ32B、Qwen2.5-VL等最新模型高性能推理加速版API。
-
AI应用:Cherry Studio、LobeChat、NextChat
-
代码应用:Cursor、Cline
-
AI应用开发平台:Dify
-
AI 笔记:Obsidian AI
-
翻译插件:沉浸式翻译
-
浏览器插件:Sider、Page Assist
更多场景与应用案例接入教程可参考:docs.infini-ai.com/posts/#tag=…
欢迎更多AI应用合作伙伴加入我们,一起为开发者、企业提供更高效的智能应用。如果你还想无问芯穹大模型服务接入其他AI应用,也可以在评论区许愿,告诉我们。