如何基于Qwen3 +CrewAI开发智能体RAG

742 阅读2分钟

最近,我们构建了一个由阿里巴巴最新的Qwen 3 提供支持的智能体RAG 应用程序,并演示了如何部署和开发智能体作家。

目录

1.部署QWEN智能体工具技术栈

2.分步实施部署QWEN3智能体RAG

3.设置 智能体框架和LLM

4.定义研究智能体和任务

5.定义 作家智能体和 任务

6.设置 CREW

7.编排解码请求工作流

8.预测

9.对响应进行编码

1.  部署Qwen智能体工具技术栈

l  用于智能体编排的CrewAI。l  用于Web 搜索的Firecrawl。l  LightningAI 的LitServe 进行部署。该图显示了我们的Agentic RAG 流程:

l检索智能体接受用户查询。

l它调用相关工具(Firecrawl Web 搜索或vector DB 工具)来获取上下文并生成见解。

lWriter 智能体生成响应。

2. 分步实施部署Qwen3智能体RAG

这是为我们的Agentic RAG 提供服务的完整代码。

lsetup 方法编排Agent。

ldecode_request 方法准备输入。

lpredict 方法调用Crew。

lencode_response 方法将响应发回。

让我们在下面逐步了解它。

3. 设置智能体框架和LLM

CrewAI与所有流行的LLM 和提供商无缝集成。

以下是我们通过Ollama 设置本地Qwen 3 的方法。

4.定义研究智能体和任务

此智能体接受用户查询,并使用vector DB 工具和由Firecrawl 提供支持的Web 搜索工具检索相关上下文。

同样,将以下内容放入LitServe setup() 方法中:

5. 定义写作智能体和任务

接下来,写作智能体接受来自Researcher 智能体的见解以生成响应。 同样,我们在LitServe 设置方法中添加以下内容:

6. 设置智能体开发框架Crew

定义智能体及其任务后,使用CrewAI 将它们编排到一个团队中,并将其放入设置方法中。

7. 编排解码请求工作流

编排了Agentic RAG 工作流,该工作流将在传入请求时执行。

接下来从传入请求正文中提取用户查询。 检查下面突出显示的代码:

8. 预测

使用解码后的用户查询并将其传递给之前定义的Crew,以从模型生成响应。

检查下面突出显示的代码:

9.对响应进行编码

可以对响应进行后处理并将其发送回给客户。

注意:LitServe 在内部按顺序调用这些方法:decode_request→ predict** → encode_request。

检查下面突出显示的代码:

这样完成了服务器代码。

接下来,有基本的客户端代码来调用我们使用requests Python 库创建的API:

Done!,已经使用LitServe 部署了完全私有的Qwen 3 Agentic RAG。