AI 实战篇:用 LangGraph 串联 RAG+MCP Server,打造能直接操控 Jira 的智能体
【AI大模型教程】在日常开发中,Jira是我们绕不开的项目管理工具。但不知道你有没有这样的痛点:
-
操作繁琐: 创建一个任务,要填一堆字段,点N次下拉框。
-
信息隔离: 任务相关的需求文档、API说明散落在Confluence、Git等各处,查起来费时费力。
-
状态滞后: 任务进度需要人工手动更新,经常与实际情况不符,带来很多烦恼。
如果,我们能有一个“智能秘书”呢?你只需要对它说一句:“帮我把‘用户登录模块优化’这个需求,创建成一个Story,分配给前端小王,优先级高,并把相关的API文档链接附上。”
几秒钟后,Jira里就妥妥地出现了一条规范、信息完整的任务。这,就是我们今天要聊的:基于LangGraph的智能体(Agent),结合RAG和MCP Server,打造一个真正AI赋能的Jira助手。
整个代码框架已经Ready,架构也已跑通,下面我就为大家彻底拆解这个项目。
核心架构:让AI学会“思考”和“动手”
01
在深入的聊技术之前,我们先看看下面的这张架构图,让大家对整个系统有个宏观认识。
架构核心思想:LangGraph作为“大脑”,协调各个“专业工具人”(Tools)来完成复杂任务, 这里RAG作为知识库, 就是个“大仓库” 或者“口袋”, 下面的地盘或者叫“底座”是个LLM(大语言模型)。
我们来逐一拆解图中的核心模块:
- LangGraph Agent(智能体大脑)
-
角色: 总指挥。它负责理解用户的自然语言指令,并规划执行步骤, 如果执行或者具体处理逻辑都归它管。
-
优势: LangGraph的
StateGraph能够完美管理智能体的状态,实现多步骤、有条件的复杂工作流。比如,它可能会先查询知识库,再决定如何创建Jira单。
- RAG(检索增强生成)- 智能体的“外挂知识库”
-
角色: 领域专家。我们的项目有大量的内部知识,比如代码规范、API文档、历史需求等。
-
工作流:
-
索引:将Confluence文档、Git代码注释等内部知识库进行切片、向量化,存入向量数据库(如ElasticSearch / OpenSearch)。
-
检索:当用户提问时(例如:“创建任务时,性能测试的标准是什么?”),RAG会从向量库中检索最相关的知识片段。
-
增强:将这些片段作为上下文,与用户问题一并送给LLM,让LLM基于“内部知识”生成更精准的回答或执行动作。
- MCP Server for Jira(智能体的“手和脚”)
-
角色: 实干家。这是最关键的一环!MCP(Model Context Protocol)是新兴的标准化协议,它允许我们以统一的方式为LLM提供工具。
-
功能: 我们封装了一个MCP Server,专门用于操作Jira。它暴露出一系列标准工具函数,例如:
-
jira_get_issue:Get details of a specific issue
-
jira_search:Search issues using JQL
-
jira_create_issue:Create a new issue
-
jira_update_issue:Update an existing issue
-
jira_transition_issue:Transition an issue to a new status
-
jira_add_comment:Add a comment to an issue
好处: LangGraph Agent可以直接调用这些标准化工具,无需关心Jira REST API的复杂细节,实现了完美的解耦。
代码实战:核心流程一览
02
代码框架已经Ready,这里贴出最核心的LangGraph图定义和执行流程,让大家感受一下其简洁和强大。
from typing import Dict, Anyfrom langgraph.graph import StateGraph, ENDfrom src.core.state import AgentStatefrom src.agents.router import AgentRouterfrom src.agents.jira_agent import JiraAgentfrom src.agents.conference_agent import ConferenceAgentimport logging# Set up logginglogging.basicConfig(level=logging.INFO)logger = logging.getLogger(__name__)classGraphManager: """ Manages the LangGraph workflow for the agent system. """ def__init__(self): # 初始化GraphManager,创建所需的代理和图构建器 logger.info("Initializing GraphManager") self.router = AgentRouter() # 路由代理,负责请求分发 self.jira_agent = JiraAgent() # Jira代理,处理Jira相关操作 self.conference_agent = ConferenceAgent() self.builder = StateGraph(AgentState) # 基于AgentState的状态图构建器 self._setup_graph() # 设置图结构 def_setup_graph(self): """ Set up the graph nodes and edges. """ logger.info("Setting up graph nodes and edges") # 添加节点 self.builder.add_node("router", self._route_request) # 路由节点 self.builder.add_node("jira_agent", self._process_jira_request) # Jira处理节点 self.builder.add_node("conference_agent", self._process_conference_request) # 添加条件边,根据_route_decision函数输出决定路由 self.builder.add_conditional_edges( "router", self._route_decision, { "jira_agent": "jira_agent", "conference_agent": "conference_agent", "end": END } ) # 添加从Agent到工作流结束的线性边 self.builder.add_edge("jira_agent", END) self.builder.add_edge("conference_agent", END) # 设置入口点,所有工作流都从路由器开始 self.builder.set_entry_point("router") logger.info("Graph setup completed") def_route_request(self, state: AgentState) -> Dict[str, Any]: """ Route the request to the appropriate agent. """ logger.info("Routing request") return self.router.process(state) def_process_jira_request(self, state: AgentState) -> Dict[str, Any]: """ Process a Jira request. """ logger.info("Processing Jira request") return self.jira_agent.process(state) def_process_conference_request(self, state: AgentState) -> Dict[str, Any]: """ Process a conference request. """ logger.info("Processing Conference request") return self.conference_agent.process(state) def_route_decision(self, state: AgentState) -> str: """ Make routing decision based on state. """ # 访问最后一条消息以确定路由 messages = state.get("messages", []) logger.info(f"Making routing decision based on state. Messages count: {len(messages)}") ifnot messages: logger.info("No messages found, routing to end") return"end" # 目前根据current_agent字段进行路由 current_agent = state.get("current_agent", "") logger.info(f"Current agent: {current_agent}") if current_agent == "jira": # 路由到Jira代理 logger.info("Routing to jira_agent") return"jira_agent" elif current_agent == "conference": logger.info("Routing to conference_agent") return"conference_agent" else: logger.info("Routing to end") return"end" defcompile(self): """ Compile and return the graph. """ logger.info("Compiling graph") return self.builder.compile()
AI赋能Jira:不止于创建任务
03
这个智能体能做什么?大家可以头脑风暴一下!
-
自然语言生成任务卡片: 如开篇所述,一句话创建复杂任务。
-
智能问答与报告:
- “我们Q1季度,哪个模块产生的Bug最多?列出Top3。”
- “把‘电商大促’项目的所有阻塞态任务汇总成一个Markdown报告发到群里。”
- 自动化工单处理:
-
监控日志,自动为频繁出现的Error创建Bug单。
-
识别Git Commit Message,自动将关联的任务状态更新为“Resolved”。
- 上下文感知辅助:
- 在任务界面,直接问Agent:“这个任务关联的PR代码评审意见是什么?”(它通过RAG去Git里找)。
智能体运行截图:
本文的项目核心骨架已在Gitee开源,欢迎来点个Star,见证项目的成长:
【Gitee链接】:gitee.com/ailearnerya…
接下来,我也为公众号的读者朋友们准备了一份 “完整版” ,里面包含了项目所有的配置秘钥和部署清单。如果你想快速在本地环境跑起来,只需在后台对我发出接头暗号:【Jira_Agent】 ,我就会把完整资料包发送给你。
总结与展望
04
通过 LangGraph(协调) + RAG(知识) + MCP Server(执行) 这个黄金组合,我们成功地构建了一个能理解、会思考、可执行的AI Agent。
这套架构的可扩展性极强:
-
未来要操作Confluence?再加一个MCP Server即可。
-
要连接Jenkins?同样封装成MCP工具。
-
LangGraph会轻松地将它们纳入统一的工作流中。
技术栈总结:
-
Agent框架: LangGraph
-
大模型: 开源LLM,比如Qwen3,DeepSeek,gpt-oss
-
工具协议: MCP
-
知识库: RAG (ElasticSearch / OpenSearch + 文本嵌入模型)
-
目标系统: Jira (REST API)
AI不是飘在空中的概念,而是能落地解决实际问题的利器。希望这个实战项目能给你带来启发。如果你对LangGraph、MCP或者RAG的细节感兴趣,欢迎在评论区留言,我们可以再开专题深入讨论。
觉得这篇文章干货满满吗?关注我!点赞、收藏、转发三连,让更多的小伙伴看到AI技术的魅力!