Zadig x DeepSeek 实践剖析:效能诊断精准定位团队瓶颈

63 阅读4分钟

cover.png

在快节奏的现代工作环境中,项目效能直接关系到团队的成败。传统效能分析依赖人工统计和经验判断,既低效又主观。Zadig 作为研发核心平台,融合丰富效能数据与大语言模型 AI,智能化分析与诊断效能数据。大语言模型可高效处理海量复杂数据,提供客观、可执行的改进建议,精准识别瓶颈,助力团队制定科学优化策略,实现效能持续提升。

本文将探讨 Zadig 如何借助大语言模型,解析用户问题关键要素,驱动智能效能分析与优化。

01.png

02.png

整体实现思路

核心流程分为三个步骤:首先解析用户提问的语义结构,随后从数据库检索匹配数据,最终将原始问题与关联数据整合后输入大语言模型进行智能分析。

03.png

  1. 解析项目名称和效能评价维度

在效能诊断过程中,一般用户会输入这样的问题“分析 accout 项目近一个月的质量和效率,并给出优化建议”,系统需要将其中的项目名称(account)、时间范围(近一个月)、效能评价维度(质量和效率)解析出来。

我们利用大型语言模型(LLM)的能力,直接从用户输入中提取项目名称和效能评价维度,并将其转换为程序可处理的 JSON 格式。为了提高解析的准确性,我们还在 Prompt 中预先定义了解析规则,并提供了多个样例,利用 LLM 的小样本学习能力来提升解析的成功率。此外,我们在 Prompt 的最后明确要求 LLM 仅返回 JSON 格式的数据,以确保输出的规范性。

04.png 解析项目名称和效能评价维度的 Prompt

  1. 处理时间范围

最初,我们尝试使用通用的 LLM 来解析时间范围,但发现结果难以使用。为此,我们引入了一个专门的 TimeNLP 服务,它能将自然语言描述的时间精确转换为程序可用的 JSON 格式。

  1. 数据查询与预处理

在获取项目名称、效能评价维度和时间范围后,我们就可以编写相应的程序和 SQL 查询语句,从数据库中提取相关数据。为了便于后续 LLM 的理解,我们还在查询结果中添加了文字描述。文字描述确保了在后续的请求中,LLM 能够正确理解这些数据的含义。

  1. 处理大 Token 数据

在实际操作中,我们发现输入数据的 Token 数量可能会超过 LLM 的上下文限制。为了解决这一问题,我们首先计算输入数据的 Token 数量,如果超出限制,则将数据分批次发送给 LLM。这一策略有效避免了因数据长度超过限制而产生错误。

  1. 优化 LLM 请求

在最终的请求中,我们将 LLM 的角色设定为资深 DevOps 专家,以提高其处理数据的专业性。同时,我们将请求的 Temperature 参数设置为较低的值(0.2 或 0.3),以确保返回的结果更加确定和精准。

05.png 最终请求的 Prompt

  1. 结果输出

最终,我们将分析结果以 Markdown 格式返回给前端,前端将其渲染为带有格式的文本段落,为用户提供了更加直观和易于理解的分析报告。

当前状态及未来展望

Zadig 的 AI 效能诊断模块已实现智能化分析工程数据,能迅速定位组织效能瓶颈并提供改进建议,同时具备智能数据分析、问题精准定位和科学改进建议等核心能力,可帮助团队提升效能。但在数据处理上存在一些局限性,计算 Token 长度方式可能不适用于 DeepSeek,且数据量过大时分多次请求 LLM 再聚合的方式会造成数据精度损失。

未来 Zadig 计划接入 LLM 的 Stream API,以提高响应速度和用户体验。同时,将继续优化 Prompt,并探索更多创新应用场景,助力企业实现数字化转型,提升核心竞争力。 尾版.png

推荐阅读