\n\nSmartBear 推出 Swagger 更新,通过 Swagger 目录和漂移检测功能,解决 AI 编程工具因快速生成代码而导致的 API 规范不一致问题,确保 AI 时代的应用程序完整性。
译自:SmartBear's Swagger update targets the API drift problem AI coding tools created
作者:Darryl K. Taft
上周,SmartBear 宣布为其商业版 Swagger 工具集推出新功能,旨在随着 AI 编程工具加速软件开发,帮助企业治理、验证并扩展 API。
此次更新的核心在于两项新增功能:一是经过重新设计的 Swagger Catalog(Swagger 目录),让平台团队能够集中查看 API 组合;二是具备漂移检测功能的契约测试,可持续验证 API 的行为是否符合 OpenAPI 规范。
SmartBear 表示,Swagger 支持横跨整个 AI 赋能的 API 全生命周期的设计、治理和测试,确保每一步的质量。它使用户能够构建面向人类、大语言模型(LLM)、智能体(Agent)以及持续创新的 API。
AI 编写代码的速度已超过规范更新速度
该公司将这两项新功能置于“应用程序完整性”的旗帜下——SmartBear 的首席产品兼技术官 Vineeta Puranik 将这一术语定义为一种持续、可衡量的保证,即确保软件按预期运行,并具备能够以 AI 速度和规模运行的治理能力。
Vineeta Puranik 试图解决的问题是,像 GitHub Copilot 和 Claude 这样的工具可以在几分钟内生成或修改数千行代码,但这些 API 本应遵循的规范并不会自动更新。其结果就是 SmartBear 所说的“漂移”——即 API 契约与代码实际行为之间的偏差。
“平台负责人正面临碎片化的发现过程和生命周期可见性缺失的困扰,而工程和 QA 团队 则面临着规范与运行时之间无声的背离,”Vineeta Puranik 告诉 The New Stack。
要么左移,要么晚点付出代价
SmartBear 的漂移检测功能在 CI/CD 流水中运行,在代码到达生产环境之前捕获偏差。这与 Kong 或 Apigee 等 API 网关 提供的功能有所不同——那些工具是观察生产环境中的流量,这意味着错误已经发生了。Vineeta Puranik 表示,SmartBear 的主张是左移(shift-left):在构建周期中发现漂移,而不是在部署之后。
她指出,Swagger Catalog 解决了可见性方面的问题。随着 AI 工具大规模生成和修改 API,平台团队会失去对现有哪些 API、哪些符合规范以及哪些已准备好投入生产的追踪。该目录提供对组织完整 API 组合的生命周期追踪和治理执行——包括从代码库、CI/CD 流水线摄取的 API,以及从 Postman 等工具导入的规范。
一站式全景视图
在一家参与功能测试的汽车公司担任高级首席解决方案架构师的 Jason Burch 表示,该目录的价值既是技术性的,也是组织性的。
他在一份声明中说:“当你将数百个内部 API 集中展示在一个地方时,它为产品、开发和架构团队创造了跨团队的可见性——并以我们目前的流程无法实现的方式提升了治理水平。”
此次发布还包括本季度即将推出的多项 Swagger 平台更新。其中包括:具备 AI 驱动 API 生成功能的新编辑器、上下文感知文档、基于 Spectral 的治理执行、支持自然语言 API 自动化的 MCP 服务器 支持,以及对 OpenAPI 3.1、AsyncAPI 3.0 和 GraphQL 扩展的协议支持。
作为智能体基础设施的 API
对 MCP 服务器的支持具有特殊意义。Vineeta Puranik 说,智能体之间的通信是通过 API 进行的,这意味着机器可读且最新的规范不再仅仅是最佳实践,而是一种硬性依赖。
在这种环境下,漂移不仅会破坏测试,还会破坏集成。Vineeta Puranik 直言不讳地指出:“智能体之间靠什么交谈?就是 API。”
除了目录和漂移检测外,SmartBear 还将一款名为 BearQ 的新型 AI 原生测试产品定位为应用程序完整性故事的一部分。该工具从一个 URL 开始,自主探索应用程序功能,生成测试用例,运行它们并标记失败——所有这些都不需要测试人员具备脚本编写知识。
“你可以告诉它去查看某个功能,它就会明白你的意思,”Vineeta Puranik 说,“你不需要告诉它任何脚本语言。”她表示,针对批量 API 测试的智能体工作流(将工具指向整个代码库)计划于第二季度推出。
平台化策略,而非单一解决方案
SmartBear 的 Swagger 工具被全球 32,000 家机构的 1,600 多万名开发人员使用,包括三星、福特和万豪。由该公司委托 Forrester 咨询公司进行的一项总体经济影响研究发现,对于一家拥有 200 名开发人员的复合型企业,该平台在三年内实现了 227% 的投资回报率。
与此同时,SmartBear 在上月底发布了 SmartBear Application Integrity Core。与这两个新发布的功能一样,这些能力改进并加速了应用程序测试,以跟上 AI 驱动代码生成速度和数量的增长。
这些新功能为人类主导的测试工作流增加了智能体和 AI 动力——包括针对本地应用利用 AI。这些举措紧随 SmartBear 最近发布的 BearQ 之后,进一步完善了其注入 AI 的应用程序测试产品组合。
增强功能包括:
- SmartBear 测试自动化平台 Reflect 中新增的智能体能力,允许开发人员和 QA 工程师直接从其编码环境生成自动化测试。通过 SmartBear MCP 服务器调用 Reflect,团队可以引入更丰富的上下文,借鉴现有的测试资产、统一的可见性与报告以及开发历史。这能够以智能体方式创建上下文感知测试,并在无需从零开始的情况下加速自动化采用。
- Zephyr 新增的 Rovo 智能体技能,可在 Atlassian Jira 中实现自然语言查询,以评估测试覆盖率、搜索测试执行情况并评估发布就绪性,从而使 QA 团队能够快速识别缺漏并确定测试工作的优先级。
- 为 SmartBear 的桌面测试和安全本地环境工具增加 AI 能力——包括在 ReadyAPI 中提供自然语言 AI 测试生成,用于构建复杂的多步骤 API 测试;并在 TestComplete 中增强基于 AI 的对象检测。这将提高快速变化的应用的自动化可靠性,同时配合企业治理控制,以满足合规和质量标准。
“SmartBear 正在全力以赴,使 QA 团队能够更快行动并改进应用级测试。我们看到一些团队正奔向像 BearQ 这样完全自主的解决方案,而另一些团队则在部署支持 AI 的工具来辅助人工主导的自动化甚至手动流程,”Vineeta Puranik 在声明中表示。“我们通过帮助团队自信地采用 AI、有效地扩展测试并在软件交付加速时保持应用程序完整性,在客户的 AI 旅程中与他们并肩前行。”全 工智能