文心快码Comate3.5S更新,试试多智能体协同能力如何

121 阅读5分钟

6月23日,百度发布独立的AI IDE——文心快码Comate,我就第一时间上手体验了,最近comate升级到3.5S版本,支持模型包括Kimi K2、Kimi K2 0905、GLM-4.5、DeepSeek-V3.1,并且强化了多智能体自协同能力。

从原来的由Zulu编程智能体作为核心,实现「需求-编码-调试-验证」的端到端生成,到现在的内置Zulu、Plan、UT、F2C、Architect等****不同能力特长的智能体实现开发协同。实测体验下来,在项目中尤为显著。

尝试开发了一个AI健康记录应用,实测体验下来:Comate在产品开发的整体工程能力实现上有显著提升。

灵感来源

前段时间工作特别忙,作息也不规律,过了一段非常不健康的日子。最近痛定思痛,准备了一系列“吴尊”计划。不过市面上和健康相关的app一般的都是饮食记录和体重记录,找了一圈,都没有特别贴合我的需求的应用,想了想不如自己手搓一个。

image.png

我的初步想法是用语音把一天的作息、饮食、运动量等进行描述,比如"我昨晚11点睡,今早7点醒,上午喝了1杯咖啡,中午吃了炸鸡,晚上跑步1小时"。通过AI模型自动对指标进行拆分并记录,在需要时可以快速查看某个指标情况,比如查看过去一周的入睡时间,生成本周的健康报告等。

需求描述

把前面的大致想法转写为一段产品需求文字。

image.png

comate内置了Plan智能体,能更好地拆解我们输入的需求,将较为抽象的产品需求变为清晰的可执行开发步骤,需求发送给它后,很快就制定了一份开发计划文档,包含技术栈、各阶段开发的执行计划等等。

image.png

正式开发

之前comate里我使用zulu智能体比较多,新版的comate新增了Architect智能体,它基于 SubAgent架构,内置 ****Deep Read(深度阅读) ****+ ****Actor(执行智能体) ****,能更好地拆解复杂问题并分工、编排,完成大型项目交付,这次我选择Architect进行开发。

comate依次完成前后端的开发,具体包含:

前端部分:

  • React + TypeScript + Ant Design 的现代化前端架构
  • 完整的页面组件(首页、记录页、分析页)
  • 可复用的UI组件(输入面板、记录编辑器、筛选器等)
  • 完整的服务层(数据服务、API服务、语音识别等)
  • 类型定义和工具函数

后端部分:

  • Node.js + Express 的RESTful API服务
  • 完整的MVC架构(控制器、路由、服务)
  • 通义千问API集成服务
  • 本地文件系统数据存储服务
  • 健康数据分析服务

image.png

过程中出现报错也没关系,comate支持直接读取终端报错信息,自动进行bug修复。同时也可以在问题界面,一键点击修复所有问题。

界面美化

功能实现后,第一版的UI相对比较朴素,主要是前期的提示词里没有对UI风格提具体要求。Comate中内置了F2C智能体, 可以还原Figma设计稿,自动生成可运行、可维护的前端代码。

image.png

不过作为mvp版本,我选择更简单方式,zulu内置联网功能,我直接让其搜索并模仿苹果IOS26的“液态玻璃“效果,对界面进行优化。

image.png

最终效果如下:

image.png

大家也可以参考此方法,让智能体自行搜索和模仿优秀产品的设计风格,可以快速让项目UI的美观度提升一个台阶。

功能测试

通常情况功能测试最好在UI美化之前,不过打乱顺序其实也没啥影响。在预览界面,我手动测试了所有页面的跳转,逻辑都正确。然后是测试最重要的健康数据提功能,能否调用大模型api把用户输入的日常行为提取为结构化的健康数据,并进行记录。

image.png

顺便我也用内置的UT智能体,UT能完成单元测试,同步提供覆盖率报告。

image.png

最终效果

2025-09-23 21-56-42_3.gif

整体上,最终成品还是很符合预期的,用于自己平时的健康记录完全没有问题。

AI 编程的核心流程 “自然语言输入→高质量代码输出”,看似很直接简单,但隐藏着多重复杂的逻辑处理环节,comate目前内置的智能体基本能满足开发中不同阶段的主要需求。

需求分析能力、任务拆解能力、工具调用能力这些本质是对编程逻辑、自然语言语义及工具特性的深度融合理解,使其在 “从文字到代码” 的转化中,更接近人类开发者的思考路径。还是那句话:当AI真正理解开发者的意图时,技术的边界就会被重新定义。

qrcode_for_gh_ec12084f1d87_258.jpg

扫描二维码关注我****