AI代码助手大比拼:Trae的短板与国产之光

522 阅读3分钟

引言

在AI辅助编程工具日益普及的今天,我尝试在Trae中利用deepseekv3-03-24、Claude 3.5、Claude 3.7等模型进行基于项目的代码问答。然而,实际体验却与预期存在一定差距,感觉模型的智能化程度并未充分发挥!

一、问题复现与模型表现

我准备的问题:checkUpdate方法在项目中的调用情况总结

  1. 首先我自己搜索了下项目,看下调用的地方,做到心中有数:

可以看到项目中有两处进行了调用

  1. 我向Trae提出了以下问题:

然而,令人失望的是,无论是deepseek-v3-0324,还是Claude 3.5/3.7,都未能给出准确的答案。即使清空上下文重新提问,结果依然不尽如人意。

  1. trae中deepseek-v3-0324表现:

  1. 清空上下文 再给他机会:

依旧失败!

  1. 之后换成claude3.5、clause3.7都试了下回答的还是差不多!是我使用方式不对?

更令人费解的是,第二次提问时,在没有指定#workspace的情况下,模型就开始“自由发挥”,似乎完全没有记忆上下文

二、对比测试:其他AI代码助手的表现

为了验证是否是模型本身的问题,我尝试了其他AI代码助手:

  1. augment毋庸置疑肯定不会失败的
  2. rooCode 使用deepseek v3模型试试,也成功了
  3. 再试试文心快码,不出所料的 失败了

  1. 通义灵码也来试试(我是看好它的)

也确实成功了!!!

  1. 字节的marscode也来挑战下(这个我不太熟悉)

跑题了!!!

  1. 最后再试试copilot(我对他也有信心)

成功了

三、分析与反思

从测试结果来看,我提出的问题并不复杂,只需根据关键词在上下文中进行检索和分析,即可得出正确结论。然而,Trae的表现却令人失望。

rooCode同样使用了Deepseek V3模型,却能成功解决问题,这表明问题可能并非出在模型本身,而是Trae未能充分发挥模型的潜力。Trae似乎更适合小上下文的代码问答,在处理项目级复杂问题时还有待提升。

四、推荐与展望

在众多AI辅助编程工具中,我个人认为以下几款表现较为出色:

  • 国内: 通义灵码
  • 国外: Copilot、Augment、rooCode

当然,AI辅助编程工具仍在快速发展中,我们期待未来能有更多更智能、更强大的工具涌现,帮助开发者提高效率,解放生产力。

总结

通过本次测试,我们发现Trae在项目级代码问答方面还有一定的提升空间。希望Trae团队能够进一步优化算法和模型集成,让其更好地服务于开发者,成为真正的智能助手。