引言
在AI辅助编程工具日益普及的今天,我尝试在Trae中利用deepseekv3-03-24、Claude 3.5、Claude 3.7等模型进行基于项目的代码问答。然而,实际体验却与预期存在一定差距,感觉模型的智能化程度并未充分发挥!
一、问题复现与模型表现
我准备的问题:checkUpdate方法在项目中的调用情况总结
- 首先我自己搜索了下项目,看下调用的地方,做到心中有数:
可以看到项目中有两处进行了调用
- 我向Trae提出了以下问题:
然而,令人失望的是,无论是deepseek-v3-0324,还是Claude 3.5/3.7,都未能给出准确的答案。即使清空上下文重新提问,结果依然不尽如人意。
- trae中deepseek-v3-0324表现:
- 清空上下文 再给他机会:
依旧失败!
- 之后换成claude3.5、clause3.7都试了下回答的还是差不多!是我使用方式不对?
更令人费解的是,第二次提问时,在没有指定#workspace的情况下,模型就开始“自由发挥”,似乎完全没有记忆上下文
二、对比测试:其他AI代码助手的表现
为了验证是否是模型本身的问题,我尝试了其他AI代码助手:
- augment毋庸置疑肯定不会失败的
- rooCode 使用deepseek v3模型试试,也成功了
- 再试试文心快码,不出所料的 失败了
- 通义灵码也来试试(我是看好它的)
也确实成功了!!!
- 字节的marscode也来挑战下(这个我不太熟悉)
跑题了!!!
- 最后再试试copilot(我对他也有信心)
成功了
三、分析与反思
从测试结果来看,我提出的问题并不复杂,只需根据关键词在上下文中进行检索和分析,即可得出正确结论。然而,Trae的表现却令人失望。
rooCode同样使用了Deepseek V3模型,却能成功解决问题,这表明问题可能并非出在模型本身,而是Trae未能充分发挥模型的潜力。Trae似乎更适合小上下文的代码问答,在处理项目级复杂问题时还有待提升。
四、推荐与展望
在众多AI辅助编程工具中,我个人认为以下几款表现较为出色:
- 国内: 通义灵码
- 国外: Copilot、Augment、rooCode
当然,AI辅助编程工具仍在快速发展中,我们期待未来能有更多更智能、更强大的工具涌现,帮助开发者提高效率,解放生产力。
总结
通过本次测试,我们发现Trae在项目级代码问答方面还有一定的提升空间。希望Trae团队能够进一步优化算法和模型集成,让其更好地服务于开发者,成为真正的智能助手。