距离上次写AIGC的文章,快两年了,总结一下。还记得24年初那会儿,GPT-4还是最先进的模型,我对AI工具的探索还挺浅的,主要就是用chat问问题,写写简单的prompt,像Claude、Gemini这些模型当时也还在早期。
这两年模型发展真的很快,各种突破和应用不断出现。现在回头看,我24年的一些判断保守了。
用了很多各种AI工具和模型,对比之前确实感受到不少变化:模型明显更聪明了,很多工作流程在改变,小团队能做的事情边界拓宽了不少,从chatbot到MCP再到Agent,感觉新的方向正在形成。
总结一下,看看再过一年会不会有什么变化。
模型确实进步很大
其实所有上层应用和工作流的改变,根本上还是因为模型本身的突破。
去年:感觉AI更像是个刚入职的新人——什么都懂一点,但做具体任务时总会暴露各种问题:推理能力不够,总结内容平淡,理解指令比较浅,还经常出现幻觉,生成的内容逻辑也不太清晰。
现在:像Gemini 2.5 Pro、Claude 4.5、Qwen3、DeepSeek这些模型,各方面能力都提升了很多。就拿写代码来说,现在用Claude写的代码可信度高多了,我之前用它做过一个小项目,前后端加部署,三天就搞定了。
去年写学校project的时候,AI生成超过500行代码就开始乱写,我得全部重构。现在已经用Trae和Cursor Code独立做了几个项目(代码总量万行左右),Vibe-Coding(有尝试过spec-driven的方式,感觉效率确实更高些)。
多模态方面我用的场景少,简单试了试,感觉OpenAI和DeepMind在这块确实领先。
总的来说,去年AI的能力还比较有限,现在已经能胜任不少实际工作了。
我目前的使用习惯:
- 写代码和日常使用:Claude 4.5 Sonnet
- 深度研究和数学推理:Gemini2.5pro/Qwen 3
- 多模态:Gemini2.5pro
- 文字创作:Claude 4.1 Opus、Gemini、DeepSeek
Gemini和Claude我都订阅了,不过Claude的token限制挺严的,用着用着就没了,所以也订了Gemini作为补充。Gemini的知识库很强大,理解能力也不错,就是指令跟随能力比Claude稍弱一点,有时候会感觉它"用力过猛"(可能是我习惯Claude了)。不过Gemini的Deep Research功能很好用,毕竟是Google家的,搜索能力确实强。
Qwen 3的搜索比Gemini还强,但理解和推理能力稍弱些,不过日常问点轻松的问题(比如"吃什么有用吗""xxx是什么"之类)刚刚好,生成速度也快,Claude限额后我就会切到Qwen。
大厂们的AI
去年我觉得AI对小团队的提升会大于大组织,但今年看到很多大厂都在All in AI。他们是找到规模化应用的方式了吗?今年上半年我在某大厂实习,可能是个例,但内部其实没引入太多AI工具,也没感受到明显变化。不知道是我观察有偏差,还是大厂有我不了解的新玩法。
我有点困惑的是:很多大厂本身产能就很充足了,进一步提高产能带来的价值到底在哪?当然这可能是我理解不够全面。
流程在变
模型能力提升后,很多新的AI应用确实在改变原有的工作方式——文案、策划、市场调研、产品设计、编程等等。
我主要是写代码,这方面感受比较深。像Cursor、Trae、Augment、Claude Code这些工具,改变的不只是"写得更快",更多是我们构思和架构项目的方式在变。这也会影响未来程序员需要具备什么样的能力。
基于Vibe Coding,很多人又提出了新的优化方法和架构方式(比如spec-driven development)。虽然可能有些资深开发者不太认可,但新的代码工作方式确实在路上了。
去年AI编程的体验可不是这样——代码改的反复,代码可读性差,运行bug多,MCP调用也不成熟,每个问题都耗费大量时间。
现在的Vibe Coding虽然还是会有bug和幻觉,但解决问题的时间成本已经降到可以接受的范围了,这是个质的变化。
不仅是AI代码能力提升了,工具本身也更成熟了(CLI调用、本地文件读写MCP、更好的Figma适配),加上越来越多的实践经验被分享出来,这些积累在一年内就明显改变了AI编程的体验。
对开发者来说,一个关键变化可能是:编程的瓶颈转移了。
关于这个变化自己感受的变化的还有很多,不过这篇已经有点长了,慢慢总结吧。
总的说:很多工作方式在变化,我观察到不少人其实还没适应。但基于MCP、Agent、这些新技术构建的应用,确实在提升原有流程的效率,而且不同人之间去用模型的差距也很大,未来可能会有个很严谨的课程去教我们如何用好这些新工具。
小团队的上限
模型,Agent,以及各种基于AI衍生的应用,在深度体验之后都觉得能够极大的提高个体的生产性能,个体和小的组织上,会用的,用的精的团队和不会用的团队能效上能差出3~5倍(保守的去估计)。
小团队的上限进一步的去被拨高了,尤其是multi-agent的工具出现,个体产出超过团体越发越显著,只不过是现在观察到两极分化非常严重,会用AI的对一些前沿的工具的理解使用,自己+AI能做什么的认知已经和不会用的人完全分化成了两类人了。
这个上限随着模型能力的强化,配套应用的开发(至少目前看到很多在开源的,利用Agent/模型 进一步提高个人能力的方案在被提出),会进一步的上升。
新的工具下,一定会打破一些旧的认知,观察到周围仍然有很多人会抗拒使用AI,各种理由都有,听到自己喜欢的博主对这个有个很形象的比喻:“如果这个时代,你还觉得自己做的比自己+AI做的好的话,和十几年前觉得自己手洗比洗衣机洗的干净的人不是一类的吗?现在回过头看看是不是哥很蠢的事情”
效率面前一切让步。
新的内容
去年觉得,所有AI工具都只是加速了产出内容的周期,本身并没有带来一些新的内容,但是今年来看,又一些变化了。一些以AI为主的产品逐渐被看到:数字人,将Agent封装成产品,给模型更多function cal 作为电脑的管家…. 基于Agent和多模态模型的一些更富有想象力的交互方式在被探索出来。
为什么普及慢
目前来看,还是有很多人去对这个方面进行探索的,但是目前可能因为大部分人还没反应过来(大家的消费认知更新没那么快),这类新产品的设计流程和校验仍然需要时间。
有信任的问题,而且很多产品很多产品还在探索真正的刚需场景,而不是为了AI而AI。
商业模式不清晰如何定价、如何衡量价值,还在摸索中
…也许吧瞎分析的
写在最后
说了这么多,其实就想记录一下这个时间点的观察。
技术会继续发展,工具会继续迭代,新的问题也会不断出现。但变化本身已经不可逆了。
怎么用好?继续用,继续观察,继续记录
就这样,一年后见。