快手入局 AI 编程,CodeFlicker 交出了一份怎样的答卷?​

0 阅读8分钟

CodeFlicker 这款产品,我前后用了两三周。先说结论:它不是那种一上手就让人眼前一亮的工具,甚至刚开始用的时候,还会让人有点失望。但如果你多用一阵,也能看出来,这个团队是有想法的,更新也很快。问题在于,现阶段它离“好用”还有一段距离,尤其是一旦你真的拿它做稍微复杂一点的项目,它的问题就会暴露得比较明显。

现在 AI IDE 和 CLI 工具已经很多了,大厂小厂都在做。CodeFlicker 比较特别的一点,是 IDE 和 CLI 一起上了,不像有些产品先做编辑器,过很久才补命令行。光从这件事上,其实能看出来他们想做的不只是一个“加了 AI 的编辑器”,而是一整套开发体验。这一点我觉得是有野心的。

image.png 不过,野心归野心,真正用下来,感受还是得回到产品本身。CodeFlicker 的 IDE 基于 VS Code 做了不少改动,早期版本的卡顿感比较明显,最近几次更新后比之前顺了一些,但和原版 VS Code 比,流畅度还是差一点。CLI 这边的问题更直接,它最开始给我的感觉就是有点粗糙,界面和交互都比较简单,用起来不像一个已经打磨成熟的工具。虽然现在也在持续更新,但第一印象确实不算好。

我一开始对它期待其实挺高,所以测试的时候也没太客气,直接把一个相对完整的项目提示词丢给它,想看看它到底能不能扛住复杂任务。当时我用的是能力比较强的模型,结果出来以后,说实话有点失望。最初我还以为问题主要出在模型适配上,后来等它接入更新的模型之后,我又拿差不多的任务重新测了一遍,结果提升并不明显。程序的可用性、页面效果,还有整体完成度,和我用过的一些主流同类工具相比,还是有差距。

如果要说它现在最明显的问题,我觉得不是单点能力不行,而是整套任务链路还不够稳。简单来说,就是它能帮你做一点事,但很难把一件事情从头到尾做完整。

这一点在全栈任务上尤其明显。你如果已经知道 bug 在哪,或者你能把需求拆得很细、描述得很明确,那它还能帮上一些忙。但如果你希望它自己去理解项目、定位问题、再一步步改好,表现就比较吃力了。尤其是碰到需要前后端一起配合的任务,它经常顾得了一头,顾不了另一头。

我前几天拿它试过一个网页小游戏的需求,这个体验挺能说明问题。它中间做了很多操作,看起来很忙,也确实消耗了不少 credits,但最后给出来的前端页面非常朴素,甚至可以说有点敷衍,和当时所用模型本该有的水准并不匹配。更麻烦的是,后端和前端几乎没接上,结果就是整个游戏根本跑不起来。之后我又让它继续修,它也不是完全不动,而是在不断尝试,但问题会反复绕回来,修着修着就进入一种来回打补丁的状态,始终没能把这个任务真正收住。

还有一点我觉得挺关键,就是它对提示词的依赖比我预想中更高。官方如果想把它做成一个更适合泛开发者的工具,那至少应该让用户不用写得特别专业,也能拿到一个过得去的结果。但现在的实际情况是,如果你的需求写得不够细、不够准,它产出的代码质量就很容易往下掉。对于已经接触过不少 AI 编程工具的人来说,这个门槛都不算低,更别说那些原本就不是很熟悉开发流程的用户了。

再说价格。CodeFlicker 现在的收费方式,给我的感受是“看着不贵,用起来挺贵”。新用户每个月送 50 credits,付费的话,10 美元可以买 200 credits(不是一次调用扣1点credits哦)。单看数字,好像还可以接受,但实际做几个复杂任务以后,你就会发现这个额度消耗得很快。有一次只是测试一个网页小游戏,前前后后就消耗了几百 credits。问题在于,这个消耗和最后得到的结果并不成正比,所以试错成本会显得特别高。

image.png 模型倍率也会进一步放大这种感受。有些模型倍率比较低,比如 GLM-5.0、MiniMax M2.5 这一类,用起来压力没那么大,免费额度也还能撑一段时间,其中有些模型在 Agent 场景里的表现也确实还行。但如果你切到倍率更高的模型,成本一下子就上去了,而生成质量又没有明显好到让人觉得值回票价,那用户自然会犹豫。说白了,不是不能贵,而是贵至少要贵得有说服力。

所以我现在会觉得,CodeFlicker 的问题某种程度上也和产品定位有关。它现在走的是比较典型的 IDE + CLI 路线,但如果它真的想服务更广泛的人群,这条路未必是最合适的。因为对于很多非专业开发者来说,真正劝退他们的,往往不是“不会写代码”本身,而是本地环境、调试过程、运行方式这些一整套门槛。你给他一个 IDE,不代表他就真的能顺利开始。

从这个角度看,我反而觉得它未来如果往更轻、更跨端的方向走,也许会更有机会。比如让电脑端和其他终端的协作更自然一点,把环境、运行、预览这些东西再往后藏一层,尽量让用户看到的是结果,而不是一堆配置和工程细节。这样可能比单纯把 IDE 做得更像传统开发工具,更符合“泛开发者”这几个字。

当然,CodeFlicker 也不是没有优点。恰恰相反,我觉得它最值得肯定的地方,不在于它现在已经做得多成熟,而在于这个团队的反应速度确实很快。

内测这段时间里,我能明显感觉到他们在认真看反馈,也真的会改。很多 bug 和建议,社区里刚有人提出来,没多久就能看到回应,有些甚至很快就进了版本更新。对于一个还在快速迭代的产品来说,这种反馈速度其实很重要。因为用户不一定要求你一开始就做得完美,但至少希望你知道问题在哪,也愿意持续去修。

另外一个比较突出的优点,是它接新模型的速度很快。这点我觉得确实值得单独说。每次行业里有新模型出来,它往往都能比较快地跟上适配,这意味着用户能更早试到新能力。对于 AI 编程工具来说,这种速度本身就是竞争力,因为很多时候,产品体验不只是看你界面做得多漂亮,也看你能不能第一时间把底层能力接进来。

至于价格策略,虽然我前面批评得比较多,但也能看出来他们在尝试找平衡。毕竟不同模型的成本差别很大,产品方需要在“让用户用得起”和“自己扛得住成本”之间反复调整。只是从现在这个阶段来看,这个平衡点还没有找到一个特别让人满意的位置。

如果让我现在给 CodeFlicker 下一个判断,我会说它更像一个“方向没错,但产品还没磨透”的工具。它不是完全不能用,也不是没有亮点,只是离真正让人愿意长期依赖,还有不小距离。尤其在复杂任务、前后端协同、结果稳定性和成本控制这几件事上,它还需要补的课不少。

但反过来说,也正因为它还在早期,我反而不会太早把它判死。一个团队有没有机会,很多时候不只看它现在做成了什么,还要看它有没有持续改进的能力。至少在这一点上,CodeFlicker 目前给我的感觉是有希望的。它的问题很明显,优点也不难看见。接下来就看它能不能把这些优点真正转化成成熟产品,而不是一直停留在“更新很勤快,但体验总差一点”的阶段。