作者回顾了互联网早期的去中心化特征,并指出当前AI仍处于“蜜月期”,平台通过过度交付来吸引用户。但历史经验表明,接下来将进入平台锁定阶段。
为“退出”而设计,趁成本还低时
第一个预警信号是核心能力的访问渠道随时间变窄。在AI领域,这表现为技术细节减少、部署选项减少、检查和控制系统的方式减少。供应商将成为你的运行时环境、产品路线图和风险画像。生产级应用需要版本锁定、回归测试套件和追踪输出分布的仪表盘,以捕捉模型行为在夜间发生变化的情况。
第二个预警信号是政策波动,通常以安全措施为由。服务条款和可接受使用政策可能快速变化,执行也可能不一致。失败模式不是传统软件那种清晰的错误,而是无声的拒绝、降级的答案,或者周一能用的工作流周四就坏了,而你这边没有任何代码改动。更棘手的是地缘政治因素,供应商可能突然决定不再为某些地区或行业服务。
把护城河留在自己这边
另一个早期预警信号是数据流向不对称。许多提供商使用消费者聊天数据进行模型训练或改进,除非你选择退出。风险在于团队仍在消费者聊天界面中完成实际工作,他们的专有领域知识最终可能会改进一个其竞争对手也能访问的系统。隐私也引发了一个独立的担忧,因为上下文窗口经常包含敏感信息。
我的经验法则是:对待AI输入就像你正在把它发送到你无法控制的外部服务一样,因为你确实如此。在你的代码中构建防护栏,而不仅仅是政策文档。扫描出站提示中的机密信息。将上下文限制在最小范围。对于高敏感度的工作负载,“正确”的架构可能包括在你的环境中运行一个开放模型,即使你仍然使用托管模型来处理常规任务。
像你会切换那样去构建,因为你终将切换
一个更微妙的预警信号是,假设在需要时切换会很容易。在一个模型上运行良好的提示在另一个模型上可能会失效。工具调用格式不同。在一个系统中可靠的输出在另一个系统中变得不稳定。嵌入和微调让这个问题更严重。这些技术本身不是错误,但你需要在你承诺使用它们之前,将切换成本计入考量。
实用的做法是,将你的产品功能与当前使用的模型分离开来。将提示、工具定义和路由逻辑放在你可以控制的层后面。将会话状态存储在你自己的数据库中,而不是供应商的内存功能中。将可移植性与可观测性或备份同等对待:作为一种持续性的原则,而不是事后才去修补的东西。
将令牌成本视为产品风险
基于令牌的定价使成本波动。提示的更改、更长的上下文窗口或重试循环都可能意外地增加你的账单。除了账单飙升之外,还存在长期定价风险。今天的AI API价格可能低于推理的真实成本,就像优步早期的乘车服务一样有补贴。令牌定价可能遵循同样的曲线。
速率限制和定价层级会形成不同的能力等级。提供商有强烈的动机随着时间的推移降低较便宜层级的质量,同时为优质客户保持高质量。假设你当前的模型层级最终会被降级;利润最大化的做法是迫使你转向企业级费率。
还有一个与平台时代相呼应的战略风险。你的提供商可以看到你的提示和使用模式,这准确地告诉了他们有价值的机遇在哪里。如果他们推出一个竞争功能,他们从你的“剧本”开始。
别让便利成为牢笼
最后一个预警信号是,依赖模型的内部知识作为你应用程序的唯一真理来源。等待提供商解决幻觉或复杂推理问题是一个陷阱,这必然会锁定你在该供应商上。我最近发现一个引人注目的工具叫RealAI。他们超越了简单的文档检索,将数百万个不同的数据点融合成标准化、可查询的结构化数据。他们还认识到基础模型在可靠的数学运算上仍然存在困难,因此他们将AI直接连接到专用的财务计算器上。当你将实际智能转移到你自己的数据管道和专门的外部工具中时,你将极大地减少对任何单一提供商的依赖。你的竞争优势变成了你专有的数据融合和业务逻辑,这使你可以随时在有更好选择出现时,替换掉底层语言模型。
OpenCode + OpenRouter:氧气(O₂)
这些都是初步的观察,并非最终结论。但互联网的历史表明,我们应该密切关注激励机制的走向。如果我们这次想要一个不同的结果,我们需要在默认设置变得难以改变之前,尽早推动可移植性、透明度、用户控制和实际的反垄断执法。
其中一些始于我们选择的工具。目前Claude Code引起了很大的关注,我理解为什么。但我一直向人们推荐那些使模型交换常态化的开放工具。我一直在使用的设置是OpenCode与OpenRouter配对,它让你可以访问不同的模型提供商,而无需在你想尝试不同模型时重写所有内容。
完全透明地说,我仍然依赖Anthropic、Google和OpenAI的专有模型。这些系统与开放权重模型之间仍然存在性能差距。但这种差距正在迅速缩小。你应该积极探索将更多工作负载转移到较小的开放权重模型上,你可以使用自己的数据和工具定制和增强这些模型。虽然初创公司可以立即采用这种方法,但大型组织自然需要增加治理和合规层。两者的根本目标是完全相同的:你必须保持可选择性并保持对自己产品的控制权。FINISHED