这是三湘问道第003篇。上一篇讲财富公式:被看见 × 被信任 × 被留住。这一篇,讲另一把刀。
半小时 vs 十年
2020年,AlphaFold 2参加蛋白质结构预测竞赛。
德国科学家 Andrei Lupas 卡了10年的一个蛋白质结构,它半小时给出结果。
到2022年7月,AlphaFold 数据库放出了超过2亿个蛋白质结构预测。
覆盖了地球上几乎所有已知蛋白质。
真正让我着迷的,不是它有多强。
是它换了一个问题。
一条100个氨基酸的短链,理论上可能的折叠方式有多少种?
10的300次方。
**
**
什么概念?可观测宇宙里的原子总数才10的80次方。
在这个天文数字面前,"搜索正确答案"根本不现实。
不管算力多强,时间不够。
AlphaFold的第一代就在试图"找答案"。
用深度神经网络预测氨基酸之间的距离,再拼装出结构。
方向没错,但工具的上限到了——拿了第一名,也只有60分。
然后DeepMind做了一个极其罕见的决定:
把所有代码扔进垃圾桶,推倒重来。
两年后,AlphaFold 2得了92.4分。
不是因为算力更强。
是因为它不再问"正确答案在哪"。
它问的是:哪些答案不可能存在?
用约束条件,把不可能的答案一刀一刀切掉。
切到最后剩下的那一个,就是唯一解。
这不是搜索。
这是排除。
三把刀
翻成人话,它其实只有三步。
第一步:读历史。
几亿年的进化,已经替你筛掉了大部分错误答案。
AlphaFold 2扫描几百万种生物的基因序列,找"总是一起变化"的氨基酸对——一起变的,空间上大概率是近邻。
它不预测未来。它读历史。
历史上活下来的模式,就是约束条件。
第二步:找铁律。
化学键有范围,原子有最小间距,某些角度能量上不稳定。
物理定律不可违背。
违背的答案,直接排除。不用讨论。
第三步:自我攻击。
第一轮算出粗糙结构,重新输入系统,再审问一遍。
哪里不合理?修正。再输出。再审问。
一轮一轮排除错误,逼近答案。
AlphaFold 2厉害,不是一次算对。
是在反复否定自己的过程中,逼近真相。
讲人话
我把这三步翻成了一条更土、但更好用的公式:
推演能力 = 历史数据 × 约束条件 × 迭代深度
历史数据,帮你少走弯路。
约束条件,帮你排掉死路。
迭代深度,防止你第一眼就把自己骗了。
这套东西,我最常拿来拆AI产品。
跑给你看:妙鸭相机
2023年,妙鸭相机刷屏。
几块钱生成一张AI写真照。朋友圈到处是晒图。
很多人盯着效果好不好。
我盯的不是效果。
我先问一句:这是不是高频需求?
读历史——脸萌(2014年,火一个月消失)、ZAO(2019年,火两周消失)。
妙鸭之前已经死了一排同类。共同死因:用完一次就走。
找铁律——低频需求的产品,无法靠自身留住用户。
拍完一套写真,下次什么时候再需要?半年?一年?
这条铁律一旦成立,天花板就锁死了。
自我攻击——能绕过去吗?
做企业版?频率还是低。做订阅制?动机不够。做社交?可能走通,但妙鸭没做。
问题不是功能不够好。
问题是需求频率不够高。
我为什么越来越信这把刀
2024年初,OpenAI推出记忆功能。
很多人很兴奋:AI终于记住我了。
我当时写下的判断正好相反:
如果记忆不能驱动行动,就是玩具。
因为"被记住"不是高频需求。
"替我做事",才是。
后来发生的事,基本沿着这条线走了。
2025年1月,OpenAI上线Tasks(定时任务)。
7月,Agent Mode上线——AI代你操作网页、执行任务。
Gmail、日历、Slack这些连接能力也陆续接入ChatGPT。
记忆本身没火。
记忆接上行动链,才开始真正变成日常工具。
你今天再看OpenClaw为什么火成这样,就更清楚了。
它首页写的不是"我记得住你"。
而是:The AI that actually does things.
清邮箱、发邮件、管日历——它不是在聊天,它在替你干活。
这就是它跟之前所有AI助手最大的区别:它能动手了。
记忆是基础设施,行动才是高频需求。
公平地说,妙鸭那个例子是事后分析。
但ChatGPT记忆这个判断,是2024年初做的,2025年的产品迭代验证了它。
这套公式不能100%预测未来。但它能在你决策之前,排掉大部分走不通的路。
你今天就能用
拿三张纸,跑一遍。
第一张,写下3个同类产品怎么死。
第二张,从死法里提1条铁律。
第三张,用这条铁律攻击你自己的想法。
跑完这三步,
你未必立刻知道该做什么。
但你大概率会更早知道:
哪条路别再骗自己。
最后一个问题
你最近看过哪个AI产品,
越想越觉得:
它的问题不是功能, 而是需求频率?
这是三湘问道第003篇。
001讲实战判断。
002讲财富公式。
003讲推演公式:不找正确答案,先排除不可能。
下一篇,拿Gamma跑一遍:50个人,估值21亿美金。怎么做到的?
关注,或者私信聊聊。