为什么做这个
有没有这种感觉,AI时代每天都会经历信息轰炸。新闻快讯更新快到离谱,行业报告、专家观点、政策文件,每一条都看似言之凿凿,但难辨真假。
每次让LLM帮我梳理逻辑,做深度分析,他有时就会一本正经地胡说八道,或者绕了一大圈给出自我矛盾的结论。多Agent辩论看起来挺有道理,但幻觉问题反而更难控制了。
想了这个问题很久,慢慢意识到:信息过载的本质不是读不完,而是理不清因果。
于是趁这几天空下来,vibe coding了 CurioCat, 一个专注因果推理的开源引擎,核心做三件事:拆解因果、搜集证据、量化可信度。
它的工作流程
丢一段文本进去(政策分析、投资假设、竞品情报、行业趋势),CurioCat 会:
- 原子级论断拆解 —— 把文本切成最小论断单元,标注类型(事实 / 假设 / 预测 / 观点)
- 因果方向推断 —— 用 Embedding 过滤 + LLM 判断,推断传导机制
- 对抗式双向搜索 —— 同时搜支持证据和反对证据,不只找正面的
- 8 种认知偏见检测 —— 相关≠因果、幸存者偏差、锚定效应、叙事谬误……
- 证据迭代扩展 —— 从证据里挖出原文没提到的新事实,迭代直到收敛
- Noisy-OR 置信传播 —— 沿 DAG 拓扑序传播,零证据 = 零传播,算出每个节点的真实可信度
最后输出一张可交互的因果图,每条边都能点开看证据、偏见警告、强度评分。
不是给你一个结论,而是给你一张推理的 X 光片。
几个我觉得有意思的设计
🔬 证据调制传播
证据质量直接决定信念能不能往下游传,没有证据支撑的边传播力为 0,从根本上切断幻觉的传播路径。
🔬 对抗式证据
每条因果边同时搜 supporting 和 contradicting 证据,单一来源最高扣 30% 可信度,防止信息茧房。
🔬 场景分叉
修改任意一条因果边的强度,置信度实时重新传播——「如果这个假设不成立,下游会怎样」,一目了然。
关于Vibe Coding这件事
这个想法在我脑子里放了半年。
半年里断断续续地想,怎么让AI推理不再幻觉,怎么把因果关系真正量化,想过很多方案,但一直感觉不算完美,就一直没动手。
最近看到Mirofish爆火,虽然我和他做的完全不是一个东西,但感觉两个项目的切入角度确实有点相似。他做的是群智能体的模拟预测,我做的是因果链拆解方向的辅助决策。但是他的故事真真切切让我意识到,最好的验证想法的方式就是先跑出来,然后再去优化。实际上从开始写第一行代码到项目落地开源,也就花了一天时间。
以前觉得「想清楚再动手」是对的。现在觉得,有些东西想清楚的方式就是动手。
开源地址
项目已在 GitHub 开源,项目名 CurioCat,内附 demo 数据集,不花 token 也能直接跑。
欢迎 Star、Fork,有想法直接开 issue 聊。也欢迎告诉我你觉得这个能用在哪些场景——地缘政治分析、投资决策、竞品研究都有人跟我聊过,很好奇大家的用例。
你平时做决策最头疼的信息场景是什么?评论区聊聊 👇