最近围绕 GEO、AI 投毒、AI 回答暗藏广告的讨论很多。
但我觉得,这件事最值得警惕的,不只是 AI 里也开始出现广告,而是越来越多人已经把 AI 当成了“答案入口”。
一旦输入源被污染,受影响的就不只是营销结果,而是用户的信任链、判断链和真实决策链。
这也让我想到自己在真实项目里和 AI 协作开发时一直在强调的那件事:真正值钱的,不是更会用 AI,而是更会控制输入、边界和可信链。
最近几天,围绕 GEO、AI 投毒、AI 回答暗藏广告的讨论一下子多了起来。
尤其在 3·15 这个节点下,很多人会把这件事先理解成一句简单的话:
AI 也开始打广告了。
但我觉得,这还不是这件事最值得警惕的地方。
我真正担心的是:
当越来越多人把 AI 当成答案入口时,污染 AI 的输入源,就不再只是营销问题,而是在破坏用户的信任链、判断链和真实决策链。
如果把这件事压成 3 句话,我的判断是:
- 这件事的核心,不只是 AI 里出现了广告
- 更深的问题,是答案本身可能正在被污染
- 这和我在真实项目里使用 AI 时反复强调的边界问题,本质上是同一类风险
这也是为什么,这件事虽然表面上看是在说广告、品牌和营销,但我第一反应想到的,却是我自己这段时间在真实项目里和 AI 协作开发时一直反复提醒自己的那件事:
边界。
不是所有能喂给 AI 的内容都值得信,不是所有看起来合理的回答都应该直接拿来用,也不是所有“被推荐出来的答案”都天然值得依赖。
1. 这次讨论真正说的,不只是“广告更隐蔽了”
最近几篇主流媒体报道,其实已经把事情讲得比较清楚了。
一边是媒体开始关注:
- 有服务商在卖所谓的 AI 回答优化、GEO 服务
- 品牌想办法提高自己在 DeepSeek、豆包、元宝这类 AI 产品回答中的露出
- 一些做法已经不是正常的信息优化,而是走向了数据投毒、伪装测评、软广植入、批量低质内容投喂
另一边是法律和监管层面也开始在追问:
- 如果 AI 的回答中混入商业推广,但用户并不知道,这算不算广告
- 如果这些内容会影响医疗、教育、金融、消费决策,平台和服务商应该承担什么责任
- 如果大量低质、偏向性信息进入模型可见的数据池,最后伤害的到底是谁
所以这件事如果只是理解成“AI 里也能打广告了”,其实还太浅。
广告这件事,过去大家已经很熟悉了。
真正变化的是:
以前在搜索时代,用户至少知道自己看到的是一组候选链接。
你点进去之前,心里多少知道那是网页,是来源,是别人写的内容。
但在答案时代,越来越多用户面对的,是一个已经被整理过、被归纳过、被包装成“像结论一样”的输出。
这意味着:
一旦这个输出背后的输入源被污染,用户甚至不知道自己应该怀疑哪里。
所以,这不是广告位变了的问题。
这是答案本身开始被商业关系和数据操纵影响的问题。
2. 从 SEO 到 GEO,变化不只是技术词变了
很多人会把 GEO 理解成 SEO 的新版本,这个说法不完全错。
但它更深的变化在于:
- SEO 时代,大家争的是“你搜到什么、点哪个链接”
- GEO 时代,大家争的是“AI 最后怎么回答你”
也就是说,以前被影响的是排序,现在被影响的是结论。
这个差别非常大。
排序被影响,你还有机会多点几个链接、多看几个页面、自己比较一下。
但如果答案本身已经被偏向性信息包围,而且 AI 又在用非常自然、非常像“中立解释”的方式表达出来,那普通用户其实很难第一时间意识到:
这里面可能已经混入了不该混入的东西。
这就是为什么我觉得,这件事本质上更像一种“认知层面的投毒”。
因为它影响的不只是你看到了什么,而是你会怎么理解、怎么判断、怎么决定下一步。
3. 这件事为什么让我想到自己的工作
很多人看到这个新闻,会想到广告、品牌、公关、黑产。
但我自己的第一反应,其实是:
这和我在真实项目里和 AI 协作开发时遇到的问题,本质上是同一类问题。
我这段时间一直在写一件事:
- 不要无边界地相信 AI
- 要先写边界判断
- 要先判断哪些能交给 AI,哪些不能
- 要保留 handoff
- 要管理上下文和输入源
因为在真实项目里,AI 最大的风险,很多时候并不是它“不够聪明”,而是:
- 它的输入不一定干净
- 它接到的上下文不一定完整
- 它引用的东西不一定可靠
- 它给出的回答虽然顺,但不一定稳
如果把这个逻辑放回这次 GEO / AI 投毒事件,其实是一模一样的。
消费场景里,用户把 AI 当成答案入口。
工程场景里,开发者也越来越容易把 AI 当成方案入口、判断入口、实现入口。
如果这个入口的输入源本身就被污染了,那后面所有“看起来合理”的输出,风险都会被放大。
这也是为什么,我一直觉得:
AI 时代真正值钱的,不只是更会用 AI,而是更会控制 AI 的输入、边界和可信链。
4. 真正要警惕的,不是“AI 会不会被污染”,而是大家开始默认它值得信
这次讨论里,我觉得最值得警惕的一点,不是黑产本身,而是用户使用习惯正在发生变化。
越来越多人已经开始把 AI 当成:
- 搜索入口
- 决策入口
- 方案入口
- 咨询入口
而且这个趋势大概率只会越来越强。
这时候,风险不再只是“有人做了不合规营销”,而是:
- 平台有没有足够的引用透明度
- 用户有没有基本的来源意识
- 在高风险领域,AI 有没有明确的边界提示
- 团队和个人有没有建立最基本的核验机制
如果这些东西没有跟上,问题就会从“营销太野”慢慢变成:
社会开始把一个并不完全透明、并不总是中立、并不天然可信的东西,当成越来越像权威答案的入口。
这比单纯的广告更值得警惕。
5. 所以我怎么看这件事
如果要我用一句话总结我的态度,我会这么说:
GEO 的出现本身不奇怪,真正危险的是它一旦滑向数据投毒、软广伪装和权威造假,就会把 AI 从“信息工具”推向“被污染的答案系统”。
而一旦事情走到这一步,受影响的就不只是消费者。
受影响的还包括:
- 用 AI 做选择的人
- 用 AI 做决策的人
- 用 AI 做内容的人
- 用 AI 做开发的人
- 甚至所有把 AI 当成可靠输入源的人
因为底层问题其实是同一个:
你所依赖的输入链,是否还值得信。
6. 对普通用户、平台和工程使用者,各自意味着什么
对普通用户
不要把 AI 的回答直接当成最终答案,尤其是:
- 消费推荐
- 医疗建议
- 金融判断
- 教育选择
至少要看:
- 它有没有给出处
- 它引用了谁
- 这件事是不是值得二次核实
对 AI 平台
如果平台还想保住用户对答案的基本信任,就不能只卷模型效果,还要补三件事:
- 引用透明度
- 商业内容识别与标注
- 高风险领域的治理和防滥用能力
对工程团队和 AI 使用者
这件事最直接的提醒就是:
不要把 AI 输出直接视为可信事实。
尤其是联网、检索、综合归纳类输出,更不能跳过来源核验。
在真实工作里,越关键的任务,越应该保留:
- 人工核验
- 边界判断
- handoff
- 输入源审查
这不是保守,而是对结果负责。
7. 最后
我觉得这次围绕 GEO 和 AI 投毒的讨论,真正值得留下来的,不是一句“AI 也开始打广告了”。
更值得留下来的问题是:
当越来越多人把 AI 当成答案入口时,我们到底有没有认真对待“答案从哪里来、能不能信、出了问题谁负责”这件事。
因为 AI 越深入工作和生活,这个问题就越不只是营销行业的问题。
它会慢慢变成每一个普通用户、每一个平台、每一个团队、每一个依赖 AI 做判断的人,都绕不过去的问题。
而对我自己来说,这件事也再次提醒我:
AI 时代最重要的能力之一,不是更快把东西做出来,而是更清楚地知道哪些输入值得信,哪些边界不能丢。