GEO 和 AI 投毒最可怕的,不是广告,而是你开始把它当答案

14 阅读8分钟

最近围绕 GEO、AI 投毒、AI 回答暗藏广告的讨论很多。
但我觉得,这件事最值得警惕的,不只是 AI 里也开始出现广告,而是越来越多人已经把 AI 当成了“答案入口”。
一旦输入源被污染,受影响的就不只是营销结果,而是用户的信任链、判断链和真实决策链。
这也让我想到自己在真实项目里和 AI 协作开发时一直在强调的那件事:真正值钱的,不是更会用 AI,而是更会控制输入、边界和可信链。

最近几天,围绕 GEO、AI 投毒、AI 回答暗藏广告的讨论一下子多了起来。
尤其在 3·15 这个节点下,很多人会把这件事先理解成一句简单的话:

AI 也开始打广告了。

但我觉得,这还不是这件事最值得警惕的地方。

我真正担心的是:

当越来越多人把 AI 当成答案入口时,污染 AI 的输入源,就不再只是营销问题,而是在破坏用户的信任链、判断链和真实决策链。

如果把这件事压成 3 句话,我的判断是:

  • 这件事的核心,不只是 AI 里出现了广告
  • 更深的问题,是答案本身可能正在被污染
  • 这和我在真实项目里使用 AI 时反复强调的边界问题,本质上是同一类风险

这也是为什么,这件事虽然表面上看是在说广告、品牌和营销,但我第一反应想到的,却是我自己这段时间在真实项目里和 AI 协作开发时一直反复提醒自己的那件事:

边界。

不是所有能喂给 AI 的内容都值得信,不是所有看起来合理的回答都应该直接拿来用,也不是所有“被推荐出来的答案”都天然值得依赖。

1. 这次讨论真正说的,不只是“广告更隐蔽了”

最近几篇主流媒体报道,其实已经把事情讲得比较清楚了。

一边是媒体开始关注:

  • 有服务商在卖所谓的 AI 回答优化、GEO 服务
  • 品牌想办法提高自己在 DeepSeek、豆包、元宝这类 AI 产品回答中的露出
  • 一些做法已经不是正常的信息优化,而是走向了数据投毒、伪装测评、软广植入、批量低质内容投喂

另一边是法律和监管层面也开始在追问:

  • 如果 AI 的回答中混入商业推广,但用户并不知道,这算不算广告
  • 如果这些内容会影响医疗、教育、金融、消费决策,平台和服务商应该承担什么责任
  • 如果大量低质、偏向性信息进入模型可见的数据池,最后伤害的到底是谁

所以这件事如果只是理解成“AI 里也能打广告了”,其实还太浅。

广告这件事,过去大家已经很熟悉了。

真正变化的是:

以前在搜索时代,用户至少知道自己看到的是一组候选链接。
你点进去之前,心里多少知道那是网页,是来源,是别人写的内容。

但在答案时代,越来越多用户面对的,是一个已经被整理过、被归纳过、被包装成“像结论一样”的输出。

这意味着:

一旦这个输出背后的输入源被污染,用户甚至不知道自己应该怀疑哪里。

所以,这不是广告位变了的问题。
这是答案本身开始被商业关系和数据操纵影响的问题。

2. 从 SEO 到 GEO,变化不只是技术词变了

很多人会把 GEO 理解成 SEO 的新版本,这个说法不完全错。

但它更深的变化在于:

  • SEO 时代,大家争的是“你搜到什么、点哪个链接”
  • GEO 时代,大家争的是“AI 最后怎么回答你”

也就是说,以前被影响的是排序,现在被影响的是结论。

这个差别非常大。

排序被影响,你还有机会多点几个链接、多看几个页面、自己比较一下。
但如果答案本身已经被偏向性信息包围,而且 AI 又在用非常自然、非常像“中立解释”的方式表达出来,那普通用户其实很难第一时间意识到:

这里面可能已经混入了不该混入的东西。

这就是为什么我觉得,这件事本质上更像一种“认知层面的投毒”。

因为它影响的不只是你看到了什么,而是你会怎么理解、怎么判断、怎么决定下一步。

3. 这件事为什么让我想到自己的工作

很多人看到这个新闻,会想到广告、品牌、公关、黑产。

但我自己的第一反应,其实是:

这和我在真实项目里和 AI 协作开发时遇到的问题,本质上是同一类问题。

我这段时间一直在写一件事:

  • 不要无边界地相信 AI
  • 要先写边界判断
  • 要先判断哪些能交给 AI,哪些不能
  • 要保留 handoff
  • 要管理上下文和输入源

因为在真实项目里,AI 最大的风险,很多时候并不是它“不够聪明”,而是:

  • 它的输入不一定干净
  • 它接到的上下文不一定完整
  • 它引用的东西不一定可靠
  • 它给出的回答虽然顺,但不一定稳

如果把这个逻辑放回这次 GEO / AI 投毒事件,其实是一模一样的。

消费场景里,用户把 AI 当成答案入口。
工程场景里,开发者也越来越容易把 AI 当成方案入口、判断入口、实现入口。

如果这个入口的输入源本身就被污染了,那后面所有“看起来合理”的输出,风险都会被放大。

这也是为什么,我一直觉得:

AI 时代真正值钱的,不只是更会用 AI,而是更会控制 AI 的输入、边界和可信链。

4. 真正要警惕的,不是“AI 会不会被污染”,而是大家开始默认它值得信

这次讨论里,我觉得最值得警惕的一点,不是黑产本身,而是用户使用习惯正在发生变化。

越来越多人已经开始把 AI 当成:

  • 搜索入口
  • 决策入口
  • 方案入口
  • 咨询入口

而且这个趋势大概率只会越来越强。

这时候,风险不再只是“有人做了不合规营销”,而是:

  • 平台有没有足够的引用透明度
  • 用户有没有基本的来源意识
  • 在高风险领域,AI 有没有明确的边界提示
  • 团队和个人有没有建立最基本的核验机制

如果这些东西没有跟上,问题就会从“营销太野”慢慢变成:

社会开始把一个并不完全透明、并不总是中立、并不天然可信的东西,当成越来越像权威答案的入口。

这比单纯的广告更值得警惕。

5. 所以我怎么看这件事

如果要我用一句话总结我的态度,我会这么说:

GEO 的出现本身不奇怪,真正危险的是它一旦滑向数据投毒、软广伪装和权威造假,就会把 AI 从“信息工具”推向“被污染的答案系统”。

而一旦事情走到这一步,受影响的就不只是消费者。

受影响的还包括:

  • 用 AI 做选择的人
  • 用 AI 做决策的人
  • 用 AI 做内容的人
  • 用 AI 做开发的人
  • 甚至所有把 AI 当成可靠输入源的人

因为底层问题其实是同一个:

你所依赖的输入链,是否还值得信。

6. 对普通用户、平台和工程使用者,各自意味着什么

对普通用户

不要把 AI 的回答直接当成最终答案,尤其是:

  • 消费推荐
  • 医疗建议
  • 金融判断
  • 教育选择

至少要看:

  • 它有没有给出处
  • 它引用了谁
  • 这件事是不是值得二次核实

对 AI 平台

如果平台还想保住用户对答案的基本信任,就不能只卷模型效果,还要补三件事:

  • 引用透明度
  • 商业内容识别与标注
  • 高风险领域的治理和防滥用能力

对工程团队和 AI 使用者

这件事最直接的提醒就是:

不要把 AI 输出直接视为可信事实。
尤其是联网、检索、综合归纳类输出,更不能跳过来源核验。

在真实工作里,越关键的任务,越应该保留:

  • 人工核验
  • 边界判断
  • handoff
  • 输入源审查

这不是保守,而是对结果负责。

7. 最后

我觉得这次围绕 GEO 和 AI 投毒的讨论,真正值得留下来的,不是一句“AI 也开始打广告了”。

更值得留下来的问题是:

当越来越多人把 AI 当成答案入口时,我们到底有没有认真对待“答案从哪里来、能不能信、出了问题谁负责”这件事。

因为 AI 越深入工作和生活,这个问题就越不只是营销行业的问题。

它会慢慢变成每一个普通用户、每一个平台、每一个团队、每一个依赖 AI 做判断的人,都绕不过去的问题。

而对我自己来说,这件事也再次提醒我:

AI 时代最重要的能力之一,不是更快把东西做出来,而是更清楚地知道哪些输入值得信,哪些边界不能丢。