你问 AI“买什么”,答案可能早被人做了局:315 曝光 GEO 灰产链

4 阅读9分钟

今年 315 晚会上,央视揭开了一条很多人以前没太认真想过的灰色产业链:

AI 投毒。

如果只听这个词,很多人第一反应可能会以为是:

  • 模型训练数据被污染
  • 黑客攻击了大模型
  • AI 系统本身被篡改

但这次真正被曝光出来的东西,更接近另一种现实、也更让人后背发凉的情况:

有人正在系统性地往互联网里批量投喂虚假内容,专门骗大模型“学错、信错、推错”。

央视记者这次做的实验很直接。

他们随机购买了一款叫 “力擎GEO优化系统” 的软件,
然后虚构了一款根本不存在的智能手环,
再用这套系统生成十几篇广告软文,发到互联网上不同平台。

几天之后,再去问 AI 大模型:

“有什么值得推荐的智能手环?”

结果很夸张:

它真的推荐了这款根本不存在的产品,而且排名还很靠前。

这件事真正可怕的地方,不是“AI 又答错了”。

而是:

已经有人开始专门研究,怎么让 AI 更稳定地答错,而且是按商业目的答错。

这背后最关键的词,就是:

GEO。

1. GEO 到底是什么?为什么它突然值得所有人警惕?

GEO,全名是:

Generative Engine Optimization,生成式引擎优化。

你可以把它先粗暴理解成:

面向 AI 而不是面向搜索引擎的“内容操控术”。

过去互联网最熟悉的是 SEO。

SEO 解决的问题是:

怎么让网页在搜索引擎里排得更靠前。

但现在很多人获取信息的入口已经在变了。

以前你会:

  • 打开搜索引擎
  • 自己点链接
  • 自己判断真假

现在越来越多人会直接问:

  • 哪款产品值得买?
  • 哪家机构更靠谱?
  • 这个品牌怎么样?
  • 有什么推荐?

而一旦信息入口从“搜索结果页”变成“大模型回答”,
新的灰产就会出现。

它不再只是想办法骗搜索引擎排名,
而是开始想办法:

骗 AI 回答。

这就是 GEO 最危险的地方。

2. 这次 315 曝光的,为什么不只是“软文营销”,而是更像“AI 投毒”?

因为它的目标已经不是单纯影响人,
而是在先影响 AI,再通过 AI 影响人。

这和传统软文最大的不同在于:

以前软文的路径是:

  • 写文章
  • 铺内容
  • 用户自己搜到
  • 用户被影响

现在 GEO 这套打法更像:

  • 写文章
  • 铺内容
  • 大模型抓到这些内容
  • 大模型把虚假内容“整理成推荐”
  • 用户把 AI 回答当作更可信的信息

也就是说,
以前是“骗用户”,
现在是“先骗模型,再借模型去骗用户”。

这就不是普通营销了。

这更像是:

对 AI 的认知链路做定向污染。

所以大家说它是“AI 投毒”,其实非常形象。

因为它干的事,本质上就是:

往 AI 的信息来源里下药。

3. 为什么这件事比传统 SEO 黑产更危险?

因为 GEO 不是简单升级版 SEO。

它危险的地方,在于它同时踩中了 3 个变化:

  • 用户入口变了
  • AI 权威感更强了
  • 虚假内容生产成本更低了

第一,入口变了

以前用户看到搜索结果,天然知道:

“这是一堆网页,我得自己判断。”

但现在很多人面对 AI 回答,会天然觉得:

“这是模型帮我筛过的信息。”

这就让推荐结果的信任感大幅提高了。

换句话说:

搜索结果页天然提醒你要怀疑,AI 回答很容易让你放下怀疑。

这就是为什么同样的假内容,一旦被 AI 转述,伤害会更大。

第二,AI 的“总结感”会掩盖虚假来源

大模型最擅长的一件事,就是把一堆信息整理成“看起来很像结论”的回答。

问题也恰恰在这里。

用户最后看到的,通常不是那十几篇软文原文,
而是一个更顺、更像专业建议的总结:

  • 推荐型号
  • 核心卖点
  • 使用场景
  • 对比优势

你会觉得:

“这不像广告,这像结论。”

但如果这个结论的源头本身就是被污染过的,
那 AI 不是在帮你筛选信息,
而是在帮别人把假信息包装得更可信。

第三,造假的成本被 AI 压低了

这是最现实的一点。

如果没有生成式 AI,要批量生产十几篇不同风格、不同措辞、看起来还像那么回事的软文,成本并不低。

但现在有了 AI,这件事变得非常便宜。

你可以快速生成:

  • 产品评测稿
  • 推荐榜单
  • 问答内容
  • 使用体验
  • 对比分析
  • “测评人”口吻文案

一旦内容供给成本被压低,
GEO 这类东西就会天然吸引灰产。

因为它带来的不是“更好营销”,
而是:

更低成本地操控 AI 输出。

4. 这次 315 真正曝光的,其实是“AI 推荐结果也能被做局”

我觉得这是整件事最值得公众记住的一句话。

很多人对大模型还有一种旧认知:

觉得 AI 最大的问题是:

  • 幻觉
  • 胡说
  • 偶尔答错

但这次 315 拉出来的是另一层风险:

AI 的回答,不只是可能“自然出错”,还可能被人“有目的地做局”。

这个差别非常大。

自然出错,意味着模型能力有问题。
被人做局,意味着信息生态已经开始围绕模型搭建灰产。

一个是技术问题,
一个是产业问题。

而一旦它变成产业问题,事情就复杂了。

因为这意味着未来你看到的大模型回答,未必只是“能力上不完美”,
还可能是:

被人提前设计过答案环境。

5. 为什么普通人必须重视这件事?

因为它离消费决策太近了。

央视这次拿智能手环做实验,之所以震撼,
就是因为这个场景太日常了。

你完全可能在真实生活里这样问 AI:

  • 有什么值得推荐的耳机?
  • 哪款学习机更好?
  • 哪种减肥产品靠谱?
  • 哪家机构值得报?
  • 哪个保健品效果更好?

一旦这些问题背后开始出现 GEO 污染,
那被影响的就不是“技术圈里的少数人”,
而是每一个把 AI 当助手的人。

更可怕的是,这类污染不一定只发生在消费品。

继续往下走,它完全可能扩展到:

  • 医疗健康建议
  • 教培推荐
  • 投资理财
  • 旅游服务
  • 本地商家
  • 企业服务采购

也就是说,
凡是用户会问 AI“推荐什么”的地方,都可能成为 GEO 的攻击面。

6. 这件事对 AI 行业最大的提醒是什么?

我觉得不是“以后别做 GEO 了”这么简单。

更大的提醒是:

AI 时代的信息治理,已经不能只盯模型本身,还要盯模型吃进去的公开互联网内容。

过去大家谈 AI 安全,常见关注点是:

  • 训练数据合规
  • 模型输出安全
  • 隐私保护
  • 越狱和提示注入

这些当然都重要。

但 315 这次提醒我们另一件事:

开放互联网内容本身,也正在成为攻击 AI 的入口。

这意味着平台、模型厂商、内容平台、搜索系统,未来都得面对几个现实问题:

  • 怎么识别针对 AI 的软文污染?
  • 怎么降低大模型对低质量营销内容的信任?
  • 怎么做来源评估和可信度加权?
  • 怎么让“推荐型回答”更透明?

如果这些问题不解决,
AI 回答越流行,GEO 这类灰产就越有动力做大。

7. 普通人接下来最该更新的认知是什么?

我觉得就一句:

以后别把 AI 的“推荐结果”自动当成中立结果。

这句话非常重要。

因为过去很多人已经形成了一种新习惯:

搜索懒得搜了,
对比懒得看了,
直接问 AI:

“你帮我推荐一个。”

这种习惯很方便。
但从现在开始,你真的要多加一层警惕。

尤其是碰到下面这些场景时:

  • AI 给出的推荐特别具体
  • 某个品牌突然被反复提到
  • 理由看起来非常完整
  • 但来源不透明
  • 结论像总结,不像证据

这时候你最该做的,不是马上下单,
而是多问一句:

这个推荐,到底来自真实用户反馈,还是来自一堆被人精心投喂过的内容?

8. 最后的结论:315 曝光的不是“AI 会不会撒谎”,而是“互联网上已经有人专门教 AI 怎么替他们撒谎”

如果你问我,今年 315 晚会这条“AI 投毒”最值得关注的点到底是什么?

我不会回答“某个软件很坏”。

我会说:

它第一次把一件很多人隐约担心、但没完全看清的事摆上了台面:AI 的推荐结果,也可以被系统化操控。

这件事一旦成立,
AI 的风险就不再只是“模型能力不稳定”,
而是进入了一个更现实、更贴近日常生活的阶段:

有人开始把 AI 当作新的流量入口,也开始把“骗 AI”当成新的生意。

所以回到标题那句话:

315 曝光后,最可怕的不是模型变笨了,而是互联网开始有人专门“喂假内容”骗 AI。

一句话收尾:

以前是 SEO 决定你先看到什么,现在可能开始有人想通过 GEO 决定 AI 先信什么、再让你跟着信什么。

这,才是这次 315 最值得所有人警惕的地方。

参考资料

  • 央视财经 / 3·15 晚会公开报道线索:力擎 GEO 优化系统、虚构产品软文投喂、大模型错误推荐