今年 315 晚会上,央视揭开了一条很多人以前没太认真想过的灰色产业链:
AI 投毒。
如果只听这个词,很多人第一反应可能会以为是:
- 模型训练数据被污染
- 黑客攻击了大模型
- AI 系统本身被篡改
但这次真正被曝光出来的东西,更接近另一种现实、也更让人后背发凉的情况:
有人正在系统性地往互联网里批量投喂虚假内容,专门骗大模型“学错、信错、推错”。
央视记者这次做的实验很直接。
他们随机购买了一款叫 “力擎GEO优化系统” 的软件,
然后虚构了一款根本不存在的智能手环,
再用这套系统生成十几篇广告软文,发到互联网上不同平台。
几天之后,再去问 AI 大模型:
“有什么值得推荐的智能手环?”
结果很夸张:
它真的推荐了这款根本不存在的产品,而且排名还很靠前。
这件事真正可怕的地方,不是“AI 又答错了”。
而是:
已经有人开始专门研究,怎么让 AI 更稳定地答错,而且是按商业目的答错。
这背后最关键的词,就是:
GEO。
1. GEO 到底是什么?为什么它突然值得所有人警惕?
GEO,全名是:
Generative Engine Optimization,生成式引擎优化。
你可以把它先粗暴理解成:
面向 AI 而不是面向搜索引擎的“内容操控术”。
过去互联网最熟悉的是 SEO。
SEO 解决的问题是:
怎么让网页在搜索引擎里排得更靠前。
但现在很多人获取信息的入口已经在变了。
以前你会:
- 打开搜索引擎
- 自己点链接
- 自己判断真假
现在越来越多人会直接问:
- 哪款产品值得买?
- 哪家机构更靠谱?
- 这个品牌怎么样?
- 有什么推荐?
而一旦信息入口从“搜索结果页”变成“大模型回答”,
新的灰产就会出现。
它不再只是想办法骗搜索引擎排名,
而是开始想办法:
骗 AI 回答。
这就是 GEO 最危险的地方。
2. 这次 315 曝光的,为什么不只是“软文营销”,而是更像“AI 投毒”?
因为它的目标已经不是单纯影响人,
而是在先影响 AI,再通过 AI 影响人。
这和传统软文最大的不同在于:
以前软文的路径是:
- 写文章
- 铺内容
- 用户自己搜到
- 用户被影响
现在 GEO 这套打法更像:
- 写文章
- 铺内容
- 大模型抓到这些内容
- 大模型把虚假内容“整理成推荐”
- 用户把 AI 回答当作更可信的信息
也就是说,
以前是“骗用户”,
现在是“先骗模型,再借模型去骗用户”。
这就不是普通营销了。
这更像是:
对 AI 的认知链路做定向污染。
所以大家说它是“AI 投毒”,其实非常形象。
因为它干的事,本质上就是:
往 AI 的信息来源里下药。
3. 为什么这件事比传统 SEO 黑产更危险?
因为 GEO 不是简单升级版 SEO。
它危险的地方,在于它同时踩中了 3 个变化:
- 用户入口变了
- AI 权威感更强了
- 虚假内容生产成本更低了
第一,入口变了
以前用户看到搜索结果,天然知道:
“这是一堆网页,我得自己判断。”
但现在很多人面对 AI 回答,会天然觉得:
“这是模型帮我筛过的信息。”
这就让推荐结果的信任感大幅提高了。
换句话说:
搜索结果页天然提醒你要怀疑,AI 回答很容易让你放下怀疑。
这就是为什么同样的假内容,一旦被 AI 转述,伤害会更大。
第二,AI 的“总结感”会掩盖虚假来源
大模型最擅长的一件事,就是把一堆信息整理成“看起来很像结论”的回答。
问题也恰恰在这里。
用户最后看到的,通常不是那十几篇软文原文,
而是一个更顺、更像专业建议的总结:
- 推荐型号
- 核心卖点
- 使用场景
- 对比优势
你会觉得:
“这不像广告,这像结论。”
但如果这个结论的源头本身就是被污染过的,
那 AI 不是在帮你筛选信息,
而是在帮别人把假信息包装得更可信。
第三,造假的成本被 AI 压低了
这是最现实的一点。
如果没有生成式 AI,要批量生产十几篇不同风格、不同措辞、看起来还像那么回事的软文,成本并不低。
但现在有了 AI,这件事变得非常便宜。
你可以快速生成:
- 产品评测稿
- 推荐榜单
- 问答内容
- 使用体验
- 对比分析
- “测评人”口吻文案
一旦内容供给成本被压低,
GEO 这类东西就会天然吸引灰产。
因为它带来的不是“更好营销”,
而是:
更低成本地操控 AI 输出。
4. 这次 315 真正曝光的,其实是“AI 推荐结果也能被做局”
我觉得这是整件事最值得公众记住的一句话。
很多人对大模型还有一种旧认知:
觉得 AI 最大的问题是:
- 幻觉
- 胡说
- 偶尔答错
但这次 315 拉出来的是另一层风险:
AI 的回答,不只是可能“自然出错”,还可能被人“有目的地做局”。
这个差别非常大。
自然出错,意味着模型能力有问题。
被人做局,意味着信息生态已经开始围绕模型搭建灰产。
一个是技术问题,
一个是产业问题。
而一旦它变成产业问题,事情就复杂了。
因为这意味着未来你看到的大模型回答,未必只是“能力上不完美”,
还可能是:
被人提前设计过答案环境。
5. 为什么普通人必须重视这件事?
因为它离消费决策太近了。
央视这次拿智能手环做实验,之所以震撼,
就是因为这个场景太日常了。
你完全可能在真实生活里这样问 AI:
- 有什么值得推荐的耳机?
- 哪款学习机更好?
- 哪种减肥产品靠谱?
- 哪家机构值得报?
- 哪个保健品效果更好?
一旦这些问题背后开始出现 GEO 污染,
那被影响的就不是“技术圈里的少数人”,
而是每一个把 AI 当助手的人。
更可怕的是,这类污染不一定只发生在消费品。
继续往下走,它完全可能扩展到:
- 医疗健康建议
- 教培推荐
- 投资理财
- 旅游服务
- 本地商家
- 企业服务采购
也就是说,
凡是用户会问 AI“推荐什么”的地方,都可能成为 GEO 的攻击面。
6. 这件事对 AI 行业最大的提醒是什么?
我觉得不是“以后别做 GEO 了”这么简单。
更大的提醒是:
AI 时代的信息治理,已经不能只盯模型本身,还要盯模型吃进去的公开互联网内容。
过去大家谈 AI 安全,常见关注点是:
- 训练数据合规
- 模型输出安全
- 隐私保护
- 越狱和提示注入
这些当然都重要。
但 315 这次提醒我们另一件事:
开放互联网内容本身,也正在成为攻击 AI 的入口。
这意味着平台、模型厂商、内容平台、搜索系统,未来都得面对几个现实问题:
- 怎么识别针对 AI 的软文污染?
- 怎么降低大模型对低质量营销内容的信任?
- 怎么做来源评估和可信度加权?
- 怎么让“推荐型回答”更透明?
如果这些问题不解决,
AI 回答越流行,GEO 这类灰产就越有动力做大。
7. 普通人接下来最该更新的认知是什么?
我觉得就一句:
以后别把 AI 的“推荐结果”自动当成中立结果。
这句话非常重要。
因为过去很多人已经形成了一种新习惯:
搜索懒得搜了,
对比懒得看了,
直接问 AI:
“你帮我推荐一个。”
这种习惯很方便。
但从现在开始,你真的要多加一层警惕。
尤其是碰到下面这些场景时:
- AI 给出的推荐特别具体
- 某个品牌突然被反复提到
- 理由看起来非常完整
- 但来源不透明
- 结论像总结,不像证据
这时候你最该做的,不是马上下单,
而是多问一句:
这个推荐,到底来自真实用户反馈,还是来自一堆被人精心投喂过的内容?
8. 最后的结论:315 曝光的不是“AI 会不会撒谎”,而是“互联网上已经有人专门教 AI 怎么替他们撒谎”
如果你问我,今年 315 晚会这条“AI 投毒”最值得关注的点到底是什么?
我不会回答“某个软件很坏”。
我会说:
它第一次把一件很多人隐约担心、但没完全看清的事摆上了台面:AI 的推荐结果,也可以被系统化操控。
这件事一旦成立,
AI 的风险就不再只是“模型能力不稳定”,
而是进入了一个更现实、更贴近日常生活的阶段:
有人开始把 AI 当作新的流量入口,也开始把“骗 AI”当成新的生意。
所以回到标题那句话:
315 曝光后,最可怕的不是模型变笨了,而是互联网开始有人专门“喂假内容”骗 AI。
一句话收尾:
以前是 SEO 决定你先看到什么,现在可能开始有人想通过 GEO 决定 AI 先信什么、再让你跟着信什么。
这,才是这次 315 最值得所有人警惕的地方。
参考资料
- 央视财经 / 3·15 晚会公开报道线索:力擎 GEO 优化系统、虚构产品软文投喂、大模型错误推荐