今年 315 晚会,记者虚构了一款叫「Apollo-9」的智能健康手环,把它的信息输入一套优化系统,自动生成软文、批量发布到各平台。
几天后,多款国内主流 AI 产品在被问及「推荐健康手环」时,把这款根本不存在的产品列进了推荐名单。
被测试的多款主流产品,几乎无一幸免。
这不是某个 AI 产品的个别漏洞。能让多款主流产品同时中招,说明背后有一套系统性的操作逻辑。
这套逻辑有明确学术定义的概念,还被顶尖高校系统研究过,它叫 GEO。
理解它的全貌,你才能看清 AI 时代信息流动的真实规则。每一个用 AI 做决策的人,都在被这套规则影响;写内容的人,尤其如此。
GEO:一个被灰产盯上的中性工具
以前找信息,你会打开搜索引擎,输入关键词,出来一个列表,自己挑一条点进去看。
内容创作者要做的,是想办法让自己的内容出现在这个列表靠前的位置。优化标题、调整结构、让页面更容易被搜索引擎识别,这套做法叫 SEO。没有人觉得这是作弊,这只是让真实内容更容易被找到。
现在越来越多人换了一种方式:直接问 AI,让 AI 给一个答案。写内容的人面对的问题也跟着变了——不再是「怎么让搜索引擎找到我」,而是「怎么让 AI 在回答里提到我」。
这就是 GEO 要解决的事。
GEO 全称 Generative Engine Optimization,翻译过来是「生成式引擎优化」。早在2023年,普林斯顿大学等机构的研究团队就联合发表了一篇论文,正式提出并定义了这个概念,次年发表于数据挖掘领域的顶级学术会议。
GEO 本身是中性的,它只是让 AI 在回答时引用你的内容这件事的方法论。
灰产和认真做内容的人,做的是同一件事,区别在于手段:一个靠批量造假,一个靠内容质量。315 曝光的,是前者。
要理解灰产为什么能得逞,得先知道 AI 回答问题时,内部到底发生了什么。
AI 回答你之前,它先做了这件事
很多人以为 AI 靠的是它「记住」的知识,就像一个博学的人在脑子里检索答案。
实际上不是这样的。
用户提问之后,AI 会先去互联网检索一批相关内容,把这批内容当作参考资料,再综合生成回答。你看到的那个流畅答案,是 AI 读完一堆页面之后写出来的总结,不是凭空想出来的。
这里有一个关键点必须记住:AI 的工作是把多份资料整合成一个回答,但并不会去核实这些资料是否真实。
给它真实的资料,输出真实的回答;给它虚假的资料,同样输出一段自信、流畅、毫无破绽的虚假推荐。
所以,问题不在 AI 读内容那一步——它只是忠实地做了整合。问题在更前面:在 AI 开始读之前,谁决定了哪些内容会被它拿来参考。
灰产攻击的,不是 AI 读内容那一步
答案在于 AI 检索内容时的判断方式。
AI 的检索系统在决定拿哪些内容来参考时,会综合多种信号:内容质量、来源可信度、时效性等等。
其中有一条特别关键:多个独立来源都在说同一件事,这件事大概率是真的。
这条逻辑完全合理。十个不相关的平台都提到某款产品的某个特性,大概率经得起核实。
想象一下餐厅评分被刷单的场景:平台看到「很多账号都给这家店好评」,把它推到前列;顾客看到高分走进去,却发现根本没那么多真实顾客来过。
很多人评价过这个信号是真实发生的,但它是人为伪造的。
灰产对 AI 做的,逻辑完全一样。
批量注册账号、批量生产内容、同步分发到各平台——制造出多个独立来源都在说这款产品很好的假象。不仅量要够大,内容本身也精心伪装过:格式规范、有用户体验、有参数数据,和真实评测一模一样。
检索系统看到这些信号——来源多、内容详实,把它们纳入了 AI 的参考资料。
AI 拿到手,没有理由怀疑,于是给出了推荐。
假内容在 AI 开始读之前,就已经混进了它的参考资料里。AI 读到的,从一开始就是精心安排好的东西。
为什么这次的假内容,比以前更难识破
以前搜索引擎里也有虚假内容,但你点进去,看到的是原始页面。
排版粗糙,广告密布,标题夸张。你有机会自己判断:这东西靠谱吗?判断权在你手里。
AI 给你的是完全不同的东西。
它给你的是一段综合了多个来源之后生成的结论,语言干净,逻辑流畅,没有任何视觉上的可疑信号。回答里通常会附上引用标签和链接,看起来有据可查,但那些来源是否真实存在、内容是否被断章取义,你很难快速核实。
引用标签就在那里,但拿到答案之后,大多数人不会再专门点进去核对原文。
另外其实,很多场景根本没有引用标注。315晚会记者测试的那个场景里,用户收到的就是一份干净的推荐名单,看不出任何迹象表明背后有人刻意布置过。
还有一个更深的不对称。
造假一套内容的成本极低,批量生成、批量分发,整套流程可以全自动。
而要核实一条推荐是否可信,需要逐条找来源、逐条比对。这不是技术漏洞,是攻防规则本身决定的。
判断权被 AI 替你行使了,而且是在你完全意识不到的地方。
这是 AI 时代虚假内容和以往最本质的区别——不是以前的假内容危害更小,而是你保护自己的机会,少了一层。
写内容的人,正在被同一套逻辑消耗
前面说的都是「用 AI 的人」会踩的坑。但同一套机制,也在悄悄改变另一群人的处境——写内容的人。
这件事跟每个用户都有关:如果认真做内容的人失去动力,高质量的原始内容会越来越少,AI 能检索到的参考资料质量也会跟着下降——最终变差的,是你从 AI 那里得到的每一个回答。
普林斯顿那篇论文把这件事点得很清楚:AI 引擎的出现,对不同角色的影响完全不同。用户受益了,获取信息更快。AI 公司受益了,用户更满意。写内容的人却在悄悄失血。
以前用搜索引擎,用户需要点进你的网站才能看到内容,你有流量、有曝光。
现在用户直接问 AI,AI 把你文章里的精华提炼出来直接给了用户,用户满意了,关掉对话。你的内容被消费了,但你的网站,他可能一次都没有访问过。
更麻烦的是,AI 引用你内容的方式,往往只取碎片。
你写了一篇三千字的深度分析,AI 可能只抽了其中一句话放进回答里。你花几个小时打磨的核心观点、品牌信息、文章脉络——全部消失在 AI 的综合回答里。
反过来说,用户以为 AI 给了完整的信息,但实际拿到的,只是多篇文章各取一句拼出来的结论。
这就是为什么 GEO 作为一个研究方向很有意义,不只是防灰产,更是在研究写内容的人如何在 AI 时代重新找回被看见的机会。
让 AI 更常引用你的内容,规则完全变了
普林斯顿的研究团队用一万个真实用户问题做了系统实验,测试了九种优化策略,看哪些真的能让内容更多地出现在 AI 的回答里。
结论里有几个出乎意料的发现。
在文章里高频重复关键词——这个搜索引擎时代最常用的做法,在 AI 面前完全失效,有时候比完全不优化还差。
AI 读的是语义,不是关键词出现的次数。关键词堆得越多,文章读起来越奇怪,AI 反而更不愿意引用。
传统搜索的核心打法,在 AI 面前直接报废了。
真正有效的,是在内容里加入真实数据和引用可信来源。
有具体数字、有出处的内容,AI 综合资料时更愿意拿来支撑结论。
就像你写报告,会优先引用有数据、有出处的文章,而不是观点飘在空中的那种。
把文章写得流畅清晰,也有效果。
AI 更容易从结构清晰的文章里提取完整论点;语句混乱的,AI 抽出来的可能只是断章取义的半句话。
AI 在意的是内容的实质质量,不是表面上的关键词信号。
写得准确、有数据、读起来清晰——这些本来就是好内容的标准,现在也恰好是 GEO 最有效的策略。
还有一点值得我们关注的是,论文实验发现,原本在传统搜索里排名靠后的网站,经过内容质量优化后,在 AI 引擎里的提升幅度反而更大。
AI 不在乎你是大平台还是新账号,只看这篇内容本身够不够好。认真做内容的人,和大平台站在同一起跑线上。
GEO 这个词,315 之前大多数人没有听说过,但它描述的事情一直在发生。
AI 正在替我们做越来越多的判断,而它判断所依赖的内容,是人喂给它的。
这个现实里,既有灰产的可乘之机,也有认真做内容的人真正的优势。
下次 AI 给你推荐什么,心里多问一句,它是怎么知道这件事的。
同样值得想的是,你写的每一篇内容,够不够好到让 AI 愿意引用。
延伸阅读
- GEO: Generative Engine Optimization(GEO:生成式引擎优化) arxiv.org/abs/2311.09…
感谢您的阅读。
这里会持续记录我对技术、工程实践与新趋势的思考,可关注微信公众号 前端Fusion 获取后续更新。
如果您喜欢这篇文章,欢迎点赞或分享。