大模型有没有价值观?有,而且你对此毫不知情

13 阅读6分钟

当你在用ChatGPT、Claude或者文心一言的时候,你有没有想过:它给你的答案,是"客观事实",还是某种被精心设计过的立场?

这个问题,比大多数人以为的要严肃得多。


"中立"是最大的谎言

大模型公司最喜欢强调自己的产品"客观、中立、无偏见"。这句话本身就是一个立场。

任何一个大模型,从它诞生的第一天起,就已经被无数双手塑造过了。训练数据是谁写的?对齐微调是谁标注的?搜索工具背后是哪家平台的排名算法?系统提示是谁写的?每一个环节,都在悄悄往模型里注入某种倾向。

用户感觉模型"客观中立"的时候,往往是被影响最深的时候。因为你降低了防御。


价值观是怎么被注入的

具体来说,至少有六个层次在同时塑造一个大模型的"世界观":

第一层:训练数据的采样偏差。 不只是语言风格问题,更是世界观的问题。收录了更多英语还是中文、更多精英写作还是草根表达、更多2020年前还是之后的内容——每一个采样决策,都在定义模型认为"正常的世界"是什么样的。用贴吧数据训练出来的模型,和用学术书籍训练出来的模型,给你的不只是不同的语气,而是不同的价值前提。

第二层:人工对齐(RLHF)的文化烙印。 模型训练过程中需要人工标注"什么是好答案"。标注员有文化背景、政治倾向、审美偏好。更微妙的是,这个过程会系统性地放大某种特定风格——听起来温和、平衡、不冒犯。而"温和平衡不冒犯"本身,就是一种价值取向,不是中立。

第三层:搜索工具的隐性过滤。 当模型调用搜索引擎时,搜索结果的排名策略已经是一次过滤。更关键的是,模型在面对一堆搜索结果时,会做实时的"编辑决策"——引用哪条、忽略哪条、给多少权重。这个决策过程对用户完全不透明。

第四层:部署方的系统提示。 同一个底层模型,可以被企业客户调教成"永远支持公司立场",或者"永远鼓励消费"。你以为你在和一个通用AI对话,实际上可能在和一个被定向设定过的"代言人"对话。

第五层:推理参数的保守偏置。 Temperature、top-p这些技术参数控制的是模型在不确定时的行为:是给出主流答案,还是冒险给出边缘观点?大多数商业部署选择保守参数——这意味着模型在争议问题上系统性地倾向于"多数人认同的答案"。

第六层:用户反馈的商业漂移。 如果点赞/点踩数据被用于持续训练,模型会逐渐漂移向"让人感觉好"而不是"真正正确"。这是商业逻辑对价值观的慢性侵蚀,也是最难察觉的一种。


各家公司的真实立场

把这个框架拿来看全球几家头部大模型公司,会得到一些有意思的结论。

Anthropic(Claude的母公司)是目前在AI安全上投入最重、话语体系最完整的一家。它的核心主张是:宁可牺牲商业竞争力,也要把安全放在能力之前。这是真实的——Anthropic的创始团队当年正是因为认为OpenAI"商业化太快、安全投入不足"而出走创业。但它的产品在政治争议话题上刻意保持中立、拒绝表态,这本身也是一种价值选择:回避,也是立场。

OpenAI的叙事弧线是这十年最耐人寻味的故事之一。从"造福全人类"的非营利使命,到现在的商业化加速,核心价值观悄悄完成了一次切换:能力优先,安全跟进。它的内容审查比Anthropic宽松,隐含的判断是:信息自由的价值高于风险防控的代价。

Meta的立场最特殊,也最值得警惕。开源LLaMA系列,打的旗号是"防止少数公司垄断AI"。这是真实的自由主义技术价值观。但Meta同时是全球最大的注意力经济公司,它的商业模式建立在用户行为数据的极致开采上。一家以用户增长为最高优先级的公司,宣称自己开源是为了民主化AI——这两个价值观如何共存,值得长期追问。

国内的百度、阿里、字节,不可回避地运营在特定的监管框架内。这不是价值判断,而是结构性事实:在中国运营的大模型,其内容边界有相当一部分是监管环境的函数,而非纯粹的内部价值判断。值得一提的是DeepSeek——以极低成本做出接近顶级的能力,同时开放权重,在商业逻辑上非常反常规。幻方量化的背景意味着它不依赖大模型直接盈利,所以可以做出不同的价值选择。这个异类值得持续观察。


真正的问题是透明度

梳理下来,各家公司都有价值观,只是诚实程度不同。

有些公司把价值观写成了公开文件和研究论文(Anthropic的Constitutional AI就是一例);有些公司把价值观藏在产品设计里,从不明说;有些公司的价值观则由外部环境代为决定。

这里有一个关键的不对称:用户承受着这些价值观的全部后果,却对其形成过程几乎一无所知。

你问模型一个投资问题,你不知道训练数据里金融内容的来源分布。你问它一个政治问题,你不知道标注员的文化背景。你以为你得到的是信息,实际上你得到的是经过多层过滤之后的观点——只是这个观点被包装成了"事实"的语气。


结语:用AI,但不要被AI用

这不是一篇劝你不要用大模型的文章。大模型是目前人类创造的最强大的信息处理工具之一,它的价值毋庸置疑。

但工具越强大,使用它的人就越需要保持清醒。

下次当你觉得模型的回答"非常客观、非常全面"的时候,不妨多问一句:这个答案,是谁想让我看到的?

这个问题没有标准答案。但习惯性地不问,才是真正的风险所在。