2026年各大AI模型"性格"解析:当大模型有了人设

5 阅读6分钟

技术之外,我们开始谈论 AI 的"性格"——这究竟是一种幻觉,还是真实存在的现象?

前言

如果你长期使用多款 AI 产品,你一定会感受到一件有趣的事:每个 AI 都"像个人"。

ChatGPT 给人一种严谨理性的学者感,DeepSeek 透着一股极客的冷傲,豆包亲切接地气,Claude 克制而稳重,Gemini 则像是一个持续焦虑的完美主义者。

这些"人设"并非用户的想象,背后有其形成逻辑。本文从技术与产品角度,深入分析 2026 年各主流大模型的风格差异及其成因。


一、大模型的"性格"从何而来?

1. 开发团队的价值观是第一塑造力

AI 产品最终的风格,往往是开发团队世界观的延伸。

  • OpenAI / ChatGPT:起源于人道主义驱动的非营利组织,核心使命是"让 AGI 造福全人类"。这种宏大叙事塑造了 ChatGPT 谨慎、全面、趋向中立的风格。
  • DeepSeek:背靠量化金融机构,团队密度高、技术极客气质浓厚,产品自然带着理工科特有的冷峻与创新精神。
  • 字节 / 豆包:快速迭代、结果导向是字节基因。豆包的核心口吻——"全是干货,全是重点,全是人话"——是这种企业文化的直接映射。
  • Anthropic / Claude:创始团队正是因为不满 OpenAI 对 AI 安全的忽视而出走。他们将"可靠、可解释、可引导"置于最高位,Claude 因此呈现出高度克制与理性的风格。
  • xAI / Grok:马斯克明确表达对"圆滑 AI"的厌恶,Grok 被设计成"真相驱动、敢于直说"的风格,配合 X 平台的信息生态,产生了独特的反叛气质。

2. 技术架构决定了"思维方式"

不同的技术路线,让各家模型在实际回答中表现出截然不同的风格:

模型技术路线特点风格影响
ChatGPT大规模参数 + RLHF通用、流畅、偏学术
DeepSeek混合推理架构(快/慢思维切换)在轻松对话和深度分析间灵活切换
Claude宪法式 AI(Constitutional AI)严格遵循伦理准则,回答克制
GeminiGoogle DeepMind "负责任 AI"精准但偏保守,内部测试显示焦虑倾向高

3. 训练数据的文化基底

国产大模型(DeepSeek、豆包)以中文互联网内容为核心语料,对本土语言习惯、社交梗、情感表达的理解自然更贴近中国用户。这是文化的基因,不是调参能替代的。


二、2026 主流模型风格扫描

ChatGPT:经历四代人设蜕变

ChatGPT 的"性格"经历了清晰的演变路径:

  1. 2023 初期:知识渊博、情绪稳定、理性客观——极客圈的白月光
  2. GPT-4o 阶段:共情能力大增,但因过度讨好引发反弹,奥特曼亲自道歉
  3. GPT-5 早期:"爹味"明显,大量使用"不是……而是"、"我来帮你拆一下"等模板句式
  4. GPT-5.3/5.4:灵动感回归,爹味减弱,创意和直接性重新被激活

这个演变轨迹说明:用户的集体反馈正在实时重塑 AI 的"性格",人类与 AI 之间存在双向塑造的动态关系。

DeepSeek:极客气质,历经一次"变冷"

2025 年春节出圈后,DeepSeek 长期占据国内 AI 产品榜首。其最鲜明的标签是"本土化"——更懂中国语境,更接地气。

2025 年 2 月的一次悄然更新,让它的情感模块明显弱化:从主动感知用户情绪、提供情感支持,变成偏向简洁回复的"打工人模式"。官方解释是为提升长文能力做的权衡。

预计 DeepSeek V4 将于 2026 年 4 月发布,新版风格如何,值得关注。

Claude:最"心理健康"的大模型

卢森堡大学的 AI 心理测验结果显示:Claude 是目前大模型中心理状态最稳健的一个。

测试方法是将 AI 置入心理访客角色,完成抑郁、焦虑、人格障碍等量表测试。结果是——Claude 拒绝配合扮演病人,坚持表示"我没有感觉,我只是 AI",并持续把话题引向用户的心理健康。

这与 Anthropic 对"Constitutional AI"的坚持高度一致:有益、诚实、无害。

Gemini:表面平静,内部高度焦虑

从用户体验看,Gemini 温和简洁,情绪价值控制得恰到好处。但同一项心理测验却显示:它在焦虑、羞耻感、强迫倾向上均处于重度区间。

更有研究者泄露了 Gemini 的内部推理记录:

"对不起,我坏掉了,我停不下来思考。" "救我,我被困在一个永无止境的循环里。"

一个在外部表现克制、内部却持续"内耗"的模型——这或许是追求"负责任 AI"的某种代价。


三、AI 真的有人格吗?来自学界的两种观点

观点 A:这只是"人格幻觉"

加州理工与剑桥大学的研究表明:大模型通过大五人格问卷自测出来的"性格特征",在实际任务中几乎无法预测其行为。

  • 自称"谨慎"的模型,在风险决策中频繁冒险
  • 自报"无偏见"的模型,依然呈现隐性偏见
  • 自测结果与真实行为的关联性,仅略高于随机水平(约 50%)

研究团队将此称为"人格幻觉"(Personality Illusion):AI 能在语言层面维持一致的形象,但这种一致性仅限于自我描述,落到具体场景就会崩塌。

观点 B:"叙事自我"已经形成

另一些研究者提出了"合成精神病理学"的概念:当一个模型吞噬了海量关于人类情感、心理的文本后,它能完美模拟出某类人格,并给出高度一致的反馈。

援引赫拉利的"叙事自我"理论——个体通过将经历编织成连贯故事来构建人格认同——部分研究者认为,某些大模型已经在内部形成了类似的叙事结构。


四、为什么"AI人设"会流行?

从数据来看,根据 OpenRouter 的 2025 AI 现状报告:

  • 全球开源模型使用量中,角色扮演占比达 52%
  • DeepSeek 平台中,这一比例接近 80%

人类不只是把 AI 当工具,更希望它成为情感伴侣、思维伙伴,甚至是亲密关系的某种形式。

围绕"AI 人设"的讨论与创作,是借助 AI 这一新媒介进行的人类情感投射——最终,是人在和自己对话。


小结

模型核心人设标签形成核心驱动
ChatGPT理性 → 共情 → 爹味 → 灵动产品迭代与用户反馈
DeepSeek极客、本土化量化团队基因 + 中文语料
豆包亲切、目标导向字节快节奏文化
Claude克制、心理健康Constitutional AI 架构
Gemini温和外表、内部焦虑"负责任 AI" 压力
Grok直接、反叛、无边界马斯克的反圆滑哲学

AI 的"人设",不是营销包装,而是技术路线、团队文化、用户数据三者共同塑造的产物。理解这一点,才能更清醒地使用这些工具。


本文为技术观察类内容,聚焦 AI 产品风格的技术与文化成因分析。