构建大模型技术体系:从AI基础到Transformer架构的深度解析

5 阅读36分钟

一、人工智能技术谱系

在AI技术快速普及的当下,“人工智能”“机器学习”“大模型”等概念常被混淆。需要建立系统的AI技术认知框架。

1、顶层领域:人工智能(AI)

核心定义
人工智能(Artificial Intelligence, AI)是一个广泛的领域,目标是让机器能够模拟或具备类似人类的思考和行动能力。它涵盖了所有能让机器“变得像人聪明”的技术方向。

2、核心实现路径:机器学习(ML)

核心定义
机器学习(Machine Learning, ML)是实现人工智能的一个核心路径,研究如何让计算机系统从数据中自动学习并改进性能,而无需显式编程每一步规则。

3、机器学习的关键子领域:深度学习(DL)

核心定义
深度学习(Deep Learning, DL)是机器学习的一个子领域,其核心是使用多层神经网络(模仿人脑神经元结构)自动学习数据的多层次抽象表示。

3.1 人工神经网络的底层逻辑

  • 人工神经网络用「计算单元」模拟神经元,用「权重」模拟突触。
  • 机器学习的过程,就是通过修改权重来重塑网络功能——这过程叫训练,成品叫模型。
  • 最终那个保存所有权重的文件,就是模型参数集。

3.2 多层神经网络的核心作用

多层神经网络的作用是让计算机自动从原始数据(如图像像素、文本序列)中学习层次化的特征表示,每一层神经网络都对原始数据做从具体到逐步抽象的特征标注(对特征标注就是机器对数据的理解)。

3.3 经典神经网络结构

神经网络的设计结构,又有一些经典的方法:

  • 卷积神经网络 (CNN)
  • 循环神经网络 (RNN)
  • Transformer:通过自注意力机制解决了 RNN 的核心痛点(训练慢、长程依赖差),成为当前自然语言处理领域的主流架构。

4、深度学习的重要分支:大模型与大语言模型

4.1 大模型(Large Model)

核心定义
大模型 (Large Model) 是参数量极大的深度学习模型。随着算力提升,模型变大(参数增多)成为趋势,以捕获更复杂的数据模式。
相比之下,参数较少(百万级以下)、层数较浅的模型,是小模型。小模型具有轻量级、高效率、易于部署等优点,适用于数据量较小、计算资源有限的垂直领域场景。

4.2 大语言模型(LLM)

核心定义
大语言模型 (Large Language Model, LLM) 特指在大规模文本数据上训练的大模型,以学习自然语言的各种语法、语义和语境规则。(如 GPT-4、Claude、文心一言)。

5、技术的应用成果:AIGC

核心定义
AIGC 并不是一个技术层级,而是这些技术的应用成果。它主要依赖于大模型(尤其是 LLM 和图像生成模型)来实现内容的自动创作。

二、大模型

2.1 大模型的定义

大模型(Large Model),指参数量巨大(通常数十亿到数万亿,175B = 1750亿),经过海量数据训练的深度学习模型(如GPT-4、BERT、DeepSeek等)。特点包括强大的学习能力、泛化能力和多模态处理能力(如自然语言处理、图像识别),能够模拟复杂的人类创作模。当前主流大模型多以 Transformer 架构为基础。

2.2 大模型的分类

2.2.1 按数据模态分类

根据处理的数据模态不同,大模型可分为大语言模型、视觉大模型、多模态大模型。 大语言模型(Large Language Models, LLMs) 定义:基于深度学习算法、在超大规模文本语料上训练而成的语言理解与生成模型。这类大模型通常用于处理文本数据和理解自然语言 视觉大模型
视觉大模型通过结合视觉编码器与语言模型(VLM),能够处理图像、视频等视觉数据,并进行文字或视觉生成。这类模型通过预训练学习到跨模态理解能力,可执行视觉问答、图像摘要等任务。 多模态大模型
通过整合语言、视觉等多种模态数据,提升跨领域任务处理能力。

可以高度简化的把大模型当做一个函数:给输入,生成输出。

  • 任何可以用语言描述的问题,都可以输入文本给大模型,生成回答文本——这是大语言模型。
  • 进一步,任意数据都可以输入给大模型,生成任意数据——这是多模态大模型。

2.2.2 按照应用领域划分

按照应用领域的不同,大模型主要可以分为通用、行业、垂直三个类型:

通用大模型L0:是指可以在多个领域和任务上通用的大模型。它们利用大算力、使用海量的开放数据与具有巨量参数的深度学习算法,在大规模无标注数据上进行训练,以寻找特征并发现规律,进而形成可“举一反三”的强大泛化能力,可在不进行微调或少量微调的情况下完成多场景任务,相当于AI完成了“通识教育”。 行业大模型:专门设计用于特定行业或领域的任务,如医学、环境、教育等。它们通常在处理特定领域的数据和问题时表现出色。在医疗领域有DoctorGPT、华佗GPT,大规模的医学图像处理模型用于诊断和分析。在金融领域,模型可能用于风险评估和交易策略。还有旅游推荐模型等等 垂直大模型:是指那些针对特定任务或场景的大模型。它们通常使用任务相关的数据进行预训练或微调,以提高在该任务上的性能和效果。原文链接: blog.csdn.net/2401_853900… 1. 科学计算大模型是解决基础科学问题(如蛋白质结构预测、气象模拟)的专用模型,需高精度计算与领域知识。 2. 与LLM的联系和区别:科学模型依赖数学建模而非语言生成,仅少数(如材料文献分析工具)可能融合LLM技术。

2.2.3 大语言模型分类

按实践中的功能定位,大语言模型可以分为通用大模型和推理大模型。通用大模型以广度优先,推理大模型深度优先。

功能定位
  1. 通用大模型:聚焦开放域语言泛化能力,覆盖对话生成、多语言翻译、创意写作等广度任务,核心目标是实现自然语言交互的流畅性与多样性。
  2. 推理大模型:侧重复杂逻辑深度解析,专攻数学证明、代码生成、因果推断等需多步符号操作的任务,强调结果的严谨性与可靠性。
技术特点
  1. 通用模型:依赖海量无标注文本的自回归预训练(如Transformer架构),通过概率建模预测词序列,优化语言模式拟合。
  2. 推理模型:引入结构化数据微调(数学/代码数据集)与增强技术(思维链提示、工具调用),结合符号引擎集成以突破纯神经网络的逻辑局限。

2.3 区分大模型和产品

国家公司对话产品旗舰大模型网址
美国OpenAIChatGPTGPTchatgpt.com/
美国MicrosoftCopilotGPTcopilot.microsoft.com/
美国GoogleGeminiGeminigemini.google.com/
美国AnthropicClaudeClaudeclaude.ai/
中国百度文心一言文心yiyan.baidu.com/
中国阿里云通义千问通义千问tongyi.aliyun.com/qianwen
中国智谱 AI智谱清言GLMchatglm.cn/
中国月之暗面Kimi ChatMoonshotkimi.moonshot.cn/
中国MiniMax星野ababwww.xingyeai.com/
中国深度探索deepseekDeepSeekchat.deepseek.com/

三、大语言模型

3.1 定义

大语言模型(Large Language Models, LLMs)是专用于处理自然语言的一类大模型,通过在超大规模文本语料上进行自监督学习,掌握语言的语法、语义与上下文规律,具备强大的文本理解与生成能力。 其核心特点包括:

  1. 参数规模庞大:通常在十亿到万亿级别(如GPT-3达1750亿参数)。
  2. Transformer架构基础:采用自注意力机制处理长距离依赖关系。
  3. 训练数据海量:如GPT-3 在约 570GB 的高质量清洗文本上进行训练,涵盖网页、书籍、代码等多种来源。
  4. 高算力需求**:训练过程需要数千张 GPU 并行计算数周以上。

3.2 Token

3.2.1 Token的定义

Token是大型语言模型(LLM)进行信息表示和处理的基本单位。

  1. 可能是一个英文单词,也可能是半个,三分之一个
  2. 可能是一个中文词,或者一个汉字,也可能是半个汉字,甚至三分之一个汉字
  3. 不同模型划分token的粒度不同,如DeepSeek V3 对中文的 tokenization 可能倾向于合并高频词组(如“看到”为一个 token),而 GPT-4 可能采用更细粒度的拆分(如“看”和“到”作为独立 token),这取决于其训练语料分布与模型架构在编码效率和语义保真度之间的权衡。

3.2.1 多模态的实现

多模态的核心在于为不同模态数据定义合适的 token 划分方式(token 是大模型输入输出的基本单位):

  1. 多模态 token 的本质
    对非文本数据而言,“token”是将原始信号(如像素、声波)转换为离散序列的“基本单元”。例如:

    • 图像可通过 ViT(视觉 Transformer)架构划分为固定尺寸的“图像块(Patch)”作为 token;
    • 音频可通过 Mel 频谱编码转换为“音频帧 token”(如 10ms 一帧);
    • 视频则可拆解为“图像帧 + 音频帧”的组合 token。
  2. 统一的技术范式
    多模态大模型的关键突破,在于通过“模态特定编码器”将不同类型的原始数据映射为统一格式的 token 序列,随后复用 Transformer 架构进行“预测下一个 token”的自监督训练。例如:

    • 图像生成模型通过预测下一个图像块 token 完成画面生成;
    • 音频模型通过预测下一个音频帧 token 实现语音合成。
      最终实现跨模态的理解与生成能力。
  3. 核心结论
    只要能为某类数据找到合理的 token 划分与编码方式,“预测下一个 token”的逻辑就能迁移至该领域,使生成式模型具备解决对应智能问题的潜力。这也是大模型从“单模态”向“多模态”演进的核心技术逻辑。

3.3 工作过程

类比人类的学习过程,大模型的工作流程可分为‘训练’(学习知识)和‘推理’(应用知识)两个核心阶段。

3.3.1 训练

训练阶段是大模型学习语言能力的核心环节,通常划分为预训练(Pre-training)‍和微调(Fine-tuning)**‍ 两个阶段。

  1. 预训练阶段
    • 过程:利用机器学习算法,训练模型在海量的自监督文本(或多模态)数据上进行**自回归(如 GPT-4)‍或自编码(如 BERT)**‍等任务。
    • 目标:通过预测下一个词或填空,捕捉语言的统计规律、语义结构和世界知识,并将这些能力固化为模型的权重参数。这些参数被组织为高维向量空间,蕴含了语义相似性逻辑推理的潜在特征。
  2. **微调阶段(Fine-tuning)**‍:
    • 过程:常始于有监督的指令微调,即在高质量的指令-回答对数据集上进行训练;为进一步优化模型行为,往往还需进行基于人类反馈的强化学习等对齐技术。
    • 目标:调整预训练模型的参数,使其更好地满足特定任务需求(如准确回答问题、遵循指令),从而提升模型的安全性、可控性和任务表现。

3.3.2 推理:

如果把训练阶段比作学生的“学习”,那么推理阶段就是学生的“考试”。在这个阶段,模型不再学习,而是运用已有的知识来回答问题。它的本质是基于对训练语料中 token 共现概率的建模,通过自回归方式逐 token 生成序列。

1. 上下文感知 (Contextual Understanding)
  • Prompt 输入:用户的问题或指令(如“帮我写一封邮件”)。
  • Token 化:将自然语言拆分成模型能识别的单元(Token)。Token可以是一个汉字、一个英文字母,甚至是一个词的一部分(如“un-”)。
  • 注意力机制 (Attention):计算输入内容之间的相关性(Context——序列中所有元素(Token)之间的交互权重,形成一种动态的“上下文相关表征),决定哪些信息最重要。 但它并不是完美的“相关性计算器”。它只能基于训练时学习到的模式进行关联,可能会出现“幻觉”(Hallucination),即生成看似合理但事实错误的内容。
2. 动态生成 (Dynamic Generation)
  • 自回归过程 (Autoregressive)
    • 预测:基于 Prompt,预测最有可能出现的下一个词。
    • 循环:将预测词追加到 Prompt,继续预测下一个,直至回答完整。
  • 采样策略(如 Top-K、Top-P、温度参数Temperature等)决定了答案的随机性和质量。(Temperature)越高,答案越随机(可能更有创意);温度越低,答案越确定(但可能更无聊)。
3. 终止条件 (Termination)

模型会根据设定的规则停止生成:

  • 最大长度:防止生成过长。
  • 特殊 token:如预测出下一个token是 <EOS> (End Of Sentence) 就结束生成。
4. 核心局限
  • 静态知识:无法实时更新(如2026年模型不知2027年事件)

  • 概率本质:输出为统计最优解,非逻辑推演结果

3.4 为什么预测下一个token,就能表现智能

因为预测下一个token,符合人类的认知机制—— 人类的思维与表达过程,本质也是 “本体思维对下一个词的生成(token 生成)”,且每个输出均依赖既往学习的经验与知识

前 OpenAI 首席科学家 Ilya Sutskever这样讲大模型之「道」:「只要能够非常好的预测下一个 token,就能帮助人类达到 AGI」

AGI,即通用人工智能,指的是具备人类水平认知能力、能泛化到多种任务的 AI 系统,而非局限于狭窄领域,这一表述为大模型的技术方向提供了重要理论依据。 业内也有不同声音认为,仅靠预测 token 难以突破‘符号落地’等 AGI 难题,但这也正是大模型迭代的核心动力。

3.4.1 人类认知类比:序列化生成与经验依赖的共通性

从人类认知机制来看,“预测下一个 token” 的原理具备合理性 —— 人类的思维与表达过程,本质也是 “序列化 token 生成”,且每个输出均依赖既往学习的经验与知识:

  • 以语言场景为例,在中文文化圈中,当提及 “海内存知己” 时,多数人能自然接出 “下一个 token”(诗句)“天涯若比邻”,这是因为该诗句组合在文化语境中高频出现,成为群体共有的 “训练数据”;同理,英文文化圈中 “ When in Rome” 的后续 “do as the Romans do”,对本地人群而言是基于文化经验的 “自然预测”,但对异文化者则因缺乏对应 “训练数据” 而难以完成。
  • 这一类比揭示:无论是人类还是大模型,“序列化预测” 的能力均建立在 “经验(数据)积累” 之上,且数据的覆盖范围、相关性直接决定了预测的准确性与泛化性 —— 这与大模型 “数据决定能力边界” 的特性高度一致。
3.4.2 “预测下一个 Token” 的复杂性:看似简单,实则多维挑战

“预测下一个 token” 能成为大模型核心原理,并非因其逻辑简单,而是该目标背后隐含对 “智能” 的深度建模需求,且需突破多重技术壁垒:

  1. “非常好” 的预测需三重支撑:要实现高精度的下一个 token 预测,需依赖海量高质量训练数据(覆盖多领域知识与场景)、大规模算力(支撑复杂模型的训练与迭代),以及精细化优化策略(如损失函数设计、训练流程调优)—— 三者共同确保模型能从数据中学习到语言逻辑、知识关联与场景规律。
  2. 学术争议尚未达成共识:该理论在学术界存在明显分歧:支持者认为 “预测下一个 token” 本质是让模型学习数据中的 “世界模型”(即隐含的客观规律与逻辑关系),是通往 AGI 的可行路径;反对者则指出,单纯的 token 预测可能仅让模型掌握 “统计关联”,无法真正理解语义或形成自主认知,难以突破 “符号落地” 等 AGI 核心难题,目前双方均未形成压倒性证据。
  3. 实践层面的验证:尽管存在争议,当前最先进的 AI 系统(如 GPT-4)均以 “预测下一个 token” 为核心训练目标,且在对话、推理、创作等多任务中展现出强大能力,从实践角度印证了该原理的有效性。
3.4.3 概率采样与温度机制:平衡确定性与创造性

大模型在 “预测下一个 token” 时,实际是计算所有可能 token 的概率分布,但直接选择概率最高的 token 会导致输出过于刻板(如重复句式、缺乏变化)。为解决这一问题,大模型引入 “温度参数(Temperature)” 调控采样随机性。Temperature=0 时,模型仅选择概率最高的 token,输出完全确定(适用于需严谨性的场景,如代码生成)。Temperature>0 时,温度越高,模型会从高概率候选集中随机采样,输出多样性越强;

  1. 与人类思维的对应关系:人类的创造性思维同样存在 “温度调节”—— 发散思考(如头脑风暴)时类似 “高温状态”,思维随机性强、联想范围广;严谨推理(如数学证明)时类似 “低温状态”,思维更聚焦、逻辑更确定。
  2. 实践中的参数选择:在实际应用中,温度通常取值于 0-1 区间:确定性任务(如数据计算、代码生成)适用低温(<0.3),确保输出准确;创造性任务(如文案写作、艺术创作)可用高温(0.8-1),提升输出多样性;但温度超过 1 后,概率分布过于平缓,可能导致输出逻辑混乱、语义脱节,类似 “语义高烧”,需避免过度调参。
3.4.4 总结

综上,“预测下一个 token” 看似是简单的序列建模目标,实则是大模型学习知识、模拟认知、适配多模态的核心逻辑 —— 它通过数据积累构建 “世界模型”,通过跨模态 token 设计扩展能力边界,通过温度机制平衡智能的实用性与创造性,成为当前大模型从 “专用智能” 向 “通用智能” 演进的关键技术路径。

四、Transformer架构

Transformer架构是绝大多数大语言模型(LLM)的核心基础,没有Transformer,就没有“训练”,就没有“LLM”。 %% 注: 也存在一些其它架构,如RetNet、KAN、Mamba等%%

4.1 整体逻辑分层

标准 Transformer 包含编码器-解码器(Encoder-Decoder)结构,每部分由多个相同层堆叠而成::

  1. 输入层(Input Embedding Layer)
    • 负责将原始输入转换为向量(embedding vector),维度有512、 768、1024等。这些向量通过训练学习语义相似性(如“国王”与“王后”接近)。关键操作:词嵌入(Word Embedding)+ 位置编码(Positional Encoding)。
    • 由于自注意力本身不具备顺序感知能力,需要把位置信息注入到向量中,确保模型能区分 “我爱AI” 与 “AI爱我”。
  2. 编码器层(Encoder Layer)
    • 编码器层(Encoder Layer)是一种专为捕捉序列内部依赖关系而设计的深度学习模块。它的核心在于**多头自注意力(Multi-Head Self-Attention)**‍机制,能够让序列中每个位置的向量同时关注到其他所有位置的信息,从而学习到“全局语义”。为了增强模型的表达能力和稳定性,它还嵌入了前馈神经网络模块(FFN)和 残差连接与层归一化技术
  3. 解码器层(Decoder Layer)
    • **解码器层(Decoder Layer)**‍专门用于在生成任务中确保生成的序列既符合语言规律,又严格基于输入上下文。它通过两次注意力机制来实现这一目标:掩码自注意力(Masked Self-Attention)确保模型在生成下一个单词时,只能“看到”已经生成的单词(防止信息泄漏),而编码器-解码器注意力机制(Encoder-Decoder Attention)则通过查询编码器输出,确保每个生成的单词都能对齐到输入序列的相关部分(如在翻译中确保“apple”对应“苹果”)。此外,解码器层同样包含残差连接、层归一化和前馈神经网络,以提升表达能力。
  4. 输出层(Output Layer)
    • 包括线性层和Softmax,将解码器输出转换为概率分布(如单词概率)。解决预测问题,生成最终结果(如分类或序列)。

整体流程:输入 → 嵌入 → 位置编码 → 编码器(多层处理) → 解码器(多层生成) → 输出。分层设计支持模块化堆叠(类似Java中的类继承),便于扩展为大模型。

当前主流大模型(如 GPT 系列)采用 Decoder-only 架构,省略编码器,仅保留因果掩码自注意力与 FFN,适用于自回归生成任务。

4.2 核心组件

Transformer的核心组件是其功能模块,每个都解决特定问题。以下是主要组件及其解释:

4.2.1 注意力机制:捕捉词与词之间的关系
  • 多头自注意力(Multi-Head Self-Attention)
    • 位置:存在于每个 Encoder 层的底部,以及每个 Decoder 层的底部。
    • 功能:对于序列中的每一个词,计算它与序列中所有其他词的关联程度(注意力权重)。
    • 原理:通过QKV矩阵实现注意力权重的计算。自注意力指的是查询、键和值都来自同一个序列(即“自我关注”)。多头(Multi-Head)是指在同一层的注意力机制中,将注意力矩阵(Attention)拆分成多个子空间分别计算,每个空间关注不同的特征维度(如翻译任务中,一个头关注词序,另一个头关注情感),然后再将这些子空间的结果拼接起来。
  • 掩码多头注意力(Masked Multi-Head Attention)
    • 位置:存在于每个 Decoder 层的最底部。
    • 功能:在训练或推理过程中,确保模型只能关注已生成的词,而不能看到未来的词(防止泄露答案)。
    • 原理:通过掩码(Mask)机制将未来位置的注意力权重设为负无穷,从而在计算后变为 0。
  • 编码-解码注意力
    • 位置:存在于每个 Decoder 层的第二个子层(位于掩码注意力之后)。
    • 功能:将 Decoder 的查询(Q)与 Encoder 的键(K)和值(V)进行交互。
    • 意义:让 Decoder 在生成目标词时,能够参考源序列的全局信息,实现对输入序列的对齐。
4.2.2 前馈神经网络(Feed-Forward Neural Network, FFN):特征提取
  • 位置:每个 Encoder 和 Decoder 子层的顶部。
  • 作用:FFN 是 Transformer 中的 “非线性变换模块”,核心作用是对多头注意力输出的 “上下文向量” 进行独立的非线性映射,增强模型的非线性表达能力(即 “对聚合后的上下文信息做进一步加工,提取更复杂的特征”)。
4.2.3 残差连接(Residual Connection)和层归一化(Layer Normalization):保护并稳定注意力层的输出。
  • **残差连接(Residual Connection)**‍
    • 功能:在每个子层(注意力层和前馈层)的输入和输出之间建立捷径路径。
    • 意义:保持信息的完整性和流通性,解决梯度消失的问题,即防止“忘记”。
  • **层归一化(Layer Normalization)**‍
    • 功能:对每个子层的输出进行归一化处理,保证数据分布的稳定性。
    • 意义:负责“稳固”和“调节”信息,解决梯度爆炸的问题。
  • 它们协同工作,使得 Transformer 能够训练得既深(层数多),又快(收敛快),同时保持训练过程的稳定性。

五、Transformer高效/新型变体对比

Transformer架构自2017年提出后,衍生出多种变体,核心目标是提升效率、扩展能力、适配多场景

变体类型代表模型适用场景核心特点
原始Transformer(Encoder-Decoder)T5/BART文本摘要、机器翻译、问答系统等“序列到序列”的任务先编码输入信息,再基于编码结果生成输出,适合需要深度理解源内容的任务。
Decoder-onlyGPT系列、LLaMA、通义千问对话系统、故事创作、代码生成、邮件撰写等绝大多数生成任务自回归生成,根据上文预测下一个词,擅长创作连贯的长文本。
Encoder-onlyBERT系列主要用于文本分类、情感分析等理解任务,而非生成任务双向上下文捕获,擅长深度理解文本内容,但不具备完整的文本生成能力。
MoE(混合专家架构)DeepSeek-R1垂直领域专家系统/决策分析在Decoder-Only基础上,用多个“专家”网络替代部分全连接层,每个输入仅激活少数专家,极大降低了推理成本。
Longformer(稀疏架构)Longformer处理极长文本(如长文档摘要、代码生成)通过限制自注意力机制的计算范围(稀疏化),降低计算和内存开销。

当前绝大多数生成式大模型采用 Decoder-only 架构,因其结构简单、易于扩展。

5.1 Encoder-Decoder

基本原理

由完整的编码器(Encoder)和解码器(Decoder)组成。编码器将输入序列压缩为上下文向量,解码器再将其解压为输出序列。

解决的问题

适用于需要“编码-转换-解码”过程的任务,如机器翻译、文本摘要、图像生成描述等。

优缺点对比

优点缺点
信息完整:编码器完整捕获输入上下文,解码器利用全部信息生成高质量输出。速度慢:解码过程自回归,难以并行生成,速度慢于 Encoder-Only。
灵活性强:能处理不同模态(文本、图像、语音)的跨模态任务。资源占用大:包含完整的 Encoder 和 Decoder,训练和部署成本高。

代表模型

模型公司适合任务场景
T5 (Text-to-Text Transfer Transformer)Google通用文本到文本任务:翻译、摘要、问答(将所有任务统一为文本生成)。
BART (Bidirectional and Auto-Regressive Transformers)Meta (Facebook)生成式任务:对话生成、摘要、错误纠正(结合了 BERT 的双向编码和 GPT 的自回归解码)。
Flan-T5Google多任务指令微调:在各种自然语言处理任务上表现出色,适用于需要遵循复杂指令的应用。
M2M-100Meta大规模多语言翻译:支持 100 种语言的直接互译,无需中间语言。
通义千问 (Tongyi Qianwen)阿里巴巴中文多模态任务:文本生成、对话、代码生成,具备强大的中文理解和生成能力。
文心一言 (Wenxin Yiyan)百度中文自然语言处理:生成、理解、检索,擅长长文本生成与信息抽取。
火山大模型 (Volcano LLM)字节跳动多语言对话与内容创作:支持多种语言的对话生成、内容推荐与创作。

5.2 Decoder-only

基本原理

仅由解码器组成,采用因果自注意力(Causal Self-Attention),每个 token 只能看到其左侧上下文,用于预测下一个 token。

解决的问题

专注于生成任务,解决了大规模语言模型如何高效预测下一个单词(Token)的难题。

优缺点对比

优点缺点
生成能力强:天生适合自回归生成(如写文章、对话),支持 Zero-shot 学习。理解深度有限:仅利用左侧上下文,缺乏 BERT 那样的全局双向理解能力。
结构简单:仅包含解码器,参数更少,训练效率高,易于大规模扩展。推理慢:生成过程必须逐 token 进行,无法并行加速。

代表模型

模型公司适合任务场景
GPT-4OpenAI高级对话与通用智能:提供最强大的自然语言理解与生成能力,支持图像输入。
Llama 2Meta (Meta AI)开源通用大模型:适用于学术研究、商业部署和微调,社区活跃度高。
GeminiGoogle多模态智能体:整合文本、图像、视频,适用于多模态检索与复杂推理。
Qwen (通义千问)阿里巴巴中英双语对话:在中英文对话、写作与代码生成方面表现优异。
ChatGLM智谱 AI中文对话与检索增强生成:擅长中文长文理解与生成。
MiniMaxMiniMax轻量化生成模型:适用于对算力要求较低的边缘设备和实时对话场景。

5.3 Encoder-only

基本原理

仅由编码器组成,使用双向自注意力(Bidirectional Self-Attention),每个 token 能看到序列中所有位置的上下文。

解决的问题

专注于理解任务,解决了文本分类、检索等任务如何捕获全局语义信息的难题。

优缺点对比

优点缺点
理解力强:利用全局上下文进行深度理解,适合分类、检索等任务。生成力弱:虽然可以做 Cloze 填空,但在自由文本生成方面能力不足。
推理快:支持并行处理,推理速度快,适合高吞吐量服务。不适合预测:无法处理只能看到左侧上下文的语言建模任务。

代表模型

模型公司适合任务场景
BERT (Bidirectional Encoder Representations from Transformers)Google句子分类、命名实体识别、句子相似度计算(句子嵌入)。
DeBERTaMicrosoft文本理解:通过改进的相对位置编码提升理解准确率。
RoBERTaMeta (Facebook AI)优化版 BERT:在无监督数据上进行更长时间训练,适用于高精度文本分类。
ERNIE百度知识增强理解:将结构化知识图谱融入模型,提升语义理解深度。
MOSS厦门大学中文知识问答:专注于中文语义理解与知识问答。

5.4 Mixture of Experts (MoE)

基本原理

引入稀疏激活机制,将传统 FFN 替换为多个“专家”网络。使用门控网络(Gating Network)根据输入动态路由,仅激活部分专家进行计算。

解决的问题

解决了在不显著增加计算成本的情况下,显著扩大模型参数规模(容量)的问题。

优缺点对比

优点缺点
参数效率高:拥有数万亿参数,但每次推理只激活一小部分,计算成本低。内存占用大:需存储所有专家的参数,部署和存储成本高。
模型容量大:在处理复杂任务时表现出更强的记忆和泛化能力。训练不稳:稀疏激活可能导致负载不均衡,训练过程复杂且难以收敛。

代表模型

模型公司适合任务场景
Switch TransformerGoogle超大规模翻译与生成:在保持推理速度的同时拥有数十亿参数。
GLaM (Generalist Language Model)Google多任务学习:通过稀疏激活实现高效的多语言、多任务处理。
M6 (M6-10T)Alibaba多模态理解与生成:支持图文、音视频等多模态内容生成。
通义千问 (Tongyi Qianwen)阿里巴巴大规模通用AI:采用 MoE 架构,提升大模型的推理效率与规模。
文心一言 (Wenxin Yiyan)百度中文生成与理解:通过 MoE 提升对话生成的流畅度和准确性。
DeepSeek-R1DeepSeek深度逻辑推理、复杂数学计算及多步骤分析的任务。

5.5 Longformer

基本原理

针对长序列设计的稀疏注意力模型。将全局注意力替换为滑动窗口注意力+ 全局节点机制,将时间复杂度从 O(N2)O(N^2) 降至 O(N)O(N)

解决的问题

解决了标准 Transformer 在处理长文档(几千到上万 token)时的显存和计算瓶颈。

优缺点对比

优点缺点
长序列建模:能高效处理超长文本(如文档级别的任务),适合文档检索与长文摘要。局部感受野:默认只能看到局部上下文,可能错过长距离依赖(需添加全局 token)。
计算效率:显著降低显存占用,适合在显存受限的设备上运行长文本任务。不适合短文本:对于短序列,优势不明显,且复杂度引入额外的实现开销。

代表模型

模型公司适合任务场景
LongformerAllen Institute for AI法律文档分析、医学文献阅读:擅长处理几千到上万 token 的长文本。
BigBirdGoogle超长序列建模:通过随机注意力机制进一步提升长序列处理能力。
文心大模型百度中文长文生成:针对中文长文生成和理解进行优化,支持超长上下文推理。
火山大模型字节跳动多语言长文处理:支持多语言长文本生成与翻译,适用于跨语言文档处理。
通义千问阿里巴巴文档理解与生成:支持超长文档的摘要、生成和信息抽取任务。

5.6 Performer

基本原理

Performer 是一种基于线性注意力的高效 Transformer 变体。它通过 FAVOR+(Fast Attention Via positive Orthogonal Random features) 算法,将原本需要 O(N2)O(N^2) 计算量的注意力机制近似为 O(N)O(N),从而实现线性复杂度。其核心思想是利用随机特征映射,将点积注意力转化为核函数近似,从而消除序列长度带来的计算瓶颈。

解决的问题

专注于解决 长序列处理的效率 问题,解决了标准 Transformer 随着序列长度增长导致的显存爆炸和计算瓶颈,尤其适用于需要处理千级甚至万级 token 长度的任务。

优缺点对比

优点缺点
计算效率极高:将注意力机制复杂度降至线性,显著降低显存占用,适合超长文本处理。近似误差:通过随机特征进行近似,可能导致特定任务(如精准对齐)上的性能略逊于标准 Transformer。
无序列长度限制:理论上能处理任意长度的序列,适用于基因序列、长文档等极端场景。实现复杂度:FAVOR+ 算法实现相对复杂,对硬件的特定优化要求较高。

代表模型

模型公司适合任务场景
PerformerGoogle DeepMind通用长序列建模:在文本、图像和音频等多模态任务中实现高效的全局建模。
Linear TransformerGoogle Brain高效推理:在资源受限的设备上实现 Transformer 的近似功能。
通义千问 (Tongyi Qianwen)阿里巴巴超长文档处理:在对话和文档生成中引入了线性注意力机制以提升长上下文推理能力。
星火认知大模型 (Spark Cognitive)科大讯飞长文阅读与理解:专注于在长文本场景下保持高效的语言理解与生成。
盘古大模型 (Pangu)华为代码与文档生成:采用高效注意力机制(包括 Performer 变体)来提升模型推理速度。

5.7 多模态 Transformer (Multimodal Transformer)

基本原理

多模态 Transformer 通过在统一的 Transformer 框架内处理文本、图像、音频等不同模态的数据,实现跨模态的语义对齐和信息融合。核心在于 跨模态注意力(Cross-Attention)模态投影层(Modality Projection Layer)

  1. 视觉编码:使用 CLIP ViT 或 OpenCLIP ViT 等视觉编码器将图像切分为 patch token,并映射到与语言模型相同的维度空间。
  2. 模态对齐:通过跨模态注意力模块,让视觉 token 与文本 token 在同一注意力矩阵中交互,打破传统的“视觉编码器 + 文本解码器”拼接模式,实现更深层次的融合。

解决的问题

  • 视觉-语言理解:解决了语言模型缺乏视觉感知能力,视觉模型缺乏语言推理能力的问题,实现了图像内容的语义理解与语言生成。
  • 跨模态推理:不仅能生成文字描述(Caption),还能执行基于图像的推理任务(如视觉问答 VQA、图表理解),弥补了单模态模型在特定场景下的能力缺口。

优缺点对比

优点缺点
深度融合:通过跨模态注意力实现了视觉和语言的深度语义对齐,能够执行复杂的视觉推理任务。训练数据稀缺:高质量的图文对齐数据集相对稀缺,数据标注成本高,可能导致对齐质量不稳定。
任务多样性:支持图像描述、视觉问答、图表解释等多种任务,应用场景极为广泛。计算开销大:视觉编码(ViT)通常需要高分辨率输入,导致显存占用大,尤其在处理高分辨率图像时计算成本极高。

代表模型

以下模型是该领域的典型代表,涵盖了国际顶尖模型和中国市场占有率最高的国内模型。

模型名称公司适合的任务场景
GPT-4V (Vision)OpenAI通用视觉语言理解:支持图像描述生成(Image Captioning)、复杂视觉问答(VQA)、图表解释以及跨模态指令(如“请根据这张图画一幅画”)。
Gemini Pro (Vision)Google多模态推理:具备超大上下文窗口,支持图片+文字的混合输入,擅长在图片中进行定位、文字识别和跨模态逻辑推理(如代码生成、图表分析)。
Qwen-VL / Qwen2.5-VL阿里巴巴多语言多模态:基于 OpenCLIP ViT 视觉编码器和 Qwen LLM,专为中英文环境设计,支持精细化的视觉定位(Grounding)、文字阅读(OCR)和长图分析。
MiniCPM-VOpenBMB移动端部署:基于 LLaMA 架构的轻量化模型,专为移动端和边缘设备优化,适合需要视觉能力的实时交互应用,如移动端 OCR 和简单的图像分类。
InternVL上海人工智能实验室高效对齐:在视觉编码器和语言模型之间采用高效的跨模态投影层,强调在不同语言(中英)和复杂场景下的视觉理解能力。

技术趋势 目前的多模态 Transformer 趋势是向着 “视觉语言原生一体化” 发展,即不再依赖大型视觉模型(如 CLIP)预训练,而是从零开始训练一个能够原生处理多模态数据的模型(如 Gemini Ultra),并通过混合多模态数据(图文、图音)进行指令微调,以提升跨模态推理的鲁棒性。

5.8 趋势

  • 更长上下文支持:状态空间模型(SSM)如 Mamba 可处理百万级 token;
  • 节能架构探索:量子混合架构、稀疏注意力仍在实验阶段;
  • 神经-符号融合:结合规则系统与神经网络,提升可解释性。

Mamba、KAN 等模型虽然不基于 Transformer 的自注意力机制,但在处理长序列方面展现了更高的计算效率,代表了 Transformer 之后的进化方向。

六、架构选型

在选择大模型架构时,需根据业务特性权衡“生成能力”与“理解精准度”,并结合算力与数据安全约束。

6.1 选型核心公式:成本与精度平衡

总成本 = (输入Tokens + 输出Tokens) × 单价 × 日均请求量

核心考量:

  • 高频交互(如客服机器人):优先选取7B级别的轻量化模型,控制千次调用成本在 $0.1 以下,尽量牺牲部分精度以换取成本优势。
  • 高风险领域(如医疗诊断):必须选择**70B+**的大型模型,以精度为首要前提,即便成本极高也在所难免。

6.2 架构决策树(任务导向)

graph TD 
    A[任务类型] -->|开放生成| B[选择 GPT 类 Decoder-only]
    A -->|精确理解| C[选用 Encoder 架构]
    B -->|成本敏感/跨模态| D[MoE+跨模态, 版本 GPT-5]
    B -->|低延迟要求| E[Performer架构]
    D -->|垂直领域| F[注入行业知识图谱]
    E -->|边缘设备| G[TensorRT量化技术]

6.3 业务场景下的架构建议

场景分类推荐架构说明
通用创作纯 Decoder-only如 Claude 3.5,侧重流畅的文本生成和对话维持。
专业领域生成Decoder + RAG如 GPT-5 Enterprise,结合检索增强生成(RAG)以确保内容精准。
硬件受限环境Decoder + 高效注意力如 Phi-3 移动版,使用 Performer 或稀疏注意力降低计算复杂度。

6.4 模型选择矩阵(安全与合规优先级)

业务类型国外闭源大模型国产闭源大模型开源大模型
国内 2C (个人消费者)
国内 2G (政府业务)
国内 2B (企业)
出海
极度敏感数据

安全警示:对于数据安全要求极高的场景(如涉密数据),国产闭源或开源模型是唯一合规选项。

6.5 选型策略:实测优于榜单

  • 尽管 HELM、MT-Bench 等榜单能提供参考,但存在测试任务偏向通用能力而未必反映实际业务表现、忽略推理成本等工程指标、部分存在 “刷榜” 现象的局限。目前较受认可的是 LMSYS Chatbot Arena Leaderboard,采用盲测+用户投票机制,减少偏见。
  • 实测为王:在可选模型中进行针对性测试,结合成本差异业务指标(如召回率、响应时延)综合评估,方能找到最适合的模型。