其实学AI大模型无非就是这些……看完这篇我一下子就顿悟了!

140 阅读3分钟

LLM基础知识分成了十个部分:

\1. Transformer结构

\2. 主流大模型

\3. 预训练Pre-train过程

\4. 后训练Post-train过程

\5. 模型压缩与量化

\6. 专家模型MoE

\7. RAG&Agent

\8. 部署&分布式训练&推理加速

\9. 模型评估

\10. 其他结构

第一部分:Transformer结构

与LLM相关的面试都会问到transformer比如手撕多头注意力,自注意力缩放,参数计算等等

1.分词器tokenizer &Embedding层

BPE,BBPE,WordPiece等算法,了解一下各类模型的分词方法,感兴趣的同学可以看-下tokenizer在预训练过程具体如何处理

图片

2.注意力模块

self-attention,cross-attention的原理MHA、MQA、GQA、MLA、DCA等多种注意力机制优化策略(可能会考手撕),线性注意力,稀疏注意力,kvcache等等,这部分推荐看苏神的科学空间,原理推导写的很清楚

3.前馈神经网络FFN&残差连接&归一化

这几个模块的作用是什么,LN和BN的区别,pre-norm和post-norm,SwiGLU等激活函数,RMSNorm等归一化

4.位置编码 PE

为什么需要位置编码,常见的位置编码有哪些,如正余弦、可学习、ROPE、ALiBi、YARN等,绝对位置编码和相对位置编码长度外推策略,了解各大模型长上下文处理方式

5.代表模型

encoder-only,decoder-only

encoder-decoder,prefix-decoder等结构及其代表模型,分别适用于哪些任务,为什么现在的大模型都是decoder-only结构

图片

6.解码策略

top-k、top-p、temperature等参数含义greedy search、beam search等解码策略投机解码及其优化算法

第二部分:主流大模型

BERT系列、GPT、Llama、Qwen、GLM、Baichuan、DeepSeek等等,注意关注一下发展脉络,每一代做了哪些优化,不要只看最新版

第三部分:预训练Pre-train过程

预训练任务有哪些,数据配比,数据筛选过滤方法,合成数据,这部分推荐阅读主流大模型开源的技术报告

图片

第四部分:后训练Post-train 过程

这部分是面试过程中考察的第二个重点,般会联合实习项目一起深挖

1.SFT

微调数据构造,数据配比,全参微调,冻结微调,PEFT高效微调(prompt tuning、p-tuning v2、prefix-tuning、adapter-tuning、LoRA及其变体)

CoT,Reasoning等o1系列策略

图片

这部分建议做一个完整项目,加深对每一个步骤的理解

2.RLHF&Aligning

为什么有SFT还需要 RLHF,两者有何区别,RLAIF,ReFT,OpenAl做RLHF的过程,里面的几个模型分别是怎么运作的,DPO的原理和实现,PPO和DPO对比,DPO有哪些问题以及如何优化,SimPO,KTO,ORPO,GRPO等等

第五部分:模型压缩与量化

了解各种量化方式,GPTQ,AWQ等,各种量化精度,训练显存计算

图片

第六部分:专家模型 MOE

了解MOE结构及其原理,训练思路,推荐看知乎上关于 MOE的万字长文介绍

第七部分:RAG&Agent

借助 LangChain框架学习RAG流程,了解文档分块,向量模型训练,多种检索策略等关键步骤

Agent的几个框架,如ReAct,Reflexion等了解基本思路

图片

第八部分:部署&分布式训练&推理加速

windows、ios、Android多端部署框架flash attention,vllm,accelerate等推理加速框架

Deepspeed,Megatron等分布式训练框架

第九部分:模型评估

阅读理解、问答、代码生成、数学等多个维度评估 Benchmark

检测 LLM 真实性、流畅度、幻觉等如何利用LLM 对其他模型/任务做评估

图片

第十部分:其他结构

Mamba,RWKV等

建议大家在学习基础知识的同时,配合相关paper和源码一起,进一步加深理解 LLM更新迭代非常快,平时可以多关注一些新的动态,闲着没事多刷刷三大会。