LLM基础知识分成了十个部分:
\1. Transformer结构
\2. 主流大模型
\3. 预训练Pre-train过程
\4. 后训练Post-train过程
\5. 模型压缩与量化
\6. 专家模型MoE
\7. RAG&Agent
\8. 部署&分布式训练&推理加速
\9. 模型评估
\10. 其他结构
第一部分:Transformer结构
与LLM相关的面试都会问到transformer比如手撕多头注意力,自注意力缩放,参数计算等等
1.分词器tokenizer &Embedding层
BPE,BBPE,WordPiece等算法,了解一下各类模型的分词方法,感兴趣的同学可以看-下tokenizer在预训练过程具体如何处理
2.注意力模块
self-attention,cross-attention的原理MHA、MQA、GQA、MLA、DCA等多种注意力机制优化策略(可能会考手撕),线性注意力,稀疏注意力,kvcache等等,这部分推荐看苏神的科学空间,原理推导写的很清楚
3.前馈神经网络FFN&残差连接&归一化
这几个模块的作用是什么,LN和BN的区别,pre-norm和post-norm,SwiGLU等激活函数,RMSNorm等归一化
4.位置编码 PE
为什么需要位置编码,常见的位置编码有哪些,如正余弦、可学习、ROPE、ALiBi、YARN等,绝对位置编码和相对位置编码长度外推策略,了解各大模型长上下文处理方式
5.代表模型
encoder-only,decoder-only
encoder-decoder,prefix-decoder等结构及其代表模型,分别适用于哪些任务,为什么现在的大模型都是decoder-only结构
6.解码策略
top-k、top-p、temperature等参数含义greedy search、beam search等解码策略投机解码及其优化算法
第二部分:主流大模型
BERT系列、GPT、Llama、Qwen、GLM、Baichuan、DeepSeek等等,注意关注一下发展脉络,每一代做了哪些优化,不要只看最新版
第三部分:预训练Pre-train过程
预训练任务有哪些,数据配比,数据筛选过滤方法,合成数据,这部分推荐阅读主流大模型开源的技术报告
第四部分:后训练Post-train 过程
这部分是面试过程中考察的第二个重点,般会联合实习项目一起深挖
1.SFT
微调数据构造,数据配比,全参微调,冻结微调,PEFT高效微调(prompt tuning、p-tuning v2、prefix-tuning、adapter-tuning、LoRA及其变体)
CoT,Reasoning等o1系列策略
这部分建议做一个完整项目,加深对每一个步骤的理解
2.RLHF&Aligning
为什么有SFT还需要 RLHF,两者有何区别,RLAIF,ReFT,OpenAl做RLHF的过程,里面的几个模型分别是怎么运作的,DPO的原理和实现,PPO和DPO对比,DPO有哪些问题以及如何优化,SimPO,KTO,ORPO,GRPO等等
第五部分:模型压缩与量化
了解各种量化方式,GPTQ,AWQ等,各种量化精度,训练显存计算
第六部分:专家模型 MOE
了解MOE结构及其原理,训练思路,推荐看知乎上关于 MOE的万字长文介绍
第七部分:RAG&Agent
借助 LangChain框架学习RAG流程,了解文档分块,向量模型训练,多种检索策略等关键步骤
Agent的几个框架,如ReAct,Reflexion等了解基本思路
第八部分:部署&分布式训练&推理加速
windows、ios、Android多端部署框架flash attention,vllm,accelerate等推理加速框架
Deepspeed,Megatron等分布式训练框架
第九部分:模型评估
阅读理解、问答、代码生成、数学等多个维度评估 Benchmark
检测 LLM 真实性、流畅度、幻觉等如何利用LLM 对其他模型/任务做评估
第十部分:其他结构
Mamba,RWKV等
建议大家在学习基础知识的同时,配合相关paper和源码一起,进一步加深理解 LLM更新迭代非常快,平时可以多关注一些新的动态,闲着没事多刷刷三大会。