深度学习基础与概念 | 学习笔记 | 深度学习革命

287 阅读9分钟

修订历史:

  • 2025/06/16 记录《深度学习基础与概念》笔记

1 学习方法

1.1 如何学习

1.1.1 教材特点

  1. 系统性
    • 知识体系完整:内容从基础概念到前沿架构依次展开。首先介绍发展历程、基本概念及多领域应用;接着深入讲解支撑深度学习的数学原理;随后阐述基础网络模型(单层、多层、深度神经网络),并涵盖前沿网络架构(如卷积神经网络、Transformer等)。
  2. 理论性
    • 算法原理详尽:对基础网络模型的结构、功能、优化方法及其应用进行了全面介绍。同时,对正则化、采样、潜变量、生成对抗网络、自编码器、扩散模型等关键技术的原理、算法流程及实际应用场景也进行了深入探讨。
  3. 实践性
    • 习题丰富:从第2章起,提供了不同难度的练习题,帮助读者巩固所学知识。

1.1.2 如何学习?

call_6ba6065f-4ab7-11f0-a7c0-dedd051c5c7e_0.png

1.2 如何做笔记

对于不同知识类型,建议的做笔记方法。

知识类型学习阶段推荐组合
理论体系掌握期脑图(框架)
表格(对比)
列表(考点)
技能/习题操作巩固期列表(步骤)
表格(错误库)
脑图(关联)
创意设计发散期脑图(灵感)
列表(筛选)
表格(方案比选)

在本阶段学习中,重点在于夯实理论基础,因此笔记的记录方法如下:

  1. 脑图搭框架;
  2. 表格列对比;
  3. 要点列清单。

备注

  • 以上三种笔记方法的对比总结如下
方法类型核心逻辑适用场景工具推荐操作要点优缺点对比
列表法层级化结构梳理知识框架课堂速记/项目拆解/线性知识整理workflowy、Obsidian① 分层缩进记录 ② 关键词提炼(≤5个/层) ③ 动态调整分支✅ 逻辑清晰易检索 ❌ 发散性弱
表格法结构化对比与信息整合概念对比/数据整理/流程分析Excel、石墨文档、手绘表格① 纵向分类属性 ② 横向对比差异 ③ 突出核心指标(加粗/变色)✅ 对比效率高 ❌ 创意表达受限
脑图法可视化关联与知识网络构建复杂系统分析/创意发散/跨领域整合XMind、幕布、手绘思维导图① 中心主题发散 ② 关键词节点连接 ③ 色块/图标标注✅ 发散性强 ✅ 记忆留存高 ❌ 细节易丢失
组合策略三法联动提升学习闭环综合型学习/团队协作/长期知识管理Notion、飞书多维表格、Obsidian① 脑图→列表分解任务 ② 表格→数据验证 ③ 列表→脑图重构体系✅ 形成完整认知闭环 ❌ 学习曲线陡峭

2 【深度学习革命】笔记

深度学习革命.png

2.1 术语与定义

中文术语英文术语及缩写教程中定义解释(零基础版)
机器学习Machine Learning, ML通过数据让计算机自动学习规律,以完成特定任务(如图像识别、预测等)教电脑自己总结规律(比如看100张猫图后,手机就能自动识别新猫图)
误差函数Error Function量化模型预测值与真实值之间差异的函数给模型打分的"错题本"(比如手机把狗识别成猫,就会在这本子上记1分错误)
损失函数Loss Function误差函数的一种,通常用于优化过程中计算损失值模型的"综合成绩单"(包含错题分数+额外扣分项,比如抄作业会多扣10分)
模型比较Model Comparision通过交叉验证等指标评估不同模型的泛化性能给不同AI模型办选秀比赛(比较谁在陌生题库上的正确率更高)
模型选择Model Selection基于验证集表现选择最优超参数组合的过程给AI选装备(调整学习速度、记忆容量等参数,找到最佳配置)
均方根Root Mean Square, RMS一种衡量误差大小的统计量,计算预测值与真实值差的平方的平均值的平方根全班数学平均分的计算方法(先平方消负数,再开根号)
正则化Regularization为防止模型过拟合而加入的约束项,限制模型复杂度给AI戴"紧箍咒"(限制它死记硬背训练数据,必须总结通用规律)
收缩方法Shrinkage通过数学手段使模型参数值减小,避免过拟合让AI参数像保守的投资者(只投资低风险项目,放弃高收益高风险)
权重衰减Weight Decay一种正则化方法,通过惩罚权重的大小来限制模型复杂度训练模型前需要人工设置的参数(如:学习时间和学习强度)
超参数Hyperparameter在模型训练前需要手动设置的参数,如学习率、正则化参数等训练模型前需要人工设置的参数(如:学习时间和学习强度)
交叉验证Cross-validation将数据集分成多个子集,用其中一部分进行测试,其余进行训练,多次重复以评估模型稳定性用不同数据组合反复测试模型稳定性(类似多次模拟考试)
留一法Leave-one-out一种极端的交叉验证方法,每次只留一个样本作为测试集最严格的交叉验证方式(每次只用1个样本测试)
预激活Pre-activation神经网络中,输入数据经过加权求和但尚未通过激活函数处理的阶段输入数据经过处理但还没决定是否激活前的步骤(如:食材准备阶段)
激活函数Activation Function用于将预激活值转换为神经元的输出值,引入非线性因素决定神经元是否被激活的"开关"(类似电路中的继电器)
激活Activation激活函数处理后的神经元输出值神经元被激活后的状态(开关打开后的电流状态)
多层感知机Multi Layer Perceptron, MLP一种简单的前馈神经网络,包含多个隐藏层最简单的深度学习模型(像多层筛子过滤信息)
隐藏单元Hidden Unit神经网络中不可见的计算单元,用于提取数据特征神经网络中不可见的计算单元(如:大脑的"黑箱"区域)
前馈神经网络Feed-forward Neural Network信息从输入层单向流向输出层的神经网络信息单向流动的神经网络(像流水线作业)
反向传播Error Backpropagation通过误差反向传播更新网络权重的方法从错误反向调整参数的过程(类似考试后订正错题)
随机梯度下降Stochastic Gradient Descent一种基于梯度的优化算法,通过随机选择样本计算梯度逐步逼近最优解的优化方法(像盲人摸象找出口)
先验知识Prior Knowledge在训练模型之前已有的知识或假设训练前已有的知识储备(如:知道企鹅不会飞)
归纳偏执Inductive Bias模型在学习过程中所依赖的假设或倾向模型固有的假设倾向(如:认为鸟都会飞)
特征提取Feature Extraction从原始数据中提取有用信息的过程从原始数据中提取关键信息(如:从照片中提取颜色、形状)
图形处理单元Graphics Processing Unit, GPU一种专门用于图形计算的硬件加速器专门处理图像计算的超级计算器(游戏显卡的升级版)
表示学习/表征学习Representation Learning让数据自动形成有意义的表达方式让数据自动形成有意义的表达方式(如:将文字转成数学特征)
基础模型Foundation Model经过海量数据预训练的通用模型,可用于多种下游任务经过海量数据预训练的通用模型(如:GPT-3)
残差连接Residual Connection在神经网络中引入的直接连接,允许信息绕过某些层神经网络中的"快捷通道"(绕过中间层直接传递信息)
自动微分Automatic Differentiation计算函数导数的自动化方法计算机自动计算导数的技术(数学工具的自动化)
测试集Test Set用于最终评估模型性能的数据集,模型在训练过程中未见过模型最终检验的"考试卷"(不能提前看的内容)
过拟合Over-fitting模型在训练数据上表现很好,但在新数据上表现很差的现象考前死记100道原题,考试换一道题就全错
欠拟合Under-fitting模型在训练数据上表现不佳,通常是因为模型过于简单用算盘计算火箭轨道(工具太原始,根本算不出来)
数据增强Data Augmentation通过对数据进行变换(如旋转、缩放等)来增加数据多样性给训练图片加滤镜(旋转、裁剪、加噪点,让AI看到更多变形)
注意力机制Attention Mechanism让模型聚焦重要信息阅读时重点标记关键词(AI会自动标出最相关的句子)
TransformerTransformer基于注意力机制的神经网络架构,用于处理序列数据现代AI的"智能大脑"(像乐高积木,可自由组合不同功能模块)
微调Fine-tune在预训练模型上继续训练给老司机换新车(保留原有驾驶技能,适应新车型)
提示词工程Prompt Engineering设计有效的提示词,以引导模型生成期望给AI写"任务说明书"(比如:"用武侠风格写200字产品介绍")
强化学习Reinforcement Learning基于环境交互和奖励信号的学习范式训练宠物做指令(通过奖励正确行为,逐步学会新技能)
马尔可夫决策过程Markov Decision Process, MDP描述智能体与环境交互的数学框架游戏角色的"决策手册"(每一步动作都考虑当前状态)
奖励函数Reward Function定义在强化学习中,用于衡量行为好坏的函数游戏的"得分规则"(打怪+10分,捡装备+5分)
探索与利用Exploration vs Exploitation在强化学习中平衡尝试新行为与利用已知好行为的策略旅游时的选择困境(是去新景点探险,还是回老地方打卡)

补充说明:建议学习顺序

  1. 基础概念:机器学习 → 监督/无监督 → 训练集/验证集/测试集
  2. 核心组件:神经网络 → 激活函数 → 损失函数 → 优化算法
  3. 进阶技术:正则化 → 梯度下降 → 预训练 → 微调
  4. 现代AI:Transformer → 注意力机制 → 基础模型 → 提示词工程