Datawhale X 李宏毅苹果书 AI夏令营 Task 2

59 阅读2分钟

教材阅读

  1. 分类与回归的关系
  • 分类问题可以看作是回归问题的一种特例。分类的目标是预测一个离散的类标签,而回归则是预测一个连续的数值。
  1. 独热向量表示
  • 在分类问题中,常用独热向量(One-Hot Encoding)来表示类标签。每个类对应一个向量,其中只有一个位置为1,其余位置为0。
  1. Softmax函数
  • Softmax函数用于将模型的输出转换为概率分布,使得输出值归一化到0到1之间,并且所有输出值之和为1。它特别适用于多分类问题。
  1. 交叉熵损失函数
  • 交叉熵是分类问题中常用的损失函数,用于度量预测概率分布与实际分布之间的差异。与均方误差相比,交叉熵在处理分类问题时更为有效。
  1. 分类中的优化
  • 在使用Softmax和交叉熵损失时,优化过程更容易收敛,尤其是当损失表面较为复杂时,交叉熵能帮助模型更好地进行梯度下降。

代码实践

注意事项

  1. 数据预处理

    • 确保图像数据已经标准化(如归一化到[0, 1]范围)。
    • 数据增强(如旋转、缩放)可以提高模型的泛化能力。
  2. 网络结构

    • 选择合适的卷积层和池化层的组合。
    • 适当调整卷积核的数量和大小以适应数据的复杂度。
  3. 训练参数

    • 设置适当的学习率,避免过大或过小。
    • 调整批量大小(Batch Size)以平衡计算资源和训练效果。
  4. 过拟合和欠拟合

    • 使用验证集来监控模型的表现,避免过拟合。
    • 调整模型复杂度,避免欠拟合。
  5. 模型评估

    • 使用准确率、精确率、召回率等指标来评估模型性能。
    • 在测试集上进行最终评估,确保模型的泛化能力。
  6. 计算资源

    • 确保有足够的计算资源(如 GPU)来加速训练过程。