一、本堂课重点内容
1.神经网络的训练过程
2.神经网络的输入和输出
3.神经网络的预测推理
4.神经网络的损失函数
5.梯度下降法
6.ChatGPT 的预训练
二、详细知识点介绍
1.神经网络的训练:目前,神经网络最常用的模型训练方法为监督学习(Supervised Learning) 。监督学习的目标,是通过给定的输入(ChatGPT 的输入文本)和输出(ChatGPT 的输出文本)数据来学习一个函数,使得对于新的输入数据,可以预测其对应的输出。在监督学习中,我们通常将输入数据称为特征,将输出数据称为标签或目标变量。简单来讲,监督学习就像是一位老师在教学生做题一样。老师会给学生一些已知的问题(输入数据)和答案(输出数据),让学生通过观察这些问题和答案的关系,学会如何解决新的问题(模型拟合),如考试题等等。
2.梯度下降法:梯度下降法是一种常用的优化算法,用于求解函数的最小值。在机器学习中,我们通常使用梯度下降法来更新模型的参数,使得损失函数最小化。 梯度下降法的基本思想是沿着函数的负梯度方向不断迭代,直到达到最小值。
三、实践练习例子
练习 1:梯度下降法
1.初始化参数
随机初始化模型参数
2.定义损失函数
损失函数衡量预测值和真实值之间的差异。
3.计算损失函数的梯度
对模型参数求损失函数的梯度,表示损失函数相对于参数的变化率。
4.更新参数
使用梯度下降公式更新参数。
5.重复迭代
不断重复步骤 3 和 4,直到损失函数收敛或达到指定的迭代次数。
四、课后总结
1.监督学习是根据数据,对模型参数进行拟合,在神经网络模型中非常常用。
2.监督学习最常用的损失函数是交叉熵。
3.监督学习采用梯度下降法进行模型的参数训练。
4.ChatGPT 的预训练就是一个监督学习过程。