模型训练基础:监督学习与 ChatGPT 预训练 | 豆包MarsCode AI刷题

112 阅读2分钟

一、本堂课重点内容

1.神经网络的训练过程

2.神经网络的输入和输出

3.神经网络的预测推理

4.神经网络的损失函数

5.梯度下降法

6.ChatGPT 的预训练

二、详细知识点介绍

1.神经网络的训练:目前,神经网络最常用的模型训练方法为监督学习(Supervised Learning)  。监督学习的目标,是通过给定的输入(ChatGPT 的输入文本)和输出(ChatGPT 的输出文本)数据来学习一个函数,使得对于新的输入数据,可以预测其对应的输出。在监督学习中,我们通常将输入数据称为特征,将输出数据称为标签或目标变量。简单来讲,监督学习就像是一位老师在教学生做题一样。老师会给学生一些已知的问题(输入数据)和答案(输出数据),让学生通过观察这些问题和答案的关系,学会如何解决新的问题(模型拟合),如考试题等等。

2.梯度下降法:梯度下降法是一种常用的优化算法,用于求解函数的最小值。在机器学习中,我们通常使用梯度下降法来更新模型的参数,使得损失函数最小化。 梯度下降法的基本思想是沿着函数的负梯度方向不断迭代,直到达到最小值。

三、实践练习例子

练习 1:梯度下降法
1.初始化参数

随机初始化模型参数

2.定义损失函数

损失函数衡量预测值和真实值之间的差异。

3.计算损失函数的梯度

对模型参数求损失函数的梯度,表示损失函数相对于参数的变化率。

4.更新参数

使用梯度下降公式更新参数。

5.重复迭代

不断重复步骤 3 和 4,直到损失函数收敛或达到指定的迭代次数。

四、课后总结

1.监督学习是根据数据,对模型参数进行拟合,在神经网络模型中非常常用。

2.监督学习最常用的损失函数是交叉熵。

3.监督学习采用梯度下降法进行模型的参数训练。

4.ChatGPT 的预训练就是一个监督学习过程。