不同种类的激活函数及其在感知器中使用的相应损失函数。

114 阅读4分钟

1.感受器学习规则

你听说过感知器学习规则吗?它是机器学习和人工智能中用来帮助计算机识别模式的一种强大算法。它是当今一些最先进技术的基础。在这篇博文中,我们将深入了解感知器学习规则的基本知识和它的工作原理。我们还将看看它的一些应用,以及如何利用它来创建更有效、更强大的人工智能系统。因此,如果你对感知器学习规则及其多种用途感到好奇,请继续阅读。

感受器学习规则

感知器学习规则是一种算法,它使用一个单一的感知器来学习如何对例子进行正确分类。它是一种非常简单的算法,可以用几行代码来概括。它不是最有效的学习算法,但它是最简单和最直接的,这使它成为初学者的一个好选择。它有以下几个步骤:1.从一个有偏置、无权重的感知器开始。2.2. 计算每个输入的感知器的输出。3.3.计算感知器的误差。4.4.根据误差调整权重。达到指定精度水平所需的迭代次数由学习率决定。

不同激活函数的感知器损失函数

感知器损失函数用于计算预测值和实际值之间的误差,它取决于激活函数的选择。如果使用线性激活函数,损失函数就是简单的平均平方误差。如果使用sigmoid激活函数,损失函数是二进制交叉熵。如果使用ReLU激活函数,损失函数是二进制交叉熵的一个变体。最后,如果使用tanh激活函数,损失函数是平均绝对误差。值得注意的是,激活函数的选择会大大影响感知器模型的性能。因此,为你的任务选择最佳激活函数是很重要的。此外,损失函数应根据任务的性质来选择。例如,如果任务是一个分类问题,那么应该使用二进制交叉熵或平均绝对误差函数。另一方面,如果任务是一个回归问题,那么应该使用平均平方误差或平均绝对误差。最后,如果任务是一个异常检测问题,那么应该使用指数损失函数。

image.png

感知器中使用的不同激活函数

损失函数数学。

深度学习中使用的损失函数有几种,这取决于所执行任务的类型。下面是深度学习中使用的一些常见的损失函数,以及它们的数学公式:

  1. 平均平方误差(MSE)损失:MSE是一个用于回归问题的常见损失函数。它衡量的是预测值和真实值之间的平均平方差。

L(y, y') = 1/N * sum((y - y') ²)

其中y是真实值,y'是预测值,N是样本数。

  1. 二元交叉熵损失:二元交叉熵是一个用于二元分类问题的常见损失函数。它测量预测概率和真实标签之间的差异。

L(y, y') = - (y * log(y') + (1 - y) * log(1 - y')

其中y是真实标签(0或1),y'是正类的预测概率。

  1. 分类交叉熵损失:分类交叉熵是一个用于多类分类问题的常见损失函数。它衡量预测的概率分布和真实标签分布之间的差异。

L(y, y') = - sum(y * log(y')

其中,y是真实的标签分布(一热编码),y'是预测的概率分布。

  1. 铰链损失:铰链损失是一个用于支持向量机(SVM)和其他一些分类模型的常见损失函数。它测量预测分数和真实分数之间的差异,对错误分类的惩罚比正确分类更严重。

L(y, y') = max(0, 1 - y * y')

其中,y是真实标签(-1或1),y'是预测分数。

  1. 平均绝对误差(MAE)损失:MAE是一个常用于回归问题的损失函数。它衡量的是预测值和真实值之间的平均绝对差异。

L(y, y') = 1/N * sum(|y - y'|)

其中y是真实值,y'是预测值,N是样本的数量。

这些只是深度学习中使用的许多损失函数的几个例子。损失函数的选择取决于具体的任务和正在使用的模型架构。

image.png

结语

综上所述,感知器是解决复杂问题的有力工具。它接受输入,对其进行加权,并根据输入的加权和与阈值或偏置的比较产生一个二进制输出。感知器学习规则用于调整感知器的权重和偏差,以提高其决策的准确性。它作为现代神经网络的基础概念,是基于相互连接的感知器,共同解决更复杂的问题。通过了解感知器的原理,我们可以对神经网络的内部运作及其潜在的应用有更深的了解。