首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
欧阳胖胖
掘友等级
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2K
文章 1.1K
沸点 844
赞
2K
返回
|
搜索文章
最新
热门
机器学习基础-监督学习-逻辑回归之多元逻辑回归
多元逻辑回归是逻辑回归在多类分类问题上的扩展。在多元逻辑回归中,我们通过使用 softmax 函数将输入特征映射到多个类别的概率分布。
机器学习基础-监督学习-逻辑回归之二元逻辑回归
当我们面对一个二元分类问题时,二元逻辑回归是一种常用的监督学习算法。它基于线性回归模型,并使用逻辑函数(也称为 sigmoid 函数)对输出进行转换,以获得概率估计。
机器学习基础-监督学习-线性回归之多项式回归
多项式回归是一种线性回归的扩展,通过引入多项式特征来拟合非线性关系。下面详细讲解多项式回归的原理,并提供一个 Python 代码示例。
机器学习基础-监督学习-线性回归之多元线性回归
多元线性回归是一种在多个自变量之间建立线性关系的监督学习方法。它可以用于预测一个或多个连续的因变量。下面将详细介绍多元线性回归的原理,并提供一个 Python 代码示例。
机器学习基础-监督学习-线性回归之正则化
正则化是一种常用的机器学习技术,用于控制模型的复杂度,并防止过拟合。通过在目标函数中添加正则化项,可以使得模型倾向于选择较为简单的参数组合。
机器学习基础-监督学习-线性回归之梯度下降法
梯度下降法(Gradient Descent)是一种常用的优化算法,用于求解损失函数的最小值。它通过迭代更新模型参数,沿着损失函数梯度的反方向逐步调整参数,直到达到最优解。
机器学习基础-监督学习-线性回归之最小二乘法
最小二乘法是一种常用的线性回归方法,用于拟合数据并找到最优的模型参数。它通过最小化实际观测值与模型预测值之间的残差平方和来确定最优参数。
机器学习基础-监督学习-目标函数之余弦相似度损失(Cosine Similarity Loss)
余弦相似度损失(Cosine Similarity Loss)用于衡量两个向量之间的余弦相似度,常用于度量两个向量的相似程度。
机器学习基础-监督学习-目标函数之KL散度(Kullback-Leibler Divergence)
KL 散度(Kullback-Leibler Divergence),也称为相对熵(Relative Entropy),是用来衡量两个概率分布之间的差异。
机器学习基础-监督学习-目标函数之Hinge损失(Hinge Loss)
Hinge 损失(Hinge Loss)通常用于支持向量机(Support Vector Machine,SVM)算法中的分类问题。它鼓励正确分类的边界离样本更远,同时惩罚错误分类的边界。
下一页
个人成就
文章被点赞
129
文章被阅读
86,540
掘力值
5,239
关注了
6
关注者
170
收藏集
1
关注标签
1
加入于
2016-06-07