首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
我的
订阅
欧阳胖胖
更多收藏集
微信扫码分享
微信
新浪微博
QQ
56篇文章 · 1订阅
机器学习基础-监督学习-线性回归之多项式回归
多项式回归是一种线性回归的扩展,通过引入多项式特征来拟合非线性关系。下面详细讲解多项式回归的原理,并提供一个 Python 代码示例。
机器学习基础-监督学习-线性回归之正则化
正则化是一种常用的机器学习技术,用于控制模型的复杂度,并防止过拟合。通过在目标函数中添加正则化项,可以使得模型倾向于选择较为简单的参数组合。
机器学习基础-监督学习-线性回归之最小二乘法
最小二乘法是一种常用的线性回归方法,用于拟合数据并找到最优的模型参数。它通过最小化实际观测值与模型预测值之间的残差平方和来确定最优参数。
机器学习基础-监督学习-目标函数之余弦相似度损失(Cosine Similarity Loss)
余弦相似度损失(Cosine Similarity Loss)用于衡量两个向量之间的余弦相似度,常用于度量两个向量的相似程度。
机器学习基础-监督学习-目标函数之Hinge损失(Hinge Loss)
Hinge 损失(Hinge Loss)通常用于支持向量机(Support Vector Machine,SVM)算法中的分类问题。它鼓励正确分类的边界离样本更远,同时惩罚错误分类的边界。
机器学习基础-监督学习-目标函数之交叉熵损失(Cross-Entropy Loss)
交叉熵损失(Cross-Entropy Loss)是一种常用的目标函数,主要用于二分类或多分类问题中衡量预测结果与真实标签之间的差异。它是基于信息论的概念,通过比较两个概率分布的差异来计算损失。
机器学习基础-监督学习-目标函数之均方根误差(Root Mean Squared Error,RMSE)
均方根误差(Root Mean Squared Error,RMSE)是一种广泛应用于回归问题的评估指标,它衡量了预测值与真实值之间的平均差异。
机器学习基础-监督学习-线性回归之模型定义
在监督学习中,模型定义是指如何建立输入特征和输出标签之间的关系。不同的算法有不同的模型定义方法:线性回归模型定义、逻辑回归模型定义、支持向量机模型定义、决策树模型定义
机器学习基础-监督学习-损失函数
损失函数(Loss Function)是在监督学习任务中用于衡量模型预测结果与真实标签之间的差异的函数。其目标是最小化预测结果与真实值之间的差异,从而使模型能够更好地拟合训练数据。
机器学习基础-监督学习-无监督标签之降维
降维是一种常见的无监督学习任务,其目标是将高维数据映射到低维空间,以减少数据的特征维度,同时保留数据的关键结构和信息。