首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
人工智能-机器学习
欧阳胖胖
创建于2023-04-22
订阅专栏
学习人工智能之机器学习
等 9 人订阅
共67篇文章
创建于2023-04-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
机器学习基础-监督学习-标签平衡处理之随机过采样(Random Over Sampling)
随机过采样(Random Over Sampling)是最简单的过采样方法之一,它从少数类样本中随机选择样本进行复制,以增加数据集中少数类样本的数量。
机器学习基础-监督学习-标签平衡处理之 Edited Nearest Neighbors (ENN) 欠采样
Edited Nearest Neighbors (ENN) 是一种基于 KNN 的欠采样方法,它通过移除多数类样本中与少数类样本相似度较低的样本,来实现数据平衡。
机器学习基础-监督学习-标签平衡处理之 Neighborhood Cleaning Rule(NCR)欠采样
Neighborhood Cleaning Rule(NCR)欠采样是一种基于近邻的欠采样方法,它通过找到离少数类样本最近的多数类样本,并根据它们之间的距离来删除部分多数类样本,以达到类别平衡的目的。
机器学习基础-监督学习-标签平衡处理之 One-Sided Selection(一侧选择)
One-Sided Selection(一侧选择)是一种欠采样方法,它是结合了 Tomek links 欠采样和 KNN 欠采样的思想。
机器学习基础-监督学习-标签平衡处理之重心欠采样(Centroid Under-Sampling)
重心欠采样(Centroid Under-Sampling)是一种基于聚类的欠采样方法。该方法通过找到多数类样本的聚类中心,然后删除距离聚类中心最近的一些多数类样本,以达到平衡数据集的目的。
机器学习基础-监督学习-标签平衡处理之Tomek-links欠采样
Tomek links 欠采样是一种欠采样方法,其思想是删除在 Tomek links 中较多的多数类样本,以使得多数类样本数量与少数类样本数量相近。
机器学习基础-监督学习-标签平衡处理之随机欠采样(Random Under-Sampling)
随机欠采样(Random Under-Sampling)是最简单的欠采样方法之一,其思想是从多数类样本中随机删除一些样本,使得多数类样本数量与少数类样本数量相近。
机器学习基础-监督学习-有监督标签之标签平衡处理
标签平衡处理是针对不平衡的数据集,通过对标签进行处理来平衡不同类别样本的数量。常见的标签平衡处理方法包括欠采样和过采样两种。
机器学习基础-监督学习-有监督标签
有监督标签是指在监督学习中使用的标签,它与训练数据的特征一起被用来训练模型。在有监督学习中,我们通常会提前知道样本的标签,然后使用这些标签来训练模型。
机器学习基础-监督学习-标签
在监督学习中,标签是指样本的正确输出值,也称为目标变量、因变量。在训练模型时,我们通常需要使用训练数据中的标签来调整模型的参数,使其能够预测正确的输出。
机器学习基础-监督学习-特征向量
特征向量是线性代数中的一个重要概念,常常被应用于数据降维、图像处理、信号处理等领域。在机器学习中,特征向量通常用于表示一个样本的特征。
机器学习基础-监督学习-测试数据之AUC(Area Under Curve)
AUC(Area Under Curve)值是 ROC 曲线(Receiver Operating Characteristic Curve)下的面积,用于评估二分类模型的性能。
机器学习基础-监督学习-测试数据之F1值和ROC曲线
F1 值是衡量二分类模型性能的一种指标,它是精确率和召回率的调和平均数,可以综合考虑模型的准确性和召回率。ROC 曲线是用于评估二分类模型性能的一种常用工具。
机器学习基础-监督学习-测试数据之准确率和召回率
准确率是用于衡量分类模型性能的指标之一,表示模型在所有分类样本中正确分类的比例。准确率越高,模型的性能越好。召回率(Recall)是衡量分类模型性能的一个重要指标之一。
机器学习基础-监督学习-训练数据-数据转换和标准化
数据转换和标准化是监督学习中常用的数据处理方法之一。在这里,我们将详细介绍两种常用的数据标准化方法:Z-score 标准化和最大最小值标准化。
机器学习基础-监督学习-训练数据-特征选择之Embedded方法
Embedded 方法是一种特征选择技术,它将特征选择嵌入到模型训练过程中,通过正则化方法来减少不重要的特征对模型的影响。
机器学习基础-监督学习-训练数据-特征选择之Wrapper方法
Wrapper 方法是一种特征选择方法,它将特征选择问题转化为子集选择问题,使用模型的性能作为评估指标,选择最优的特征子集。
机器学习基础-监督学习-训练数据-特征选择之Filter方法
Filter 方法是一种特征选择技术,通过对特征进行评估和排名,选择排名靠前的特征用于训练模型。Filter 方法的主要优点是计算速度快,不需要训练模型即可完成特征选择。
机器学习基础-监督学习-特征提取之特征哈希(Feature Hashing)
特征哈希(Feature Hashing)是一种常用的特征提取技术,它可以将高维特征空间映射到低维空间,以减少特征向量的维数。特征哈希适用于特征空间非常大的情况下,可以有效地减少内存占用和计算时间。
机器学习基础-监督学习-训练数据-特征提取之独立成分分析(ICA)
独立成分分析(Independent Component Analysis,简称 ICA)是一种数据分析和特征提取方法,主要用于多个随机变量之间的分离和独立成分的提取。
下一页