首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
人工智能-机器学习
欧阳胖胖
创建于2023-04-22
订阅专栏
学习人工智能之机器学习
等 9 人订阅
共67篇文章
创建于2023-04-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
机器学习基础-监督学习-标签转移学习之标签迁移
标签迁移(Label Transfer)是标签转移学习中的一个关键步骤,它将已有的标签知识从源任务迁移到目标任务上。
机器学习基础-监督学习-标签转移学习之特征提取
特征提取是机器学习和深度学习中的一个重要步骤,用于从原始数据中提取出有用的、能够表征数据特征的表示。在许多任务中,原始数据可能是高维的、复杂的,通过特征提取可以将其转化为更加简洁、信息丰富的表示形式。
机器学习基础-监督学习-标签转移学习之基础模型的训练
基础模型的训练是标签转移学习中的一个重要步骤。通过训练基础模型,我们可以学习到从输入数据到标签的映射关系,从而获得模型在源任务上的表现。
机器学习基础-监督学习-标签增强之标签标签插值(Label Interpolation)
标签插值(Label Interpolation)是一种标签增强技术,用于在回归问题或连续标签的分类问题中生成介于两个标签之间的新标签。插值方法基于两个已知标签之间的线性或非线性关系。
机器学习基础-监督学习-标签增强之标签扰动(Label Perturbation)
标签扰动(Label Perturbation)是一种标签增强技术,通过引入一定的噪声或随机变化来生成具有相似语义含义但略有差异的新标签。
机器学习基础-监督学习-标签增强之标签平移(Label Shift)
标签平移(Label Shift)是一种常见的标签增强技术,它通过对原始标签进行平移操作,生成具有相似语义含义但略有差异的新标签。
机器学习基础-监督学习-标签噪声处理之期望最大化
期望最大化(Expectation-Maximization,简称 EM)是一种经典的迭代优化算法,用于解决含有潜在变量(或未观测变量)的统计模型的参数估计问题。
机器学习基础-监督学习-标签噪声处理之多数投票(Majority Voting)
多数投票(Majority Voting)是一种常用的标签噪声处理方法,它通过利用多个模型的预测结果来消除标签噪声的影响。
机器学习基础-监督学习-标签噪声处理之清洗和修正标签
清洗和修正标签是一种标签噪声处理方法,它涉及对标签数据进行人工检查和修正。该方法适用于数据集中标签噪声比例较低的情况。
机器学习基础-监督学习-标签编码之哈希编码(Hash Encoding)
哈希编码(Hash Encoding)是一种将标签映射为固定长度的二进制数的编码方法,其中相同的标签映射为相同的二进制数,不同的标签映射为不同的二进制数。
机器学习基础-监督学习-标签编码之频率编码(Frequency Encoding)
频率编码(Frequency Encoding)是一种标签编码方法,它将每个标签都映射为其出现频率。在分类问题中,频率编码可以用于解决标签之间距离和相关性不明显的问题。
机器学习基础-监督学习-标签编码之二进制编码(Binary Encoding)
二进制编码(Binary Encoding)是一种将每个标签都映射为一个二进制数的编码方法,其中每一位代表一个可能的取值。相比于独热编码,二进制编码可以减少编码的位数,适用于标签数量较少的问题。
机器学习基础-监督学习-标签编码之独热编码(One-Hot Encoding)
独热编码(One-Hot Encoding)是一种常用的标签编码方法,通常用于将标签转换为适合机器学习算法使用的格式。
机器学习基础-监督学习-标签编码之标签映射(Label Encoding)
标签映射(Label Encoding)是一种常见的标签编码方法,将每个标签都映射为一个整数,常用于分类问题。在标签数量较少的情况下,标签映射可以简单有效地将标签转换为数字表示。
机器学习基础-监督学习-标签编码
在有监督学习中,标签编码是将标签映射为计算机可处理的格式的过程。通常,在分类问题中,我们需要将每个类别的标签映射为一个独热向量。
机器学习基础-监督学习-标签平衡处理之 ROSE
ROSE (Random Over-Sampling Examples) 是一种基于样本生成的过采样方法,它通过对少数类样本进行样本生成,以增加数据集中的少数类样本数量。
机器学习基础-监督学习-标签平衡处理之 ADASYN(Adaptive Synthetic Sampling)
ADASYN(Adaptive Synthetic Sampling)是一种基于 SMOTE 的过采样方法,它通过计算每个少数类样本周围的多数类样本比例,决定需要产生的新样本数量。
机器学习基础-监督学习-标签平衡处理之 Safe-Level-SMOTE
Safe-Level-SMOTE 是一种基于 SMOTE 的过采样方法,它不仅考虑了少数类样本之间的距离,还考虑了多数类样本之间的距离,以避免产生噪声样本。
机器学习基础-监督学习-标签平衡处理之 Borderline-SMOTE
Borderline-SMOTE 是基于 SMOTE 的一种改进版本,它只对那些靠近多数类的少数类样本进行过采样,从而避免了对所有少数类样本进行过采样可能导致的过拟合问题。
机器学习基础-监督学习-标签平衡处理之 SMOTE(Synthetic Minority Over-sampling Technique)
SMOTE(Synthetic Minority Over-sampling Technique)是一种基于 K 近邻的过采样方法,它可以根据少数类样本之间的距离,
下一页