首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
IT古董
掘友等级
新趋势探索
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】253.超平面(Hyperplane)
超平面(Hyperplane)详解:从二维到高维空间 在机器学习、深度学习、支持向量机(SVM)等领域中,经常会遇到一个重要的数学概念——超平面(Hyperplane) 。...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】252.零损失(0-1 Loss)
零一损失函数(0-1 Loss)详解及应用 在机器学习和统计建模中,损失函数用于衡量模型预测值与真实值之间的差距。今天,我们详细介绍一种最简单、直观但又很重要的损失函数——...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】251.约登指数(Youden's Index)
详解约登指数(Youden's Index):公式、理解与应用 在二分类模型的评估指标中,**约登指数(Youden's Index)**是一项非常重要但常被忽视的指标。今...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】250.异或函数(XOR Function)
异或函数(XOR Function)详解 在机器学习、深度学习、逻辑电路设计等领域,异或函数(XOR Function) 是一个极其重要且具有代表性的基础函数。今天,我们通...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】249.Word2Vec自然语言训练模型
【自然语言处理】用 Word2Vec 将词语映射到向量空间详解 一、背景介绍 在自然语言处理(NLP)领域,我们常常需要将文本信息转化为机器能够理解和处理的形式。传统的方法...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】248.什么是代价(损失)函数(Why It Called A Cost Function)
什么是代价(损失)函数?——深入理解与应用 在机器学习与深度学习领域,我们经常听到“代价函数(Cost Function)”或者“损失函数(Loss Function)”这...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】247.当 N=整个母体(WHEN N=POPULATION)
当样本就是整个母体时,为什么我们仍然需要做统计? 在数据科学与统计学的学习中,有一个非常有趣、又容易引起误解的问题: 这听起来似乎是个合理的质疑。毕竟,如果数据已经完整,直...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】246.何时有缺失值的样本才可删除?(When Can We Delete Observations With Missing Values
何时可以删除缺失值样本?——详解缺失数据处理策略 在实际的数据分析与机器学习过程中,我们经常会遇到缺失值(Missing Values)。缺失值的存在会影响模型的性能,降低...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】245.权重衰减(Weight Decay)
权重衰减(Weight Decay)详解 | L2正则化的奥秘 在深度学习和机器学习模型训练中,我们常常面临 过拟合(Overfitting) 的问题。 为了提高模型在未见...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】244.弱学习器(Weak Learners)
弱学习器(Weak Learners)详解 | 提升(Boosting)算法的基石 在机器学习和集成学习(Ensemble Learning)领域中,弱学习器(Weak L...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】243.数值下溢(Underflow)
深入理解数值下溢(Underflow):原理、影响与解决方案 一、什么是数值下溢(Underflow)? 在计算机中,数值都是以有限位数进行存储和计算的。当某个数字太小,小...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】242.欠拟合(Underfitting)
欠拟合(Underfitting)全面解析:原因、表现与解决方案 一、什么是欠拟合? 在机器学习中,当模型无法充分捕捉训练数据中的潜在模式时,就会发生**欠拟合(Under...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】241.典型丢弃概率(Typical Dropout Probabilities)
深度学习中的典型Dropout概率解析 一、引言 在深度学习模型中,为了防止模型过拟合(Overfitting),我们通常会采用多种正则化手段。其中,Dropout是一种简...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】240.真正类率(True Positive Rate,TPR)
理解真正类率(True Positive Rate,TPR):公式、意义与应用 在机器学习与深度学习模型评估中,"真正类率"(True Positive Rate,简称TP...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】239.训练错误率(Training Error Rate)
机器学习基础概念 | 训练错误率(Training Error Rate)详解 在机器学习模型训练过程中,评估模型性能是至关重要的一个环节。其中,训练错误率(Trainin...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】238.训练误差与测试误差(Training Error And Test Error)
训练误差与测试误差详解 | Machine Learning基础概念 在机器学习的学习和实践过程中,我们经常会遇到两个重要的概念:训练误差(Training Error)和...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】237. TSS总平方和
深度理解 TSS(总平方和):公式、意义与应用 在机器学习与统计建模领域,评价模型好坏的重要指标之一就是方差与误差分析。其中,TSS(Total Sum of Square...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】236.邻域链接(Tomek Link)
在处理机器学习中的分类问题时,我们经常会遇到数据不平衡或噪声数据过多的问题。尤其是在过采样(如SMOTE)或欠采样之前,如何对数据进行合理清洗,是影响模型性能的关键因素之一...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】235.切分文本(Tokenize Text)
自然语言处理的第一步:切分文本(Tokenize Text)详解 在自然语言处理(NLP)中,切分文本(Tokenization) 是我们面对原始文本时必须迈出的第一步。它...
0
评论
分享
IT古董
新趋势探索
·
8月前
关注
【漫话机器学习系列】234.阈值类特征的方差分析(Thresholding Categorical Feature Variance)
用“方差”筛选分类特征:阈值类特征的方差分析(含公式推导) 在特征工程的世界里,有效地筛选特征对提升模型性能至关重要。特别是处理类别特征(categorical featu...
0
评论
分享
下一页
个人成就
文章被点赞
4
文章被阅读
48,837
掘力值
1,317
关注了
0
关注者
21
收藏集
1
关注标签
62
加入于
2025-03-06