首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
IT古董
掘友等级
新趋势探索
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
【漫话机器学习系列】203.参数 VS 超参数(parameters VS hyperparameters)
在机器学习中,"参数"(parameters)和"超参数"(hyperparameters)是两个非常基础却又容易混淆的概念。理解它们的区别和作用,是深入掌握机器学习的第一步。
【漫话机器学习系列】202.参数共享(Parameter Sharing)
在深度学习中,尤其是卷积神经网络(CNN)中,有一个非常关键却常被忽视的设计思想,那就是——参数共享(Parameter Sharing)。
【漫话机器学习系列】201.正则化的参数范数惩罚(Parameter Norm Penalties for Regularization)
正则化(Regularization)最早源于统计学和机器学习的研究,用于解决模型的*过拟合*(Overfitting)问题。过拟合是指模型在训练集上表现很好,但在测试集上效果很差,泛化能力弱。
【漫话机器学习系列】200.过度拟合(Overfitting)
过度拟合(Overfitting)是指机器学习模型在训练数据上表现得非常好,但在新数据(测试集)上的表现很差。原因是模型把训练数据的特征甚至噪声都记住了,导致泛化能力差。
【漫话机器学习系列】199.过拟合 vs 欠拟合(Overfit vs Underfit)
过拟合是指模型在训练集上表现很好,但在测试集或新数据上效果很差。模型学到了“噪声”或“异常值”的特征。欠拟合是指模型太简单,无法捕捉数据的有效规律,无论在训练集还是测试集上效果都不好。
【漫话机器学习系列】198.异常值(Outlier)
异常值(Outlier)是指那些在数据集中远离其他观测值的点,通常与数据的整体趋势明显不同,可能源于错误、噪声、特殊事件或极端情况。
【漫话机器学习系列】197.外核(Out of Core)
Out of Core(外核计算)指的是:当数据集太大,内存放不下时,通过将数据分批(或按行、按块)从磁盘中读取到内存,进行分段计算或增量学习的一类技术手段。
【漫话机器学习系列】196.袋外数据误差(Out-of-Bag Error, OOB Error)
在随机森林(Random Forest)或Bagging(自助采样)模型中,模型训练过程中会使用Bootstrap抽样(有放回抽样)来构建每一棵子模型的训练集。
【漫话机器学习系列】195.最小二乘法(Ordinary Least Squares, OLS)
最小二乘法(Ordinary Least Squares, 简称 OLS)是统计学和机器学习中最常见的线性回归方法之一。 它的核心思想非常简单直白:找一条最合适的直线,使得所有点到这条直线
【漫话机器学习系列】194.“一对其余”逻辑回归(One-Vs-Rest Logistic Regression)
One-Vs-Rest 逻辑回归 = 把多分类问题转化为多个二分类问题,简单、直观,适用于小类别场景,是机器学习入门多分类的首选思路之一。
下一页
个人成就
文章被点赞
4
文章被阅读
80,609
掘力值
1,382
关注了
0
关注者
29
收藏集
1
关注标签
62
加入于
2025-03-06