首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
机器学习算法
订阅
天华乐飞
更多收藏集
微信扫码分享
微信
新浪微博
QQ
15篇文章 · 0订阅
[译] 对比归一化和标准化 —— 量化分析
停止使用 Sklearn 提供的 StandardScaler 作为你的特征压缩方法甚至可以让你训练好的模型有 7% 的准确率提升。 两个最热议的方法就是归一化和标准化。归一化通常来说是将数值压缩到 [0,1] 范围内。标准化指的是重新调整数据,使数据到均值为 0,标准差为 1…
利用Python中的numpy包实现PR曲线和ROC曲线的计算
闲来无事,边理解PR曲线和ROC曲线,边写了一下计算两个指标的代码。在python环境下,sklearn里有现成的函数计算ROC曲线坐标点,这里为了深入理解这两个指标,写代码的时候只用到numpy包。事实证明,实践是检验真理的唯一标准,在手写代码的过程中,才能真正体会到这两个评…
我是这样理解--SVM,不需要繁杂公式的那种!(附代码)
1. 讲讲SVM 支持向量机(Support Vector Machine,SVM)是众多监督学习方法中十分出色的一种,几乎所有讲述经典机器学习方法的教材都会介绍。关于SVM,流传着一个关于天使与魔鬼的故事。 传说魔鬼和天使玩了一个游戏,魔鬼在桌上放了两种颜色的球。魔鬼让天使用…
终于有人说清楚了--XGBoost算法
1. 什么是XGBoost XGBoost是陈天奇等人开发的一个开源机器学习项目,高效地实现了GBDT算法并进行了算法和工程上的许多改进,被广泛应用在Kaggle竞赛及其他许多机器学习竞赛中并取得了不错的成绩。 说到XGBoost,不得不提GBDT(Gradient Boost…
从似然函数到EM算法(附代码实现)
1. 什么是EM算法 最大期望算法(Expectation-maximization algorithm,又译为期望最大化算法),是在概率模型中寻找参数最大似然估计或者最大后验估计的算法,其中概率模型依赖于无法观测的隐性变量。 第二步是最大化(M),最大化在E步上求得的最大似然…
如何区分生成模型和判别模型?
监督学习的目标是学习的得到一个模型,通过这个模型对给定的输出,得到一个特定的输出,从而预测该数据的类别。这个模型可以称为 classifier。这个模型对应的函数一般是 或者是 (在数理统计中,随机变量是,样例是)。 对于决策函数类型,需要设置一个阈值用于判断。 对于条件概率分…
分享一波关于做Kaggle比赛,天池的经验,看完我这篇就够了
@Author:Jasperyang@School:BUPT这篇文章同时在知乎里放着~写在前面Kaggle的数据挖掘比赛近年来很火,以至于中国兴起了很多很多类似的比赛,做了两个这种类型的比赛了,Jda
[译] 使用谷歌 FACETS 可视化机器学习数据集
关于大量的训练数据如何对机器学习模型的结果产生巨大的影响,已经有很多的讨论。然而,随着数据量的增加,要构建一个强大且健壮的机器学习系统,数据质量也非常关键。毕竟“输入糟粕,输出糟粕”,也就是说,你从系统中得到的东西会体现出你提供给系统的东西。 一个机器学习数据集有时包含数千到数…