首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
烧灯续昼2002
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 3
沸点 1
赞
4
返回
|
搜索文章
最新
热门
逻辑回归-岭回归和Lasso的系数位置
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 14 天,点击查看活动详情 The logistic regression is implemented in LogisticR
XGBoost-XGBoost 中验证相关参数梳理和解释
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 13 天,点击查看活动详情 xgb params 中的参数 evals_metric Evaluation metrics for
GBDT-sklearn (有错误已更正)GradientBoostingRegressor 中 loss 和 criterion 可能是同一个参数
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 12 天,点击查看活动详情 先看代码 先设置 loss 为 squared_error,criterion 为 mae,然后设置
XGBoost-XGBoost objective 参数部分选项解释
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 11 天,点击查看活动详情 首先 objective 是目标函数的意思,也就是建模的时候,需要最小化的函数 binary:logi
HyperOpt-quniform 范围问题
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 10 天,点击查看活动详情 在使用 quniform 的时候,可能会出现超出指定范围的值,例如对于 GBDT 设置参数空间为 'l
GBDT-为什么 GBDT 优于随机森林和决策树
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 8 天,点击查看活动详情 首先要理解的是决策树、随机森林和 GBDT 的偏差都不大。决策树和 bagging 是因为决策树模型本身
GBDT-f_t(x_i)取值问题的理解
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 7 天,点击查看活动详情 f_t(x_i) 可能存在下限 个人理解,在 $l$ 为平方误差的时候,$f_{t}(x)$ 是有范围的
Anaconda 一直卡在 Initializing
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 7 天,点击查看活动详情 首先看一下是不是和我是同一个问题,强制关闭正在打开的 anaconda,然后断网,尝试打开 anacon
支持向量机-关于predict_proba、decision_function
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 6 天,点击查看活动详情 前一篇文章中,对 有疑问,为什么比阈值大的标签就是1,反之就是0,本篇文章就是来探讨这个问题,并对dec
逻辑回归-关于WOE和IV的一些理解
开启掘金成长之旅!这是我参与「掘金日新计划 · 2 月更文挑战」的第 5 天,点击查看活动详情 理解WOE和IV IV的定义公式 $$ \text{IV}=\sum\limits_{i=1}^{N}(
下一页
个人成就
文章被点赞
20
文章被阅读
27,645
掘力值
1,432
关注了
5
关注者
17
收藏集
0
关注标签
5
加入于
2022-08-26