首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
武子康
掘友等级
后端工程师
永远好奇 无限进步
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
292
文章 215
沸点 77
赞
292
返回
|
搜索文章
赞
文章( 215 )
沸点( 77 )
大数据-203 scikit-learn 决策树剪枝参数:max_depth/min_samples_leaf 到 min_impurity_decrease
scikit-learn 决策树剪枝(预剪枝)在工程落地中的常用参数:max_depth、min_samples_leaf、min_samples_split、max_features、min_imp
大数据-202 sklearn 决策树实战:criterion、Graphviz 可视化与剪枝防过拟合
DecisionTreeClassifier 在 load_wine 数据集完成从数据拆分、建模评估到决策树可视化的完整流程(2026 版)。重点解释 criterion 的选择:gini(基尼不纯度
大数据-200 决策树信息增益详解:信息熵、ID3 选特征与 Python 最佳切分实现
决策树信息增益(Information Gain)”展开,先用信息熵(Entropy)解释不纯度,再说明为何在节点切分时要最大化父节点熵与子节点熵之差:在 Ent(D) 固定的前提下,最大化 Gain
大数据-201 决策树从分裂到剪枝:信息增益/增益率、连续变量与CART要点
“分裂”到“剪枝”的完整链路,解释其为何通常采用贪心算法形成“局部最优”,以及不同算法在分裂准则上的差异:ID3/C4.5偏信息增益(Information Gain),但信息增益会偏向取值多的特征
大数据-199 决策树模型详解:节点结构、条件概率视角与香农熵计算
决策树模型(Decision Tree)展开,面向分类任务系统梳理:树的三类节点(根节点/内部节点/叶节点)、从根到叶的递归分裂流程,以及“分而治之”的规则生成机制。在理论层面,给出决策树的条件概率分
大数据-198 KNN 必须先归一化:Min-Max 正确姿势、数据泄露陷阱与 sklearn 落地
scikit-learn(1.x)机器学习训练流程中,KNN 这类距离模型对“量纲不统一”极其敏感:欧式距离的平方和会让数值尺度更大的特征主导距离,从而显著拖垮分类效果。Min-Max 归一化
大数据-197 K折交叉验证实战:sklearn 看均值/方差,选更稳的 KNN 超参
训练/测试随机划分会导致评估指标不稳定,并给出工程化解法:K 折交叉验证(K-Fold Cross Validation)。通过 sklearn 的 cross_val_score 在训练集内部做多次
大数据-196 scikit-learn KNN 实战:KNeighborsClassifier、kneighbors 与学习曲线选最优 案例1红酒 案例2乳腺
从统一 API(fit/predict/transform/score)到 kneighbors 找出测试样本的 K 个最近邻,再到用学习曲线/参数曲线选择 n_neighbors(K 值)。
大数据-194 数据挖掘 从红酒分类到机器学习全景:监督/无监督/强化学习、特征空间与过拟合一次讲透
2025 年仍最常用的机器学习(Machine Learning)概念框架:监督学习(分类/回归)、无监督学习(聚类/降维)、半监督学习与强化学习(Agent-环境-奖励)。重点解释输入空间、输出空间
大数据-193 Apache Tez 实战:Hive on Tez 安装配置、DAG原理与常见坑
Apache Tez(示例版本 Tez 0.9.x)如何在 Hadoop2/YARN 上作为执行引擎替代 MapReduce,为 Hive on Tez、Pig on Tez 提供 DAG(有向无环图
下一页
个人成就
优秀创作者
文章被点赞
288
文章被阅读
23,805
掘力值
5,657
关注了
2
关注者
84
收藏集
0
关注标签
10
加入于
2019-11-11