首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
import_random
掘友等级
数据挖掘工程师
|
aa
放下高贵品质,享受缺德人生。
获得徽章 19
动态
文章
专栏
沸点
收藏集
关注
作品
赞
838
文章 838
沸点 0
赞
838
返回
|
搜索文章
import_random
数据挖掘工程师 @aa
·
22小时前
关注
[投资]akshare库包(股票篇)
股票 或者上海, 深圳, 北京, 3个证券交易所的所有股票. 上海证券交易所上市的股票,是以6开头的. 深证证券交易所上市的股票, 是以0或3开头的. 北京证券交易所,是以...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
1天前
关注
[机器学习]XGBoost(陈天奇团队) vs Lightgbm(微软公司)
XGBoost 和 LightGBM 都是基于梯度提升树(Gradient Boosting Decision Tree, GBDT)的改进算法,广泛应用于机器学习竞赛和工...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
2天前
关注
[社交网络]基础知识
社交网络的特征可以从多个维度进行分析,涵盖整体结构、个体行为、群体动态、时间演化以及内容属性等方面。以下是详细的分类和特征列举: 1. 结构特征(整体网络属性) 密度(De...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
2天前
关注
[社区发现]networkx.algorithms.community模块
NetworkX的algorithms.community模块提供了多种可直接调用的社区发现算法, 以下是当前版本(以NetworkX 2.8+为例)中主要的算法及其分类:...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
2天前
关注
[决策树]L1和L2正则项
在梯度提升树(如XGBoost、LightGBM)中,L1和L2正则项是控制模型复杂度、防止过拟合的关键工具。它们的核心作用与线性模型类似,但在树模型中的具体实现和影响有所...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
2天前
关注
车辆保险
车辆保险种类较多,选择时需要根据自身需求、车辆情况、经济能力等因素综合考量。 以下是常见车险种类及选购建议,帮助你在保障与性价比之间找到平衡: 一、必买险种(法律强制或基础...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
2天前
关注
[机器学习]决策树中的正则化机制
在决策树中,正则化机制指的是通过一系列约束或限制条件,防止模型过度拟合训练数据,提升其泛化能力。正则化的核心目标是简化模型结构,让模型在保持分类/预测准确性的同时,避免因复...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
3天前
关注
[机器学习]选型
在机器学习中,选型(Model Selection) 是指根据具体任务类型和数据特点,从众多可能的算法或模型中选择最合适的一个(或一组)的过程。 它是机器学习项目中的关键步...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
IDE和IDLE的关系和区别
IDE(Integrated Development Environment,集成开发环境)和 IDLE(Integrated Development and Learni...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
[机器学习]模型的参数 vs 模型的超参数
在机器学习中,**参数(Parameters)和超参数(Hyperparameters)**是两类完全不同的概念,它们在模型训练中的作用、调整方式以及对模型性能的影响有本质...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
[CART决策树]如何划分离散型特征
在CART(分类与回归树)算法中,当处理离散型(分类)属性时,节点的分裂过程遵循以下步骤: 1. 生成所有可能的二分方式 对于具有 kk 个类别的离散属性,需枚举所有可能的...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
[CART决策树]如何划分连续型特征
CART(分类与回归树)在处理连续型特征时,通过动态二分法将连续值转换为二元分裂条件(如“特征 ≤ 阈值”和“特征 > 阈值”),选择使子节点纯度(基尼指数或均方误差)最优...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
[机器学习]决策树的预剪枝和后剪枝
在决策树算法中,剪枝(Pruning) 是防止模型过拟合的关键技术,分为 预剪枝(Pre-Pruning) 和 后剪枝(Post-Pruning) 两种策略。 它们的核心区...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
[机器学习]CART决策树算法(介绍)
在CART(分类与回归树)算法中,当处理离散型(分类)属性时,节点的分裂过程遵循以下步骤: 1. 生成所有可能的二分方式 对于具有 kk 个类别的离散属性,需枚举所有可能的...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
4天前
关注
[机器学习]C4.5决策树算法(介绍)
C4.5 是决策树算法中的经典算法之一,由 Ross Quinlan 在 ID3 算法的基础上改进而来。它解决了 ID3 的多个局限性(如对连续值、缺失值和过拟合的处理),...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
5天前
关注
[机器学习]ID3决策树算法(介绍)
ID3算法容易过拟合的主要原因在于其生成决策树的方式和缺乏正则化机制,具体包括以下几点: 1. 倾向于生成复杂的树结构 完全分裂直到“纯度” :ID3通过信息增益选择特征,...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
6天前
关注
[机器学习]XGBoost vs GBDT
XGBoost(eXtreme Gradient Boosting)是针对GBDT的一系列改进和优化,它在性能、效率、灵活性等多个维度显著提升了传统GBDT的能力。以下是X...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
6天前
关注
[机器学习]方差和偏差
在机器学习中,偏差(Bias)和方差(Variance)是模型预测误差的两个核心来源。它们共同决定了模型的泛化能力,并形成了经典的偏差-方差权衡(Bias-Variance...
0
评论
分享
import_random
数据挖掘工程师 @aa
·
6天前
关注
[机器学习]集成学习
在机器学习中,集成学习通过结合多个基模型的预测来提升整体性能,其主要思想包括以下几种: 1. Bagging(Bootstrap Aggregating) 核心思想:通过自...
0
评论
分享
下一页
个人成就
文章被点赞
1,088
文章被阅读
567,438
掘力值
16,282
关注了
24
关注者
116
收藏集
0
关注标签
25
加入于
2019-05-05