首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
叁两_2025_12
掘友等级
软件项目经理
人工智能学习随笔,仅供学习参考使用。不着急,我慢慢写,你们慢慢看一点一点来。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
40
文章 40
沸点 0
赞
40
返回
|
搜索文章
最新
热门
C++——模板
主要内容: 1. 模板 - 实现泛型编程 用途: 模板为我们提供了泛型编程的能力,允许我们编写可以处理多种数据类型的代码,而无需为每种类型都写一遍代码。利用模板,我们可以定义一个通用的算法或数据结构,
机器学习——决策树(二)
算法简介 优缺点 熵的概念及运算 决策树算法对比 1、三种算法的区别仅仅只是对于当前树的评价标准不同而已,ID3使用信息增益、C4.5使用信息增益率、CART使用基尼系数。(不是主要区别) 2、CAR
机器学习——拓展概念(标准化和归一化的区别)
############################################################
机器学习——拓展概念(Softmax)
Softmax使用####################################################
机器学习——拓展概念(离线学习和在线学习)
拓展概念 在线学习和离线学习 概念 - 核心区别 - 举例######################
机器学习——线性回归(正则化)
定义 正则化是一种在模型训练中在损失函数中额外加入惩罚项的方法,用来限制模型的复杂度,防止过拟合 通俗理解 普通回归只关心“拟合误差小不小” 加了正则化后,模型还要“保持系数尽量小/稀疏” 目的:让模
机器学习——逻辑回归
简介: 原理 应用场景#################################################
机器学习——课程总结(截止梯度下降)
线性回归、最小二乘法、梯度下降三者关系: 正则化:L1-norm、L2-norm 优化线性回归: 通过修改损失函数,在模型训练中引入对参数大小的惩罚,从而解决过拟合问题,提高线性回归预测准确度。 对应
机器学习——线性回归(最小二乘法)
最小二乘法 原理: 问题: 最小残差平方和公式: 举例:###################################################################
机器学习——决策树
信息熵 信息量:指的是一个样本/事件所蕴含的信息,如果一个事件的概率越大, 那么就可以认为该事件所蕴含的信息越少。极端情况下,比如:“太阳从东 方升起”,因为是确定事件,所以不携带任何信息量。 信息熵
下一页
个人成就
文章被点赞
42
文章被阅读
10,398
掘力值
1,016
关注了
0
关注者
2
收藏集
0
关注标签
6
加入于
2025-05-07