首页
沸点
课程
AI Coding
数据标注
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
_沧海一粟
掘友等级
北京邮电大学
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
机器学习---激活函数
激活函数 为什么要用激活函数:不用的话,输出永远是输入的线性函数(传统的MLP),激活函数给神经网络引入了非线性元素,使神经网络能够逼近任意非线性函数,这样神经网络就可以应用到众多非线性模型中。 si
机器学习之集成模型---Bagging,Boosting,Stacking
Bagging(Bootstrap+Aggregating) 每次训练多个模型,对于分类问题,每个模型输出一个类别,最后做投票选出最多的;对于回归问题,将多个模型的输出取平均 bootstrap采样:
深度学习小结3---常用的范数规则化L0.L1.L2.Frobenius范数
为什么进行范数规则化 因为需要保证在最小化训练误差的同时,不发生过拟合,即保证模型不能过于复杂化,参数不能过多,所以需要规则化参数。这样得到的参数才具有好的泛化性能。 L0范数 指的向量中非0的元素的
深度学习2---感知机、过拟合、梯度爆炸
1.多层感知机(MLP)和单层的区别 单层:用于二分类 多层:用于多分类,和softmax的区别就在于:多了隐藏层(非线性层) 2.隐藏层 隐藏层需要引入非线性激活函数以得到非线性模型,否则输出还是线
深度学习小结1---线性回归、逻辑回归、softmax回归、SVM
1.前向累积和反向累积的区别: (1)计算复杂度(计算每个变量的梯度)都是O(n)。 (2)对于前向累积,内存复杂度是O(1),因为计算完不需要存储;对于反向累积,内存复杂度是O(n),因为需要存储正
前端BFC总结
前端面试总结1:BFC,包含概念,开启BFC的方式,BFC的约束规则和BFC的相关应用四个部分,欢迎补充
个人成就
文章被阅读
1,419
掘力值
67
关注了
2
关注者
2
收藏集
1
关注标签
0
加入于
2023-02-09