首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
ML&DL
订阅
锥栗
更多收藏集
微信扫码分享
微信
新浪微博
QQ
13篇文章 · 0订阅
【科研】【ReID】科研论文怎么写?八股文写作思路
拿 Densely Semantically Aligned Person Re-Identification 这篇文章举例。 本文写作非常好,写的很有逻辑,很标准。科研论文虽然是八股文,但是能经历了
【学习笔记】李宏毅2020ML&DL课程 1_8 - 8_8 Attack ML model
这个负样本x'还需要跟x0够靠近,靠近到人没法发现。 约束如下,有两种方法。 他们的L2是一样的,但是就人的感知而言,上面那个看起来跟原图一样,下面那个跟原图不一样。 如果是看L_infinity,那么上面两张图片的L_infinity是比较小的,下面两张图片的L_infini…
【学习笔记】李宏毅2020ML&DL课程 13_1 Unsupervised Learning
选择适当的cluster,有比较empirical的方法。 找center,要K个clusters就需要K个center。可以随即找K个vector作为K个center。 1)对training data每一个的x,判断他们属于1到K的哪个cluster,假设跟第i个clust…
【ML&DL】【skimming】ACNet: Strengthening the Kernel Skeletons for Powerful CNN
Convolution Blocks[1],文章将普通的方形核卷积分解成了竖条纹卷积核横条纹卷积,与方形核卷积相结合,能够做到不带来任何负担的提点,并且可以嵌入到任何一个现成的CNN框架中。 许多对于CNN的改进多半集中在下面几点:1)改变CNN层之间的连接方式,如直接简单堆叠…
【ML&DL】【skimming】The Loss Surfaces of Multilayer Networks
1)对于大网络(large size network)而言,绝大多数局部极小值在test上的表现是差不多的,且这些local minima跟global minima的表现也是差不多的。 2)小网络找到差的局部极小值(鞍点或比较大的局部极小值)的概率比较大,且这个概率随着网络模…
【学习笔记】李宏毅2020ML&DL课程 1 regression 9 DNN tips 10 CNN 21-1,21-2 RNN
bias对平滑结果帮助不大,一般只对weight进行regularization。L2正则化出来的weights结果比较偏平均。 dropout只在training使用,testing不用。 如果直接test,结果会是原来的两倍。所以乘0.5 CNN原本是梯度下降,找到一组权重…
【学习笔记】李宏毅2020ML&DL课程 13_2 Unsupervised Learning
流形学习就是将高维的(流形的)feature的摊平,摊平之后就可以用欧氏距离了。 如右图,图片data中有些点形成了一些圈圈,意味着有些object虽然很像,但是旋转之后(换个角度)看完全不一样了。 计算所有pairs的相似度。
【ML&DL】【skimming】Strip Pooling: Rethinking Spatial Pooling for Scene Parsing
一篇有意思的文章,CVPR 2020的Strip Pooling: Rethinking Spatial Pooling for Scene Parsing[1],文章从空间池化的基础上提出了(分解出了)条纹卷积,并基于此构筑了场景解析(语义分割)的网络,达到了新的SOTA。文…
【ML&DL】【skimming】Global Optimality in Neural Network Training
深度学习取得了很大的成功,但是对其成功原因的数学解释却还是一个难点。很大一个原因是对深度网络的参数学习是一个非凸的过程。而优化算法有陷入非global minima的可能。凸优化问题的局部极小值也是全局极小值,因此学习问题的凸公式通常更可取,因为它们有助于分析学习算法的性质。 …
【学习笔记】李宏毅2020ML&DL课程 1_6-6_6 Network Compression
先train好一个大的network,然后评估network中哪些neuron重要,哪些不重要。如果weight接近0可能是不重要的weight。给一个input,如果output几乎都是0,那这个neuron就不重要。 将这些neuron按照重要性排序,移除不重要的weigh…