首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
深度学习-目标检测
订阅
on_a_roll
更多收藏集
微信扫码分享
微信
新浪微博
QQ
11篇文章 · 0订阅
NMS的Python实现
```python import numpy as np def nms(dets, thresh):#dets:[[xmin,ymin,xmax,ymax,score],[],[]...] x1 =
可变形卷积
问题:图像任务中同样目标会存在位置偏移、角度旋转、尺度大小,分别对应旋转、平移、尺度不变性。 解决办法:(1)pooling具有平移不变性,受网络层数、卷积核大小、感受野的约束。(2)随机裁剪、旋转、缩放也是为了模型的鲁棒性 1. 理解deformable convolutio…
论文笔记:Guided Anchoring
Anchor 的概率分布被分解为两个条件概率分布,也就是给定图像特征之后 anchor 中心点的概率分布,和给定图像特征和中心点之后的形状概率分布。 anchor 的生成过程可以分解为两个步骤,anchor 位置预测和形状预测。在这个看起来很简单的 formulation 上。…
论文笔记:Libra R-CNN
1. 概况 2. 模型改进 Ross Girshick后面提出了OHEM(online hard example mining,在线困难样本挖掘)是一个hard negative mning的一种好方法,但是这种方法对噪音数据会比较敏感。随机采样造成的不平衡可以看下图: 随机采…
论文笔记:bbox regression with uncertainty
1. 概况 2. 模型改进 将原先faster rcnn需要回归的四个参数(x,y,w,h) 转换为顶点的四个坐标(x1,y1,x2,y2)从而可以用KL loss分别回归四个坐标而不影响最终的结果. 在输出预测顶点坐标位置的同时输出坐标的概率(简单起见,采用单高斯分布拟合概率…
深度学习基础-cs231n笔记
相对熵(KL散度):对于同一个随机变量xx有两个单独的概率分布p(x)和p(y),可以使用相对熵来衡量这两个分布的差异。 ReLU:分段线性,总体不是线性,可以拟合任何,优点:(1)前两者耗费计算资源,这个只用阈值或者矩阵或者if else(2)收敛加速快(3)梯度消失问题(4…
深度学习基础-经典网络细节
3x3分解成(1x3,3x1),优点是:加速计算,又可以将1个卷积拆成2个卷积,使得网络深度进一步增加,增加了网络的非线性(每增加一层都要进行ReLU)。 可以认为Residual Learning的初衷,其实是让模型的内部结构至少有恒等映射的能力。以保证在堆叠网络的过程中,网…
Yolo系列网络学习笔记
1. Yolov1 ②宽高(w,h)开根号后再求平方和损失:拉开差距,例如原来w=10,h=20,预测出来w=8,h=22,跟原来w=3,h=5,预测出来w1,h=7相比,其实前者的误差要比后者小,但是如果不加开根号,那么损失都是一样:4+4=8,但是加上根号后,变成0.15和…
经典R-CNN系列网络学习笔记
1. R-CNN 2000个待检测区域(selective search,里面也是SVM)+串行过cnn+(svm分类& bbox reg位置),训练时的pipeline是分开的。 2. SPP-Net 在feature map上提取RoI特征,这样就只需要在整幅图像…
单阶段检测器笔记-SSD RetinaNet FCOS
不同特征图对应不同分类器,且采用卷积输出4个位置偏移和21个类别置信度。 首先对每个gt找一个最大的anchor标记为正样本,保证其至少有一个anchor;再对其余anchor找与他iou>0.5的gt标记为正样本,其余的为负样本;在训练过程中,采用了 Hard Negativ…