首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
深度学习
叁两_2025_12
创建于2025-08-24
订阅专栏
深度学习复习随笔
等 1 人订阅
共26篇文章
创建于2025-08-24
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
深度学习——⻋道线定位及拟合
透视变换 透视变换将检测结果转换为俯视图 直⽅图确定⻋道线位置 知道⻋道线精确定位的思想: ⾸先利⽤直⽅图的⽅法确定左右⻋道线的位置 然后利⽤滑动窗⼝的⽅法,搜索⻋道线位置 进⾏拟合,然后绘制⻋道区域
深度学习——车道线提取
HLS颜⾊空间 H表示⾊相,即颜⾊,S表示饱和度,即颜⾊的纯度,L表示颜⾊的明亮程度 ⻋道线提取的⽅法 颜⾊空间转换-》边缘检测-》颜⾊阈值-》合并得到检测结果
深度学习——张氏标定法
张⽒标定法 利⽤棋盘格图像对相机进⾏标定:单应性矩阵,利⽤约束条件求解内参矩阵, 根据内参矩阵估计外参矩阵,利⽤极⼤似然⽅法估计参数,优化⽅法:⽜顿 法,⾼斯⽜顿法和LM算法 标定流程: 打印⼀张棋盘
深度学习——相机标定
相机的成像原理 相机成像基于小孔成像模型(Pinhole Camera Model),光线通过小孔(光圈)在成像平面(传感器)上形成倒立的实像。 相机标定 分类 世界坐标系 是⽬标物体位置的参考系 ⽤
深度学习——SORT
SORT SORT核⼼: 卡尔曼滤波; 匈⽛利匹配。 可以拆分为两个部分: 匈⽛利算法匹配过程(分配) 卡尔曼预测加更新过程(位置预测和更新) 关键步骤: 轨迹卡尔曼滤波预测→ 使⽤匈⽛利算法将预测后
深度学习——匈⽛利算法与KM算法
方法:匈⽛利算法与KM算法 用来解决多⽬标跟踪中的数据关联问题,匈⽛利算法与KM算法都是为了求解⼆分图的最⼤匹配问题。 匈⽛利算法 匈牙利算法解决无权图的最大匹配问题 将每个匹配对象的地位视为相同,在
深度学习——卡尔曼滤波器
作用 卡尔曼滤波就可以⽤来预测⽬标在后续帧中出现的位置,然后用预测之后的位置与当前位置坐比较。得到当前位置的物体是哪个物体。 优点 最⼤的优点是采⽤递归的⽅法来解决线性滤波的问题。 它只需要当前的测量
深度学习——多目标检测
多⽬标跟踪(MOT) 在⼀段视频中同时跟踪多个⽬标。 主要应⽤在安防监控和⾃动驾驶等领域中。 多⽬标跟踪问题中并不是所有⽬标都会在第⼀帧出现,也并不是所有⽬标都会出现在每⼀帧。 如何对出现的⽬标进⾏初
深度学习——车流量预测
车流预测方式 ⼈⼯统计 需要消耗⼤量的⼈⼒ 当⼯作⼈员在⻓时间计数后会因疲惫造成漏检或重复计数 统计结果具有不可验证性。 可接触式或不可接触式的传感器于路⾯进⾏⻋辆计数 可接触式传感器⼀般铺设于道路下
深度学习——YOLO
yolo网络架构 理解其输入输出 yolo优缺: yolo模型的训练样本构建的方法 理解yolo模型的损失函数 YOLOv2 改进方法 在继续保持处理速度的基础上,对这三个方面进行了改进 预测更准确(
深度学习——池化结构(正课-复习)
一般整个网络最后一层(全连接那层)用的平均池化 一般情况下是2*2,步长为2的池化**************
深度学习——激活结构(复习-正课)
激活函数: 目的:引入非线性(线性和非线性一起会生成一个非线性的) Sigmoid/logistics函数:数据太大或者太小时,不会呈现变化(看下图像就知道) tanh(双曲正切曲线):比Sigmoi
深度学习——卷积结构(复习-正课)
卷积神经网络——主要层次 数据输入层:Input Layer 卷积计算层:CONV Layer ReLU激励层:ReLU Incentive Layer 池化层:Pooling Layer 全连接层:
深度学习——RCNN(fastRCNN)
Overfeat 移动窗⼝法: 用一个固定大小的“窗口”在图像上滑动,对每个窗口进行分类,从而判断窗口内是否包含目标以及目标类别。(类似:用放大镜在图片上逐格扫描找目标) 本质是暴力穷举,比较消耗算力
深度学习——目标检测
目标检测(Object Detection) 目标检测的任务是找出图像中所有感兴趣的目标,并确定它们的类别和位置。 常用的开源数据集 经典的目标检测数据集有两种,PASCAL VOC数据集 和 MS
深度学习——图像增强
tf.image进行图像增强 1、导入所需的工具包: 2、并读取要处理的图像: 翻转 左右翻转图像 最早也是最广泛使用的一种图像增广方法。 上下翻转 裁剪 随机裁剪 随机裁剪出一块面积为原面积10%
深度学习——ResNet残差网络
残差块(Residual Block) 残差块是 ResNet(深度残差网络) 的核心创新,解决了深层网络训练时的 梯度消失/梯度爆炸问题 核心思想是 “跳过连接”(Skip Connection)
深度学习——GoogLeNet
GoogLeNet和AlexNet/VGGNet这类依靠加深网络结构的深度的思想不完全一样。GoogLeNet在加深度的同时做了结构上的创新,引入了一个叫做Inception的结构来代替之前的卷积加激
深度学习——VGG框架
VGG简介: VGG可以看成是加深版的AlexNet,整个网络由卷积层和全连接层叠加而成,和AlexNet不同的是,VGG中使用的都是小尺寸的卷积核(3×3) VGGNet使用的全部都是3x3的小卷积
深度学习——正则化
正则化的核心作用:防止模型过拟合,提升泛化能力,方法是通过在损失函数中增加惩罚项,限制模型参数的大小或复杂度。 L1与L2正则化 L1正则(Lasso) 加参数绝对值之和 L2正则(Ridge) 加参
下一页