首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
深度学习
叁两_2025_12
创建于2025-08-24
订阅专栏
深度学习复习随笔
等 1 人订阅
共22篇文章
创建于2025-08-24
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
深度学习——SORT
SORT SORT核⼼: 卡尔曼滤波; 匈⽛利匹配。 可以拆分为两个部分: 匈⽛利算法匹配过程(分配) 卡尔曼预测加更新过程(位置预测和更新) 关键步骤: 轨迹卡尔曼滤波预测→ 使⽤匈⽛利算法将预测后
深度学习——匈⽛利算法与KM算法
方法:匈⽛利算法与KM算法 用来解决多⽬标跟踪中的数据关联问题,匈⽛利算法与KM算法都是为了求解⼆分图的最⼤匹配问题。 匈⽛利算法 匈牙利算法解决无权图的最大匹配问题 将每个匹配对象的地位视为相同,在
深度学习——卡尔曼滤波器
作用 卡尔曼滤波就可以⽤来预测⽬标在后续帧中出现的位置,然后用预测之后的位置与当前位置坐比较。得到当前位置的物体是哪个物体。 优点 最⼤的优点是采⽤递归的⽅法来解决线性滤波的问题。 它只需要当前的测量
深度学习——多目标检测
多⽬标跟踪(MOT) 在⼀段视频中同时跟踪多个⽬标。 主要应⽤在安防监控和⾃动驾驶等领域中。 多⽬标跟踪问题中并不是所有⽬标都会在第⼀帧出现,也并不是所有⽬标都会出现在每⼀帧。 如何对出现的⽬标进⾏初
深度学习——车流量预测
车流预测方式 ⼈⼯统计 需要消耗⼤量的⼈⼒ 当⼯作⼈员在⻓时间计数后会因疲惫造成漏检或重复计数 统计结果具有不可验证性。 可接触式或不可接触式的传感器于路⾯进⾏⻋辆计数 可接触式传感器⼀般铺设于道路下
深度学习——YOLO
yolo网络架构 理解其输入输出 yolo优缺: yolo模型的训练样本构建的方法 理解yolo模型的损失函数 YOLOv2 改进方法 在继续保持处理速度的基础上,对这三个方面进行了改进 预测更准确(
深度学习——池化结构(正课-复习)
一般整个网络最后一层(全连接那层)用的平均池化 一般情况下是2*2,步长为2的池化**************
深度学习——激活结构(复习-正课)
激活函数: 目的:引入非线性(线性和非线性一起会生成一个非线性的) Sigmoid/logistics函数:数据太大或者太小时,不会呈现变化(看下图像就知道) tanh(双曲正切曲线):比Sigmoi
深度学习——卷积结构(复习-正课)
卷积神经网络——主要层次 数据输入层:Input Layer 卷积计算层:CONV Layer ReLU激励层:ReLU Incentive Layer 池化层:Pooling Layer 全连接层:
深度学习——RCNN(fastRCNN)
Overfeat 移动窗⼝法: 用一个固定大小的“窗口”在图像上滑动,对每个窗口进行分类,从而判断窗口内是否包含目标以及目标类别。(类似:用放大镜在图片上逐格扫描找目标) 本质是暴力穷举,比较消耗算力
深度学习——目标检测
目标检测(Object Detection) 目标检测的任务是找出图像中所有感兴趣的目标,并确定它们的类别和位置。 常用的开源数据集 经典的目标检测数据集有两种,PASCAL VOC数据集 和 MS
深度学习——图像增强
tf.image进行图像增强 1、导入所需的工具包: 2、并读取要处理的图像: 翻转 左右翻转图像 最早也是最广泛使用的一种图像增广方法。 上下翻转 裁剪 随机裁剪 随机裁剪出一块面积为原面积10%
深度学习——ResNet残差网络
残差块(Residual Block) 残差块是 ResNet(深度残差网络) 的核心创新,解决了深层网络训练时的 梯度消失/梯度爆炸问题 核心思想是 “跳过连接”(Skip Connection)
深度学习——GoogLeNet
GoogLeNet和AlexNet/VGGNet这类依靠加深网络结构的深度的思想不完全一样。GoogLeNet在加深度的同时做了结构上的创新,引入了一个叫做Inception的结构来代替之前的卷积加激
深度学习——VGG框架
VGG简介: VGG可以看成是加深版的AlexNet,整个网络由卷积层和全连接层叠加而成,和AlexNet不同的是,VGG中使用的都是小尺寸的卷积核(3×3) VGGNet使用的全部都是3x3的小卷积
深度学习——正则化
正则化的核心作用:防止模型过拟合,提升泛化能力,方法是通过在损失函数中增加惩罚项,限制模型参数的大小或复杂度。 L1与L2正则化 L1正则(Lasso) 加参数绝对值之和 L2正则(Ridge) 加参
深度学习——AlexNet网络结构
AlexNet的网络架构 特点: 1. AlexNet包含8层变换,有5层卷积和2层全连接隐藏层,以及1个全连接输出层 2. AlexNet第一层中的卷积核形状是1111。第二层中的卷积核形状减小到5
深度学习——卷积神经网络
卷积网路的组成 卷积层(提取图像特征) 卷积运算本质上就是在滤波器和输入数据的局部区域间做点积。 保持尺寸:使输出特征图(Feature Map)尺寸与输入一致(如 same 填充)。 保护边缘信息:
深度学习——损失函数
分类任务 用得最多的是交叉熵损失函数 交叉熵(Cross-Entropy) 是衡量模型预测概率分布与真实分布差异的指标,值越小表示预测越准。 交叉熵损失函数 是 交叉熵 在机器学习中的具体应用形式。
深度学习——神经网络
常用的神经网络 卷积神经网络(Convolutional Neural Network) 循环神经网络(Recurrent Neural Network) 生成对抗网络(Generative Adve
下一页