首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
aicoting
掘友等级
算法工程
公众号👉aicoting 官方网站👉https://aicoting.cn
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
6
文章 6
沸点 0
赞
6
返回
|
搜索文章
最新
热门
一文搞懂CNN经典架构-DenseNet!
在 ResNet 提出残差连接后,深层网络的训练问题得到了极大缓解。然而,ResNet 的连接方式仍然比较稀疏:每一层的输出只与后一层相加,信息传递路径有限。
一文搞懂CNN经典架构-EfficientNet!
随着深度学习的发展,CNN 的精度不断提升,但代价是网络越来越深、参数越来越多。例如 VGG-19 有 144M 参数,ResNet-152 计算量达到 11.3 GFLOPs。
一文搞懂CNN经典架构-ResNet!
2015 年,何恺明等人提出了 ResNet(Residual Network),首次在 ImageNet 挑战赛中使用超过 100 层的网络结构,并获得了冠军。ResNet 的关键创新是 残差连接
一文搞懂CNN经典架构-AlexNet!
2012 年,深度学习在计算机视觉领域迎来了决定性时刻。Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 提出了 AlexNet。
一文搞懂卷积神经网络经典架构-LeNet
LeNet 是卷积神经网络(CNN)的早期代表,由 Yann LeCun 等人在 1989 年提出,最初用于手写数字识别(MNIST 数据集)。 作为最早成功应用于实际任务的卷积网络。
一文搞懂深度学习中的池化!
在卷积神经网络(CNN)中,卷积层用于提取图像或特征图的局部模式,而池化(Pooling)是卷积之后常用的一种下采样操作。池化可以降低特征图尺寸、减少计算量,并增强模型对位置和噪声的鲁棒性。
面试官:给我讲一下卷积吧!
卷积(Convolution)是深度学习中最核心、最常用的运算之一,尤其在图像处理、语音识别和自然语言处理中扮演着关键角色。它通过滑动窗口的方式提取局部特征,能够有效捕捉数据中的空间或时间结构。
一文搞懂卷积神经网络!
卷积神经网络(Convolutional Neural Network, CNN)是深度学习中最具代表性和影响力的模型之一。 它通过局部感受野、权值共享和多层卷积的方式,高效地提取数据的层次化特征,
面试官:正则化都有哪些经典的方法?
在训练神经网络的过程中,我们经常遇到一个让人头疼的问题:训练集上精度高得离谱,测试集却一塌糊涂。这就是过拟合(Overfitting)。模型在训练集上死记硬背了样本,却没有真正学到可泛化的规律。
面试官:你在训模型的时候经常使用的学习率策略有哪些?
所有相关文档、源码示例、流程图与面试八股,我也将持续更新在AIHub,欢迎关注收藏! 学习率策略 在训练神经网络时,学习率(Learning Rate, LR) 是最关键的超参数之一。
下一页
个人成就
文章被点赞
52
文章被阅读
41,103
掘力值
3,186
关注了
4
关注者
27
收藏集
0
关注标签
23
加入于
2025-05-27