首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
柠柠酱
掘友等级
主业:瞎琢磨爱好者(范围包括但不限于:深度学习的坑怎么填、哪家外卖性价比最高、猫为什么总看不起人)。 副业:氛围观察员,主打一个多看多学少插嘴,偶尔冒泡求眼熟。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
19
文章 19
沸点 0
赞
19
返回
|
搜索文章
最新
热门
【深度学习Day9】不讲武德!一行代码继承 ImageNet 亿级参数,迁移学习 (Transfer Learning) 暴力通关
ImageNet数据集为ResNet提供了‘视觉通识课’,通过迁移学习,我们可以轻松利用这些通用特征进行特定任务的微调。
【深度学习Day8】何恺明的“短路”智慧:手撕 ResNet,终结深度学习的“退化”魔咒
本文将手把手教你用PyTorch实现ResNet-18,拆解其背后的原理,让你不仅能用ResNet,还能从容应对面试中的相关问题。
【深度学习Day7】模型越深越烂?MATLAB老鸟带你手撕梯度消失,详谢 BN 层救命之恩
Batch Normalization (BN层) 在深度学习中的地位堪比牛顿的《自然哲学的数学原理》,它如何通过归一化每层数据,让几十层网络训练如丝般顺滑?
【深度学习Day6】不改模型也能涨点?MATLAB老鸟带你玩转 PyTorch 数据增强 (附 Mixup/Cutout 暴力提分法)
PyTorch的在线增强机制颠覆了传统的数据增强方式,让模型在每个Epoch都能看到不同的图片,真正实现‘强身健体’。
【深度学习Day5】决战 CIFAR-10:手把手教你搭建第一个“正经”的卷积神经网络 (附调参心法)
维度暴增、背景混乱、类间相似性拉满——CIFAR-10的挑战远超MNIST,但掌握正确的调参心法,新手也能轻松达到74%以上的准确率。
【深度学习Day4】告别暴力拉平!MATLAB老鸟带你拆解CNN核心:卷积与池化 (附高频面试考点)
卷积层和池化层是 CNN 的两大法宝,前者负责特征提取,后者负责降维不减效,二者结合大大提升了模型的效率和准确性。
【深度学习Day3】实战首秀:PyTorch 搭建 MLP 网络与 MNIST 实战及面试指南
【深度学习Day3】实战首秀:PyTorch 搭建 MLP 网络与 MNIST 实战及面试指南 训练核心逻辑永远是这五步:定义损失函数和优化器、训练函数、测试函数、开始训练、保存模型。
【深度学习Day2】MATLAB老鸟转PyTorch必看的“阵痛”指南:张量操作避坑记
作为深耕 MATLAB 多年的‘老鸟’,切入 PyTorch 后我发现:最难的不是神经网络原理,而是矩阵操作习惯的‘水土不服’!
【深度学习Day1】从MATLAB到PyTorch:手把手教你在双卡2080Ti上搭建深度学习环境
【深度学习Day1】从MATLAB到PyTorch:手把手教你在双卡2080Ti上搭建深度学习环境 作为一名深耕算法但只精通MATLAB的“半吊子”工程师,最近找工作时被狠狠上了一课
个人成就
文章被点赞
21
文章被阅读
2,224
掘力值
419
关注了
0
关注者
4
收藏集
0
关注标签
4
加入于
2026-01-07