首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
柠柠酱
掘友等级
主业:瞎琢磨爱好者(范围包括但不限于:深度学习的坑怎么填、哪家外卖性价比最高、猫为什么总看不起人)。 副业:氛围观察员,主打一个多看多学少插嘴,偶尔冒泡求眼熟。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
19
文章 19
沸点 0
赞
19
返回
|
搜索文章
柠柠酱
2天前
关注
【深度学习新手踩坑实录】(推荐系统实战)LightGCN搭建企业级推荐系统(附GitHub仓库+数据集链接)
其实推荐系统落地没那么难,关键是找对方法:用企业级结构管代码,用 PyG 简化图模型实现,再吃透 LightGCN 的 “偷懒哲学”。今天让你轻松写出能放简历上的 “企业级...
1
评论
分享
柠柠酱
5天前
关注
【深度学习新手踩坑实录】(NLP实战)Word2Vec+Bi-LSTM搭建企业级恶意评论检测系统(附GitHub+数据集链接)
想给简历加个 NLP 实战项目?本文记录了我从零搭建一个企业级规范的恶意评论检测系统的全过程。欢迎交流~...
2
评论
分享
柠柠酱
10天前
关注
【深度学习新手踩坑实录】车道线分割模型从“垃圾输出”到“精准识别”,我到底踩了多少坑?(附GitHub+数据集链接)
车道线分割作为自动驾驶中的关键任务,一直是计算机视觉领域的热门研究方向。本文将详细介绍基于UNet++架构的多标签车道线分割项目,重点分享新手在开发过程中常见的技术坑及其解...
1
评论
分享
柠柠酱
13天前
关注
【深度学习Day16】万物皆可图!MATLAB老鸟带你秒懂图神经网络 (GNN) 与 GCN 核心原理
CNN 和 Transformer 分别擅长处理格子和序列数据,但当面对‘关系’数据时,它们都显得无能为力。图神经网络 (GNN) 通过图卷积 (GCN) 技术,成功解决了...
1
评论
分享
柠柠酱
16天前
关注
【深度学习Day15】ChatGPT的亲爷爷——拆解Transformer核心原理,手撸自注意力机制 (Self-Attention)
2017年Google《Attention Is All You Need》横空出世,彻底抛弃RNN框架,以‘注意力机制’为核心打造Transformer,凭借并行计算能力...
1
评论
分享
柠柠酱
17天前
关注
【深度学习Day14】告别普通RNN的“健忘症”!LSTM门控机制,拿捏长序列建模
LSTM通过‘遗忘门、输入门、输出门’给AI的记忆装‘开关’,解决了普通RNN的梯度消失问题,让模型不仅能够读短序列,还能啃下长文本的‘硬骨头’。...
1
评论
分享
柠柠酱
18天前
关注
【深度学习Day13】告别CNN的“视觉舒适区”!循环层+嵌入层,搞定序列数据第一步
为什么CNN在处理序列数据时会‘歇菜’?因为它们没有‘记忆’,记不住前面的内容。而循环层和嵌入层的组合,正是为了解决这一难题。...
1
评论
分享
柠柠酱
19天前
关注
【深度学习Day12】变分自编码器(VAE):给AE装个“概率导航仪”,解锁AI造图技能!
自编码器(AE)生成图像时常常‘歇菜’,但变分自编码器(VAE)却能将‘城中村’般的Latent空间规整成‘商品房小区’,从而生成高质量的新图像。...
1
评论
分享
柠柠酱
20天前
关注
【深度学习Day11】自编码器(AutoEncoder, AE)完全指南:从原理到数据降维实战
在深度学习中,无监督学习是处理海量无标签数据的核心手段,而自编码器(AutoEncoder, AE)则是无监督学习的‘入门神器’。...
1
评论
分享
柠柠酱
20天前
关注
【深度学习Day10】告别瞎调参!优化器与学习率调度器实战指南
为什么同样的模型,换一个优化器和学习率调度器,训练效果就天差地别?今天为你揭秘4大优化器与3大调度器的秘密。...
1
评论
分享
柠柠酱
22天前
关注
【深度学习Day9】不讲武德!一行代码继承 ImageNet 亿级参数,迁移学习 (Transfer Learning) 暴力通关
ImageNet数据集为ResNet提供了‘视觉通识课’,通过迁移学习,我们可以轻松利用这些通用特征进行特定任务的微调。...
1
评论
分享
柠柠酱
23天前
关注
【深度学习Day8】何恺明的“短路”智慧:手撕 ResNet,终结深度学习的“退化”魔咒
本文将手把手教你用PyTorch实现ResNet-18,拆解其背后的原理,让你不仅能用ResNet,还能从容应对面试中的相关问题。...
1
评论
分享
柠柠酱
24天前
关注
【深度学习Day7】模型越深越烂?MATLAB老鸟带你手撕梯度消失,详谢 BN 层救命之恩
Batch Normalization (BN层) 在深度学习中的地位堪比牛顿的《自然哲学的数学原理》,它如何通过归一化每层数据,让几十层网络训练如丝般顺滑?...
1
评论
分享
柠柠酱
25天前
关注
【深度学习Day6】不改模型也能涨点?MATLAB老鸟带你玩转 PyTorch 数据增强 (附 Mixup/Cutout 暴力提分法)
PyTorch的在线增强机制颠覆了传统的数据增强方式,让模型在每个Epoch都能看到不同的图片,真正实现‘强身健体’。...
1
评论
分享
柠柠酱
26天前
关注
【深度学习Day5】决战 CIFAR-10:手把手教你搭建第一个“正经”的卷积神经网络 (附调参心法)
维度暴增、背景混乱、类间相似性拉满——CIFAR-10的挑战远超MNIST,但掌握正确的调参心法,新手也能轻松达到74%以上的准确率。...
1
评论
分享
柠柠酱
27天前
关注
【深度学习Day4】告别暴力拉平!MATLAB老鸟带你拆解CNN核心:卷积与池化 (附高频面试考点)
卷积层和池化层是 CNN 的两大法宝,前者负责特征提取,后者负责降维不减效,二者结合大大提升了模型的效率和准确性。...
1
评论
分享
柠柠酱
28天前
关注
【深度学习Day3】实战首秀:PyTorch 搭建 MLP 网络与 MNIST 实战及面试指南
【深度学习Day3】实战首秀:PyTorch 搭建 MLP 网络与 MNIST 实战及面试指南 训练核心逻辑永远是这五步:定义损失函数和优化器、训练函数、测试函数、开始训练...
1
评论
分享
柠柠酱
29天前
关注
【深度学习Day2】MATLAB老鸟转PyTorch必看的“阵痛”指南:张量操作避坑记
作为深耕 MATLAB 多年的‘老鸟’,切入 PyTorch 后我发现:最难的不是神经网络原理,而是矩阵操作习惯的‘水土不服’!...
2
评论
分享
柠柠酱
1月前
关注
【深度学习Day1】从MATLAB到PyTorch:手把手教你在双卡2080Ti上搭建深度学习环境
【深度学习Day1】从MATLAB到PyTorch:手把手教你在双卡2080Ti上搭建深度学习环境 作为一名深耕算法但只精通MATLAB的“半吊子”工程师,最近找工作时被狠...
1
评论
分享
个人成就
文章被点赞
21
文章被阅读
1,141
掘力值
395
关注了
0
关注者
2
收藏集
0
关注标签
4
加入于
2026-01-07