首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
柠柠酱
掘友等级
主业:瞎琢磨爱好者(范围包括但不限于:深度学习的坑怎么填、哪家外卖性价比最高、猫为什么总看不起人)。 副业:氛围观察员,主打一个多看多学少插嘴,偶尔冒泡求眼熟。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 15
沸点 0
赞
15
返回
|
搜索文章
赞
文章( 15 )
沸点( 0 )
【深度学习Day15】ChatGPT的亲爷爷——拆解Transformer核心原理,手撸自注意力机制 (Self-Attention)
2017年Google《Attention Is All You Need》横空出世,彻底抛弃RNN框架,以‘注意力机制’为核心打造Transformer,凭借并行计算能力和全局依赖捕捉能力,奠定基础
【深度学习Day13】告别CNN的“视觉舒适区”!循环层+嵌入层,搞定序列数据第一步
为什么CNN在处理序列数据时会‘歇菜’?因为它们没有‘记忆’,记不住前面的内容。而循环层和嵌入层的组合,正是为了解决这一难题。
【深度学习Day12】变分自编码器(VAE):给AE装个“概率导航仪”,解锁AI造图技能!
自编码器(AE)生成图像时常常‘歇菜’,但变分自编码器(VAE)却能将‘城中村’般的Latent空间规整成‘商品房小区’,从而生成高质量的新图像。
【深度学习Day11】自编码器(AutoEncoder, AE)完全指南:从原理到数据降维实战
在深度学习中,无监督学习是处理海量无标签数据的核心手段,而自编码器(AutoEncoder, AE)则是无监督学习的‘入门神器’。
【深度学习Day14】告别普通RNN的“健忘症”!LSTM门控机制,拿捏长序列建模
LSTM通过‘遗忘门、输入门、输出门’给AI的记忆装‘开关’,解决了普通RNN的梯度消失问题,让模型不仅能够读短序列,还能啃下长文本的‘硬骨头’。
【深度学习Day10】告别瞎调参!优化器与学习率调度器实战指南
为什么同样的模型,换一个优化器和学习率调度器,训练效果就天差地别?今天为你揭秘4大优化器与3大调度器的秘密。
【深度学习Day9】不讲武德!一行代码继承 ImageNet 亿级参数,迁移学习 (Transfer Learning) 暴力通关
ImageNet数据集为ResNet提供了‘视觉通识课’,通过迁移学习,我们可以轻松利用这些通用特征进行特定任务的微调。
【深度学习Day2】MATLAB老鸟转PyTorch必看的“阵痛”指南:张量操作避坑记
作为深耕 MATLAB 多年的‘老鸟’,切入 PyTorch 后我发现:最难的不是神经网络原理,而是矩阵操作习惯的‘水土不服’!
【深度学习Day4】告别暴力拉平!MATLAB老鸟带你拆解CNN核心:卷积与池化 (附高频面试考点)
卷积层和池化层是 CNN 的两大法宝,前者负责特征提取,后者负责降维不减效,二者结合大大提升了模型的效率和准确性。
【深度学习Day5】决战 CIFAR-10:手把手教你搭建第一个“正经”的卷积神经网络 (附调参心法)
维度暴增、背景混乱、类间相似性拉满——CIFAR-10的挑战远超MNIST,但掌握正确的调参心法,新手也能轻松达到74%以上的准确率。
下一页
个人成就
文章被点赞
16
文章被阅读
482
掘力值
272
关注了
0
关注者
1
收藏集
0
关注标签
4
加入于
2026-01-07