首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
拖拖765
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
当微局部分析遇见黑洞:解析波的“终局之战”
在广义相对论的世界里,黑洞不仅是物质的终结,也是时空剧烈震荡的源头。当我们扰动一个黑洞(例如两个黑洞合并)时,它会像被敲击的钟一样发出“铃宕”(Ringdown)声,随后逐渐复归平静。 Semyon
打破记忆的黑盒:深度解析关系循环神经网络 (Relational RNN)
在深度学习的演进史上,循环神经网络 (RNN) 曾是处理序列数据的王者,但它始终受困于“记忆碎片化”的问题:所有的信息都被强行压缩进一个扁平的向量中。随着 Transformer 的兴起,自注意力机制
深度解读 VLAE:当 VAE 学会“抓大放小”,揭秘变分有损自编码器
在深度学习和生成模型(AIGC)的演进史中,有一篇必须要读的经典论文——由 OpenAI 和 UC Berkeley 的顶级学者(包括 VAE 共同发明者 Diederik P. Kingma)在 I
击败人类推理水平:深度拆解 DeepMind 关系网络 (RN)
在人工智能领域,识别一张照片里有“猫”已经不再是难事。但如果你问 AI:“那个红色金属圆柱体左边的蓝色球体,和右边那个最大的方块材质一样吗?”——这便涉及到了机器长期以来的短板:关系推理(Relati
深度学习架构的进化:ResNet-v2 与预激活的力量
在深度学习的发展史上,ResNet (残差网络) 的提出无疑是一个里程碑。它解决了超深网络训练中的退化问题,使得我们可以训练几十层甚至上百层的网络。然而,微软亚洲研究院(MSRA)的研究人员并没有止步
告别固定向量:注意力机制如何开启 AI 的“抓重点”时代
在 2014 年之前,神经网络翻译(NMT)面临着一个尴尬的“中年危机”:模型在短句上表现惊艳,但只要句子稍长,翻译质量就会断崖式下跌。由 Dzmitry Bahdanau、KyungHyun Cho
拒绝模糊:用“空洞卷积”重塑深度学习的视野
在计算机视觉的世界里,我们曾面临一个极度纠结的难题:想要看得“准”(高分辨率),就很难看得“广”(大感受野) 。直到 2016 年,Fisher Yu 和 Vladlen Koltun 发表了这篇划时
深度学习的“分水岭”:ResNet 如何开启极深网络时代?
在计算机视觉的历史长河中,2015 年是一个重要的节点。由 何恺明(Kaiming He)等人提出的 ResNet(残差网络) ,不仅横扫了当年的 ILSVRC 和 COCO 竞赛,更彻底改变了我们构
突破显存瓶颈:深入浅出 Google 流水线并行库 GPipe
在深度学习领域,模型规模的增长速度远超单张显卡(GPU/TPU)显存的增长速度。当我们想要训练拥有百亿参数的巨型模型时,往往会撞上“显存墙”。 Google 提出的 GPipe(Pipeline Pa
当集合遇上深度学习——《Order Matters》深度解析
前言:被忽视的“顺序” 在深度学习的早期,我们习惯了将一切视为序列:文字是单词的序列,语音是采样的序列。但如果输入是一堆乱序的拼图,或者一组坐标点,强行喂给 RNN 会发生什么?Google Brai
下一页
个人成就
文章被阅读
9,806
掘力值
717
关注了
0
关注者
1
收藏集
0
关注标签
6
加入于
2025-03-07