首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
拖拖765
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
拖拖765
13天前
关注
当微局部分析遇见黑洞:解析波的“终局之战”
在广义相对论的世界里,黑洞不仅是物质的终结,也是时空剧烈震荡的源头。当我们扰动一个黑洞(例如两个黑洞合并)时,它会像被敲击的钟一样发出“铃宕”(Ringdown)声,随后逐...
0
评论
分享
拖拖765
19天前
关注
打破记忆的黑盒:深度解析关系循环神经网络 (Relational RNN)
在深度学习的演进史上,循环神经网络 (RNN) 曾是处理序列数据的王者,但它始终受困于“记忆碎片化”的问题:所有的信息都被强行压缩进一个扁平的向量中。随着 Transfor...
0
评论
分享
拖拖765
21天前
关注
深度解读 VLAE:当 VAE 学会“抓大放小”,揭秘变分有损自编码器
在深度学习和生成模型(AIGC)的演进史中,有一篇必须要读的经典论文——由 OpenAI 和 UC Berkeley 的顶级学者(包括 VAE 共同发明者 Diederik...
0
评论
分享
拖拖765
27天前
关注
击败人类推理水平:深度拆解 DeepMind 关系网络 (RN)
在人工智能领域,识别一张照片里有“猫”已经不再是难事。但如果你问 AI:“那个红色金属圆柱体左边的蓝色球体,和右边那个最大的方块材质一样吗?”——这便涉及到了机器长期以来的...
0
评论
分享
拖拖765
28天前
关注
深度学习架构的进化:ResNet-v2 与预激活的力量
在深度学习的发展史上,ResNet (残差网络) 的提出无疑是一个里程碑。它解决了超深网络训练中的退化问题,使得我们可以训练几十层甚至上百层的网络。然而,微软亚洲研究院(M...
0
评论
分享
拖拖765
1月前
关注
告别固定向量:注意力机制如何开启 AI 的“抓重点”时代
在 2014 年之前,神经网络翻译(NMT)面临着一个尴尬的“中年危机”:模型在短句上表现惊艳,但只要句子稍长,翻译质量就会断崖式下跌。由 Dzmitry Bahdanau...
0
评论
分享
拖拖765
1月前
关注
拒绝模糊:用“空洞卷积”重塑深度学习的视野
在计算机视觉的世界里,我们曾面临一个极度纠结的难题:想要看得“准”(高分辨率),就很难看得“广”(大感受野) 。直到 2016 年,Fisher Yu 和 Vladlen ...
0
评论
分享
拖拖765
1月前
关注
深度学习的“分水岭”:ResNet 如何开启极深网络时代?
在计算机视觉的历史长河中,2015 年是一个重要的节点。由 何恺明(Kaiming He)等人提出的 ResNet(残差网络) ,不仅横扫了当年的 ILSVRC 和 COC...
0
评论
分享
拖拖765
1月前
关注
突破显存瓶颈:深入浅出 Google 流水线并行库 GPipe
在深度学习领域,模型规模的增长速度远超单张显卡(GPU/TPU)显存的增长速度。当我们想要训练拥有百亿参数的巨型模型时,往往会撞上“显存墙”。 Google 提出的 GPi...
0
评论
分享
拖拖765
2月前
关注
当集合遇上深度学习——《Order Matters》深度解析
前言:被忽视的“顺序” 在深度学习的早期,我们习惯了将一切视为序列:文字是单词的序列,语音是采样的序列。但如果输入是一堆乱序的拼图,或者一组坐标点,强行喂给 RNN 会发生...
0
评论
分享
拖拖765
2月前
关注
AlexNet:开启深度学习黄金时代的视觉革命
在计算机视觉的历史长河中,2012 年是一个分水岭。由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 发表的这篇论文,不...
0
评论
分享
拖拖765
3月前
关注
神经网络的“中奖彩票”:为什么你的模型 90% 都是冗余的?
在深度学习的世界里,我们习惯了“大力出奇迹”:模型越大,参数越多,效果似乎就越好。但你是否想过,这些庞大的参数中,可能绝大多数都是在“陪跑”? 2019 年 ICLR 的一...
0
评论
分享
拖拖765
3月前
关注
打破固定输出的边界:深入解读 Pointer Networks (Ptr-Nets)
在深度学习的序列生成任务(如机器翻译)中,我们习惯了 Sequence-to-Sequence (Seq2Seq) 架构。然而,传统的 Seq2Seq 有一个致命的假设:输...
0
评论
分享
拖拖765
3月前
关注
AI 的“自我进化”:通过迭代部署提升大模型规划能力
在 AI 领域,我们一直在追求一个目标:让模型能够像人类一样,通过实践、反馈和总结来不断提升自己。最近的一篇重磅论文揭示了一种名为迭代部署(Iterative Deploy...
0
评论
分享
拖拖765
3月前
关注
拒绝“凭感觉写代码”:2025年资深开发者如何驾驭AI智能体?(深度解读与实战指南)
在 AI 编程领域,最近流行一个词叫 "Vibe Coding"(凭感觉编程)——即完全信任 AI,享受心流,甚至不再仔细阅读代码的差异(Diffs)。这种想法听起来很诱人...
0
评论
分享
拖拖765
3月前
关注
深度解读《Which Humans?》:为什么你的 AI 其实是个“西方白人男性”?
在人工智能的浪潮中,我们经常听到技术报告宣称某个大模型(LLM)在某项测试中达到了“人类水平”(Human-level performance)。 这听起来很令人振奋,但哈...
0
评论
分享
拖拖765
3月前
关注
神经网络也是“压缩包”?重读 Hinton 1993:最小描述长度与权重噪声
1. 论文核心逻辑:什么是 MDL 原则? 这篇论文的核心建立在 最小描述长度(Minimum Description Length, MDL 原则之上。 在监督学习中,如...
0
评论
分享
拖拖765
3月前
关注
深度学习经典:如何正确地为 LSTM 加上 Dropout?
在深度学习的发展史上,Dropout 被认为是解决神经网络过拟合最有效的“神技”之一。然而,早期的研究发现,直接将 Dropout 应用于循环神经网络(RNN)和长短期记忆...
0
评论
分享
拖拖765
3月前
关注
深度解构 LSTM:为什么 2015 年的这篇博客至今仍是 AI 必读经典?
一、 核心痛点:RNN 的“鱼式记忆” 在传统神经网络中,信息是单向流动的。而人脑在思考时具有持久性。为了模拟这种特性,循环神经网络(RNN)应运而生。 然而,传统 RNN...
0
评论
分享
拖拖765
3月前
关注
重读经典:Karpathy 的《循环神经网络不可思议的有效性》与代码实战
在 GPT-4 和各种大模型横行的今天,我们很容易忘记深度学习领域的“史前时代”。但在 2015 年,Andrej Karpathy(OpenAI 创始成员、前 Tesla...
0
评论
分享
下一页
个人成就
文章被阅读
10,065
掘力值
718
关注了
0
关注者
1
收藏集
0
关注标签
6
加入于
2025-03-07