首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
拖拖765
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
Scaling Laws for Neural Language Models:大模型为什么可以被“规模化预测”?
在大模型时代,我们经常听到一句话:Scale is all you need。 当然,这句话有点夸张。模型架构、数据质量、训练方法、对齐方法、工具调用、RAG 系统都很重要。但如果回到 GPT-3、G
Deep Speech 2: End-to-End Speech Recognition in English and Mandarin
引言:为什么 Deep Speech 2 值得读? 今天我们已经习惯了 Whisper、讯飞语音、云厂商 ASR API、实时字幕、会议纪要等语音识别产品。但在 Deep Speech 2 所处的时代
Neural Turing Machines:让神经网络学会使用“外部记忆”
今天的大模型 Agent、RAG、长期记忆系统都在讨论一个问题:模型到底应该把信息记在哪里? 是全部塞进参数里? 是放进 Prompt? 还是放进数据库、向量库、文件系统,再由模型按需读取? 这个问题
当微局部分析遇见黑洞:解析波的“终局之战”
在广义相对论的世界里,黑洞不仅是物质的终结,也是时空剧烈震荡的源头。当我们扰动一个黑洞(例如两个黑洞合并)时,它会像被敲击的钟一样发出“铃宕”(Ringdown)声,随后逐渐复归平静。 Semyon
打破记忆的黑盒:深度解析关系循环神经网络 (Relational RNN)
在深度学习的演进史上,循环神经网络 (RNN) 曾是处理序列数据的王者,但它始终受困于“记忆碎片化”的问题:所有的信息都被强行压缩进一个扁平的向量中。随着 Transformer 的兴起,自注意力机制
深度解读 VLAE:当 VAE 学会“抓大放小”,揭秘变分有损自编码器
在深度学习和生成模型(AIGC)的演进史中,有一篇必须要读的经典论文——由 OpenAI 和 UC Berkeley 的顶级学者(包括 VAE 共同发明者 Diederik P. Kingma)在 I
击败人类推理水平:深度拆解 DeepMind 关系网络 (RN)
在人工智能领域,识别一张照片里有“猫”已经不再是难事。但如果你问 AI:“那个红色金属圆柱体左边的蓝色球体,和右边那个最大的方块材质一样吗?”——这便涉及到了机器长期以来的短板:关系推理(Relati
深度学习架构的进化:ResNet-v2 与预激活的力量
在深度学习的发展史上,ResNet (残差网络) 的提出无疑是一个里程碑。它解决了超深网络训练中的退化问题,使得我们可以训练几十层甚至上百层的网络。然而,微软亚洲研究院(MSRA)的研究人员并没有止步
告别固定向量:注意力机制如何开启 AI 的“抓重点”时代
在 2014 年之前,神经网络翻译(NMT)面临着一个尴尬的“中年危机”:模型在短句上表现惊艳,但只要句子稍长,翻译质量就会断崖式下跌。由 Dzmitry Bahdanau、KyungHyun Cho
拒绝模糊:用“空洞卷积”重塑深度学习的视野
在计算机视觉的世界里,我们曾面临一个极度纠结的难题:想要看得“准”(高分辨率),就很难看得“广”(大感受野) 。直到 2016 年,Fisher Yu 和 Vladlen Koltun 发表了这篇划时
下一页
个人成就
文章被阅读
11,320
掘力值
782
关注了
0
关注者
1
收藏集
0
关注标签
6
加入于
2025-03-07