首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
拖拖765
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
当集合遇上深度学习——《Order Matters》深度解析
前言:被忽视的“顺序” 在深度学习的早期,我们习惯了将一切视为序列:文字是单词的序列,语音是采样的序列。但如果输入是一堆乱序的拼图,或者一组坐标点,强行喂给 RNN 会发生什么?Google Brai
AlexNet:开启深度学习黄金时代的视觉革命
在计算机视觉的历史长河中,2012 年是一个分水岭。由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 发表的这篇论文,不仅在当年的 ImageNet
神经网络的“中奖彩票”:为什么你的模型 90% 都是冗余的?
在深度学习的世界里,我们习惯了“大力出奇迹”:模型越大,参数越多,效果似乎就越好。但你是否想过,这些庞大的参数中,可能绝大多数都是在“陪跑”? 2019 年 ICLR 的一篇经典论文提出了著名的“彩票
打破固定输出的边界:深入解读 Pointer Networks (Ptr-Nets)
在深度学习的序列生成任务(如机器翻译)中,我们习惯了 Sequence-to-Sequence (Seq2Seq) 架构。然而,传统的 Seq2Seq 有一个致命的假设:输出字典的大小必须是预先固定的
AI 的“自我进化”:通过迭代部署提升大模型规划能力
在 AI 领域,我们一直在追求一个目标:让模型能够像人类一样,通过实践、反馈和总结来不断提升自己。最近的一篇重磅论文揭示了一种名为迭代部署(Iterative Deployment的机制,证明了大语言
拒绝“凭感觉写代码”:2025年资深开发者如何驾驭AI智能体?(深度解读与实战指南)
在 AI 编程领域,最近流行一个词叫 "Vibe Coding"(凭感觉编程)——即完全信任 AI,享受心流,甚至不再仔细阅读代码的差异(Diffs)。这种想法听起来很诱人:只管描述需求,代码自动生成
深度解读《Which Humans?》:为什么你的 AI 其实是个“西方白人男性”?
在人工智能的浪潮中,我们经常听到技术报告宣称某个大模型(LLM)在某项测试中达到了“人类水平”(Human-level performance)。 这听起来很令人振奋,但哈佛大学的一项研究提出了一个让
神经网络也是“压缩包”?重读 Hinton 1993:最小描述长度与权重噪声
1. 论文核心逻辑:什么是 MDL 原则? 这篇论文的核心建立在 最小描述长度(Minimum Description Length, MDL 原则之上。 在监督学习中,如果我们想要在不损失精度的前提
深度学习经典:如何正确地为 LSTM 加上 Dropout?
在深度学习的发展史上,Dropout 被认为是解决神经网络过拟合最有效的“神技”之一。然而,早期的研究发现,直接将 Dropout 应用于循环神经网络(RNN)和长短期记忆网络(LSTM)时,模型效果
深度解构 LSTM:为什么 2015 年的这篇博客至今仍是 AI 必读经典?
一、 核心痛点:RNN 的“鱼式记忆” 在传统神经网络中,信息是单向流动的。而人脑在思考时具有持久性。为了模拟这种特性,循环神经网络(RNN)应运而生。 然而,传统 RNN 存在一个致命缺陷:长期依赖
下一页
个人成就
文章被阅读
5,983
掘力值
588
关注了
0
关注者
1
收藏集
0
关注标签
6
加入于
2025-03-07