首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
拖拖765
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
拒绝模糊:用“空洞卷积”重塑深度学习的视野
在计算机视觉的世界里,我们曾面临一个极度纠结的难题:想要看得“准”(高分辨率),就很难看得“广”(大感受野) 。直到 2016 年,Fisher Yu 和 Vladlen Koltun 发表了这篇划时
深度学习的“分水岭”:ResNet 如何开启极深网络时代?
在计算机视觉的历史长河中,2015 年是一个重要的节点。由 何恺明(Kaiming He)等人提出的 ResNet(残差网络) ,不仅横扫了当年的 ILSVRC 和 COCO 竞赛,更彻底改变了我们构
突破显存瓶颈:深入浅出 Google 流水线并行库 GPipe
在深度学习领域,模型规模的增长速度远超单张显卡(GPU/TPU)显存的增长速度。当我们想要训练拥有百亿参数的巨型模型时,往往会撞上“显存墙”。 Google 提出的 GPipe(Pipeline Pa
当集合遇上深度学习——《Order Matters》深度解析
前言:被忽视的“顺序” 在深度学习的早期,我们习惯了将一切视为序列:文字是单词的序列,语音是采样的序列。但如果输入是一堆乱序的拼图,或者一组坐标点,强行喂给 RNN 会发生什么?Google Brai
AlexNet:开启深度学习黄金时代的视觉革命
在计算机视觉的历史长河中,2012 年是一个分水岭。由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 发表的这篇论文,不仅在当年的 ImageNet
神经网络的“中奖彩票”:为什么你的模型 90% 都是冗余的?
在深度学习的世界里,我们习惯了“大力出奇迹”:模型越大,参数越多,效果似乎就越好。但你是否想过,这些庞大的参数中,可能绝大多数都是在“陪跑”? 2019 年 ICLR 的一篇经典论文提出了著名的“彩票
打破固定输出的边界:深入解读 Pointer Networks (Ptr-Nets)
在深度学习的序列生成任务(如机器翻译)中,我们习惯了 Sequence-to-Sequence (Seq2Seq) 架构。然而,传统的 Seq2Seq 有一个致命的假设:输出字典的大小必须是预先固定的
AI 的“自我进化”:通过迭代部署提升大模型规划能力
在 AI 领域,我们一直在追求一个目标:让模型能够像人类一样,通过实践、反馈和总结来不断提升自己。最近的一篇重磅论文揭示了一种名为迭代部署(Iterative Deployment的机制,证明了大语言
拒绝“凭感觉写代码”:2025年资深开发者如何驾驭AI智能体?(深度解读与实战指南)
在 AI 编程领域,最近流行一个词叫 "Vibe Coding"(凭感觉编程)——即完全信任 AI,享受心流,甚至不再仔细阅读代码的差异(Diffs)。这种想法听起来很诱人:只管描述需求,代码自动生成
深度解读《Which Humans?》:为什么你的 AI 其实是个“西方白人男性”?
在人工智能的浪潮中,我们经常听到技术报告宣称某个大模型(LLM)在某项测试中达到了“人类水平”(Human-level performance)。 这听起来很令人振奋,但哈佛大学的一项研究提出了一个让
下一页
个人成就
文章被阅读
6,775
掘力值
635
关注了
0
关注者
1
收藏集
0
关注标签
6
加入于
2025-03-07