首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
拖拖765
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
拖拖765
7天前
关注
当集合遇上深度学习——《Order Matters》深度解析
前言:被忽视的“顺序” 在深度学习的早期,我们习惯了将一切视为序列:文字是单词的序列,语音是采样的序列。但如果输入是一堆乱序的拼图,或者一组坐标点,强行喂给 RNN 会发生...
0
评论
分享
拖拖765
8天前
关注
AlexNet:开启深度学习黄金时代的视觉革命
在计算机视觉的历史长河中,2012 年是一个分水岭。由 Alex Krizhevsky、Ilya Sutskever 和 Geoffrey Hinton 发表的这篇论文,不...
0
评论
分享
拖拖765
1月前
关注
神经网络的“中奖彩票”:为什么你的模型 90% 都是冗余的?
在深度学习的世界里,我们习惯了“大力出奇迹”:模型越大,参数越多,效果似乎就越好。但你是否想过,这些庞大的参数中,可能绝大多数都是在“陪跑”? 2019 年 ICLR 的一...
0
评论
分享
拖拖765
1月前
关注
打破固定输出的边界:深入解读 Pointer Networks (Ptr-Nets)
在深度学习的序列生成任务(如机器翻译)中,我们习惯了 Sequence-to-Sequence (Seq2Seq) 架构。然而,传统的 Seq2Seq 有一个致命的假设:输...
0
评论
分享
拖拖765
1月前
关注
AI 的“自我进化”:通过迭代部署提升大模型规划能力
在 AI 领域,我们一直在追求一个目标:让模型能够像人类一样,通过实践、反馈和总结来不断提升自己。最近的一篇重磅论文揭示了一种名为迭代部署(Iterative Deploy...
0
评论
分享
拖拖765
1月前
关注
拒绝“凭感觉写代码”:2025年资深开发者如何驾驭AI智能体?(深度解读与实战指南)
在 AI 编程领域,最近流行一个词叫 "Vibe Coding"(凭感觉编程)——即完全信任 AI,享受心流,甚至不再仔细阅读代码的差异(Diffs)。这种想法听起来很诱人...
0
评论
分享
拖拖765
1月前
关注
深度解读《Which Humans?》:为什么你的 AI 其实是个“西方白人男性”?
在人工智能的浪潮中,我们经常听到技术报告宣称某个大模型(LLM)在某项测试中达到了“人类水平”(Human-level performance)。 这听起来很令人振奋,但哈...
0
评论
分享
拖拖765
1月前
关注
神经网络也是“压缩包”?重读 Hinton 1993:最小描述长度与权重噪声
1. 论文核心逻辑:什么是 MDL 原则? 这篇论文的核心建立在 最小描述长度(Minimum Description Length, MDL 原则之上。 在监督学习中,如...
0
评论
分享
拖拖765
1月前
关注
深度学习经典:如何正确地为 LSTM 加上 Dropout?
在深度学习的发展史上,Dropout 被认为是解决神经网络过拟合最有效的“神技”之一。然而,早期的研究发现,直接将 Dropout 应用于循环神经网络(RNN)和长短期记忆...
0
评论
分享
拖拖765
1月前
关注
深度解构 LSTM:为什么 2015 年的这篇博客至今仍是 AI 必读经典?
一、 核心痛点:RNN 的“鱼式记忆” 在传统神经网络中,信息是单向流动的。而人脑在思考时具有持久性。为了模拟这种特性,循环神经网络(RNN)应运而生。 然而,传统 RNN...
0
评论
分享
拖拖765
1月前
关注
重读经典:Karpathy 的《循环神经网络不可思议的有效性》与代码实战
在 GPT-4 和各种大模型横行的今天,我们很容易忘记深度学习领域的“史前时代”。但在 2015 年,Andrej Karpathy(OpenAI 创始成员、前 Tesla...
0
评论
分享
拖拖765
1月前
关注
大语言模型不是 AGI 的死路
从模式匹配到协调物理:UCCT 与 MACI 如何把 LLM 推向可验证推理 本文基于论文 《The Missing Layer of AGI: From Pattern...
0
评论
分享
拖拖765
2月前
关注
[深度解读] 复杂动力学第一定律:为什么宇宙中间阶段最“有趣”?
摘要:热力学第二定律告诉我们,宇宙的终点是死寂的无序(高熵)。但为什么在从有序走向无序的过程中,会出现星系、生命、以及牛奶咖啡中那些复杂的漩涡结构?本文基于 Scott A...
0
评论
分享
拖拖765
2月前
关注
✨深入浅出理解《The Annotated Transformer》:从零实现 Transformer 的完整解析
Transformer 之所以能成为当今大模型时代的核心基础架构,并非偶然。从 2017 年“Attention Is All You Need”提出至今,Transfor...
0
评论
分享
拖拖765
2月前
关注
Attention Is All You Need:彻底改变 AI 世界的论文解析
这篇 Blog 将带你快速理解: 论文讲了什么内容 Transformer 的关键创新点 它在现实中的实际应用场景 一个最小可运行 Transformer Demo(可直接...
0
评论
分享
拖拖765
2月前
关注
从“死”文档到“活”助手:Paper2Agent 如何将科研论文一键转化为可执行 AI
你是否经历过这种绝望:读到一篇绝佳的科研论文,想要复现它的结果或在自己的数据上试用它的方法,结果却陷入了无穷无尽的“依赖地狱”?环境配置报错、代码缺少文档、参数不知如何调整...
0
评论
分享
拖拖765
2月前
关注
骗过 AI 的大脑?如何利用“难度错觉”让 LLM 变聪明
你是否遇到过这种令人抓狂的情况:大语言模型(LLM)能轻松解决复杂的微积分问题,却在简单的逻辑陷阱题上翻车?这种“能力不一致性”一直是 AI 领域的谜团。 牛津大学的一项最...
0
评论
分享
拖拖765
2月前
关注
打破 LLM 长任务瓶颈:MAKER 如何实现百万步零错误执行
近几年,大语言模型(LLM)在推理、代码生成、工具调用等任务上取得了巨大进展。但当任务变得极长,需要上千甚至上百万步(例如 Towers of Hanoi 20 个盘,需要...
0
评论
分享
拖拖765
2月前
关注
AlphaResearch:让 AI 自主发现新算法的时代来了
最近,算法研究界最炸裂的论文之一,就是《AlphaResearch: Accelerating New Algorithm Discovery with Language ...
0
评论
分享
拖拖765
3月前
关注
🧠 MemOS:让 AI 拥有“记忆操作系统”的未来
一、背景:AI 需要一个“记忆操作系统” 在大语言模型(LLM)飞速发展的今天,模型可以推理、生成、规划,但依旧存在一个根本性缺陷——没有真正的长期记忆。 我们现在常用的 ...
0
评论
分享
下一页
个人成就
文章被阅读
6,104
掘力值
589
关注了
0
关注者
1
收藏集
0
关注标签
6
加入于
2025-03-07