All in AI,看见未来。 每天精选最值得读的AI文章,帮你筛掉时代的噪音。 以简讯见广度,以深读见洞察。 技术、趋势、思考,一站式掌握AI世界。 欢迎关注公众号「AI Reading Hub」,获取更多AI资讯和技术文章。
2025-10-14 资讯日报
新闻资讯
Sora2“复活”名人,家属强烈反对
Sora 2走红,有人用它生成已故名人视频,如迈克尔·杰克逊、罗宾·威廉姆斯。罗宾女儿等家属气愤反对,OpenAI称家属应有形象控制权,美影协要求其解决侵权问题。>阅读原文
OpenAI联手博通,九个月后量产首颗自研芯片
OpenAI官宣与博通合作造AI芯片,预计2029年底部署10GW算力。已秘密研发18个月,9个月后首颗芯片量产。用ChatGPT设计芯片,目标是将世界从算力稀缺推向充裕。>阅读原文
硅谷反AI「起义」,拒用Cursor程序员被解雇
AI席卷职场,大厂裁员加速。奥特曼称能被AI取代的工作非「真工作」,新工作形态会出现。硅谷爆发「代码战争」,有人用AI提效,有人拒用AI被解雇,人类价值与工作定义待重写。>阅读原文
OpenAI联手博通,自研10吉瓦AI加速器
OpenAI官宣与博通合作,造10吉瓦规模AI加速器,2026下半年开始部署,2029年底完成。此举减少对英伟达依赖,走向多元化算力,双方高管均看好合作前景,博通股价应声上涨。>阅读原文
华人团队用诺奖成果造未来芯片钥匙
海外华人团队用诺奖成果MOF造出纳米级液体芯片。它以离子流动模拟电路,能执行逻辑运算,还具记忆效应,可组合实现模拟计算,有望弥补半导体芯片局限。>阅读原文
昂瑞微:以战略定力破射频前端国产化难题
昂瑞微在射频前端领域成绩斐然。2023年率先量产L - PAMiD,打破国际垄断。构建‘射频前端 + 射频SoC’模式,还布局车载与卫星通信。其发展印证产业链协同模式,为国产芯片发展提供借鉴。>阅读原文
《State of AI 2025》报告:AI圈巨变与未来预测
花叔解读《State of AI 2025》报告:去年预测50%准确;今年DeepSeek崛起缩小中美差距,OpenAI被迫开源,NVIDIA循环投资引担忧;AI安全问题凸显;预计明年AI Agent应用扩大,中国实验室或超越美国。>阅读原文
AI基建高潮2025年开启,影响美国经济与分配
未尽研究称AI把科技与资本结合推向新高度,美国科技巨头2025年起大规模投资AI基建。投资热能持续取决于前沿模型突破等,AI也影响就业与分配,财富分配或成未来核心问题。>阅读原文
马斯克xAI入局世界模型,明年要搞AI游戏
马斯克的xAI加入世界模型开发,对手是Meta、谷歌等巨头。它从英伟达挖人,目标是做先进AI系统,明年底前出AI生成游戏。但构建世界模型挑战大,游戏行业有人不看好。>阅读原文
奥特曼:能被ChatGPT消灭的工作非真工作
奥特曼在访谈中称,能被ChatGPT消灭的工作非真正工作。他认为GPT - 6优势需摸索,Codex距完成一周工作不远,还谈了AI在工作、科学发现等方面的影响及应对。>阅读原文
卡帕西100美元手搓ChatGPT超GPT - 2
Andrej Karpathy推出nanochat,用8000行代码、100美元成本和12小时训练,使模型CORE表现超GPT - 2。该项目是简易版ChatGPT,还给出详细上手指南,网友反响热烈。>阅读原文
Gemini 3内测惊艳,预定10月22日发布
谷歌Gemini 3未发布就火了,内测表明它在前端开发、SVG生成和多模态能力上很强。网友实测它编程、绘图出色,还更懂物理原理。疑似文件显示10月22日发布,大家盼别‘阉割’。>阅读原文
Mamba-3挑战Transformer,优势显著
Mamba-3进入ICLR 2026盲审,它采用梯形规则离散化、引入复数状态空间、多输入多输出设计,在长文本处理等方面优势明显。不过,训练和精细推理上Transformer仍有优势。此外,FBAM也在挑战Transformer。>阅读原文
千里科技发布会:智驾‘含模量’成新标准
9月28日千里科技发布会,印奇展示智驾系统能力,强调AI与车企协同。首创‘含模量’概念,推出‘千里计划’,要构建跨场景服务体系,还规划Robotaxi业务,获奔驰投资。>阅读原文
WebAssembly 3.0 发布,组件模型待完善
WebAssembly 3.0 发布,有 64 位内存等特性,但组件模型未完成。Endor CEO 称 Wasm 被广泛采用,功能在推进。预计 2025 年组件模型难定稿,不过全球集成仍在推进。>阅读原文
「中文屋」提出者逝,AI却似有「意识」
哲学家约翰·塞尔一生证明AI无真正意识,提出「中文屋」实验。但2025年AI展现出「类意识」行为,而他却因性骚扰丑闻身败名裂,其经历引人反思人类对自我的理解。>阅读原文
产品应用
Thinking Machines发布Tinker API实现模型微调
Thinking Machines公司发布Tinker API,能减少开发者基础设施开销,支持多模型架构。还发布开源库,虽有竞品但侧重低级原语。创始人称其为研究人员带来前沿工具,尚处封闭测试。>阅读原文
朱广翔:AI开发让创意成唯一“代码”
百度秒哒负责人朱广翔称,传统开发有“不可能三角”难题,秒哒可破局。他提出AI时代生产力公式,强调多智能体协作,认为AI开发目标是让人专注创意,且产品经理和程序员不会被取代。>阅读原文
Qoder等工具5分钟搭建AI手办生图APP
洛斐分享用Qoder、阿里云ADB Supabase和通义千问图像编辑模型搭建AI手办生图APP方法。前端Qoder生成代码,后端ADB Supabase提供服务,接入模型实现功能,全链路轻量敏捷。>阅读原文
火山引擎:多模态数据湖助力 AI 发展
火山引擎数智平台王彦辉等:AI 发展使企业数据架构需重构,传统有瓶颈。火山引擎构建多模态数据湖,选 Lance 格式,经多维度选型技术,在自动驾驶等多行业有应用,解决痛点成通用设施。>阅读原文
阿里云:智能编程引领企业数字化转型
智能编程发展迅猛,从代码补全迈向自主开发。阿里云丁宇指出发展方向,企业落地有适配等难题。国内模型能力提升,阿里云双产品布局应对全球竞争,目标成企业发展加速器。>阅读原文
天猫:AI驱动测试全流程自动化变革
天猫技术质量同学:通过AI+自然语言驱动,将传统测试工作链拆解,实现测试全流程自动化等目标。实践发现提效明显,已多业务线落地,未来将拓展覆盖范围,推动多方协作。>阅读原文
成峰:5分钟上手Claude Code插件教程
成峰分享Claude Code插件教程。推荐用TRAE编辑器,新手选拼车账号。按场景介绍功能,如控制AI自动化程度等。对比插件与命令行版,建议新手先用插件版。>阅读原文
GPT-5 Pro挖出埃尔德什问题尘封解法
GPT-5 Pro立功,找出人类遗忘的埃尔德什问题解法。此前网友围绕该问题讨论热烈却无定论。此外,有教授称它还能快速发现论文漏洞,网友分享使用提示词技巧。>阅读原文
jina-reranker-v3:刷新重排榜,效率飙升4.79%
jina-reranker-v3提出LBNL交互机制,解决文档检索效率与效果权衡难题。采用渐进式多语言训练策略,处理多语言文档重排出色。多目标训练结合分阶段策略,提升泛化能力,在BEIR数据集表现优异。>阅读原文
推荐文章
AI训练:存储系统测试结果大揭秘
作者莫飞虎分析 MLPerf Storage v2.0 测试结果,指出在 GPU 利用率达标时,存储系统关键看支撑最大 GPU 数量,还要关注资源利用率。以太网存储方案灵活且成本效益高。>阅读原文
零基础构建 AI Agent 学习路径揭秘
作者为不同阶段开发者构建 AI Agent 学习路径,包括结构化提示词工程、上下文工程等。讲解各环节方法,如提示词路由、知识检索策略等,还提及多 Agent 协作及自我完善方向。>阅读原文
解析异构算力技术架构与核心组件
文章指出异构算力由多种计算单元组成,不同芯片各有所长,国产AI芯片发展多元。高速互联、网络拓扑、集群通信需优化,大模型存储要求高,数据预处理与加载影响训练效率,综合技术为AI计算提供方案。>阅读原文
AGI第二阶段:游戏成训练agent理想环境
作者认为AGI路线图第二阶段“游戏即训练”极具潜力,游戏能成训练agent理想环境。还提到Dreamer系列研究不断突破。本周对冲基金有调仓操作,多家公司有AI新动作,如Google推Gemini Enterprise等。>阅读原文
复杂任务:多Agent协作是AI产品更优解
作者认为复杂任务下,单一智能大模型有局限,群体智能更优,能并行分工、降低成本等。还指出人机协作要认知向上、价值向下对齐,新范式设计产品优势明显,AI产品商业化核心是信任。>阅读原文
腾讯程序员:24小时快速入门Rust!
腾讯程序员richardyao称,当下Rust热度上升,是学习好时机。文章从基础、思维、实战三方面入手,介绍Rust语法、思维方式,还给出学习建议,有相关语言基础配合大模型,24小时入门有可能。>阅读原文
硅谷研讨:AI Agent落地成功的秘诀
硅谷研讨指出,95%的AI Agent部署失败,因围绕模型的脚手架不足。先进的上下文工程需新设计,成功的AI Agent采用“human - in - the - loop”设计,还探讨了记忆、路由等问题及未来方向。>阅读原文
大模型后训练:企业AI竞争力关键
产业认为大模型后训练是AI落地产业必经之路。技术从SFT演进到强化学习范式。网易、汽车之家等企业跑通技术到商业价值闭环,通过四步路径构建专属智能引擎,创造商业价值。>阅读原文
晶圆级芯片主流技术路径大比拼
人工智能算力需求激增,传统芯片发展遇瓶颈。晶圆级计算有Cerebras和特斯拉两条技术路线,各有优劣。邬江兴院士团队带来新突破,但我国在技术、设备材料和工程化方面面临挑战。>阅读原文
开源动态
清华 DeepDive 刷新深网搜索开源记录
大模型在真实深网搜索易‘变瞎’,缺‘难搜’数据和多轮 RL。清华 DeepDive 自动造‘难搜’题,端到端多轮 RL 训练,在 BrowseComp 达开源 SOTA,迁移能力还碾压专用模型。>阅读原文
Meta实验室REFRAG让RAG推理速度飙升30倍
Meta超级智能实验室:REFRAG框架通过压缩上下文,减少大模型RAG推理计算量,在多任务测试中速度提升显著,准确率不损失,为大模型部署提供实用方案。>阅读原文
蚂蚁开源 dInfer,提升扩散语言模型推理速度
蚂蚁集团开源高性能扩散语言模型推理框架 dInfer。它解决了 dLLM 推理瓶颈,推理速度大幅提升,超 Fast - dLLM 10 倍、AR 模型 2.5 倍,还支持多模型,助力构建 AI 新生态。>阅读原文
6K+ star!x11docker让Docker跑桌面超绝
开源君推荐x11docker,一款解决 GUI 应用容器化难题的工具。它能安全隔离、硬件加速,支持主流桌面环境,安装使用简单,值得有相关需求者尝试。>阅读原文
GraphQA:让图数据自然语言分析成现实
图分析门槛高,NetworkX 强大却复杂,普通用户难驾驭。GraphQA 用自然语言接口连接算法与需求,智能选算法,继承优势并解决易用性问题,还提供灵活数据加载。>阅读原文
HKUDS开源DeepCode,成AI开发神器
香港大学数据科学实验室(HKUDS)开源DeepCode框架,定位“全自动AI软件开发框架”。它通过多智能体模拟团队,能一键从论文或需求生成完整项目,是研究员和产品开发者的利器。>阅读原文
快手开源编程模型登顶开源代码模型榜
快手发布KAT-Dev-72B-Exp编程模型,在测试中成绩优异,逼近GPT - 5。它基于自研框架,有架构创新,集成软件工程能力,能与环境交互,是构建编程智能体的好帮手。>阅读原文
SD3.5-Flash:一秒出图,革新AI绘画
Stability AI与萨里大学推出SD3.5-Flash模型,它将推理步骤大幅压缩,显存要求降低,出图时间从30秒缩至1秒内,画质损失小,性能还反超SD3.5M,或改变AI绘画格局。>阅读原文
Karpathy 8000行代码复现ChatGPT全栈
Andrej Karpathy发布nanochat项目,是全栈式ChatGPT克隆体流水线。成本低至100美元,4小时能训练小克隆体。还介绍不同投入下模型表现,回答网友技术问题,称代码基本手写。>阅读原文
斯坦福与SambaNova发布ACE框架,小模型逆袭在望
斯坦福和SambaNova推出ACE框架,解决传统提示工程简洁性偏差和上下文坍缩问题。其“生成 - 反思 - 策展”闭环让上下文可自我演化,小模型搭配它在复杂任务上能胜过大模型+传统提示。>阅读原文
Karpathy 100美元开源项目爆火
AI大神Andrej Karpathy发布nanochat项目,花100美元就能训练迷你ChatGPT,约12小时超GPT - 2指标。不过他认为该项目不适合个性化应用,实现个性化模型效果较复杂,偏科研。>阅读原文
LLaVA - OneVision - 1.5 全流程开源,8B 模型低成本高效
灵感实验室团队等推出 LLaVA - OneVision - 1.5 并全流程开源。用概念均衡数据与三阶段策略,配合工程优化,8B 模型低成本对标主流,且复现简单,展现结构化数据与效率协同优势。>阅读原文
Andrej Karpathy开源nanochat,低成本训AI助手
Andrej Karpathy开源nanochat项目,8000行代码、100美元就能训练出类似ChatGPT的AI助手。项目覆盖全流程,不同成本版本有不同性能,强化学习效果明显,代码适配多种硬件。>阅读原文
Karpathy:百元4小时训练小型GPT
前特斯拉AI总监Karpathy推出「nanochat」,以不到8000行代码复现ChatGPT全流程,成本百美元、耗时约4小时。项目上线不到12小时获4.2k星标,有望成研究基线和实验平台。>阅读原文
tRPC-Agent-Go:构建智能AI应用新框架
tRPC-Agent-Go是腾讯推出的Go语言Agent框架,选型偏向自主多Agent协作,又兼容AI工作流。它集成多模块,支持多种Agent类型,已在腾讯多个业务场景应用,如深度写作、战报生成等。>阅读原文
算法论文
GPT - 5和Gemini 2.5 Pro国际天文奥赛夺金
新论文用 IOAA 测试大模型,GPT - 5 和 Gemini 2.5 Pro 获奥赛金牌。多数大模型超金牌门槛,GPT - 5 数据分析表现佳。模型在物理数学题表现好,普遍存在概念和几何推理错误。>阅读原文
SAM 3现身,重构视觉AI新范式
Meta的SAM模型不断升级,SAM 3现身ICLR 2026盲审论文。它强调「基于概念的分割」,构建数据引擎生成高质量数据集,在多项任务上超越现有系统,为视觉AI带来新范式。>阅读原文
作业帮等团队:GVPO 重构大模型后训练范式
作业帮与香港科大(广州)团队:提出 GVPO 解决 GRPO 训练不稳定问题,有唯一最优解保证,实验全面领先,让大模型后训练从‘经验’走向‘理论’,或带来范式转变。>阅读原文
阿里高德Tree - GRPO破解智能体RL难题
阿里高德提出Tree - GRPO方法,以智能体步骤为节点树搜索,解决了智能体RL中Rollout成本高和监督稀疏问题。在多个数据集和模型上实验显示,它省预算且性能优,为高效训练提供新思路。>阅读原文
Adobe:VLM 不「喂」数据靠游戏变聪明
Adobe 等团队研究提出「Vision-Zero」框架,让 VLM 像 AlphaGo 一样自我迭代。通过类似「谁是卧底」游戏训练,不依赖标注数据,在多任务表现超有标注方法,还缓解跨能力负迁移。>阅读原文
Meta新范式呼应AI「经验时代」预言
图灵奖得主等称AI智能体将迎「经验时代」,但训练有挑战。Meta用「早期经验」范式,含隐式世界建模和自我反思,提升智能体成功率和泛化能力,是两时代间的中期训练桥梁。>阅读原文
DeepMind:Veo 3或开启视觉领域新变革
谷歌DeepMind研究团队发现,视频模型Veo 3能零样本处理多种视觉任务,能力分四层。定量评估显示其性能提升大。研究认为机器视觉或迎范式转变,视频模型有望成通用模型。>阅读原文
GeoSVR:超越 3DGS 的三维表面重建框架
北航等团队提出 GeoSVR 框架用于三维表面重建,围绕几何约束与表面正则化设计。实验显示,其在多数据集超现有方法,兼顾精度、完整性与效率,为多领域提供支持。>阅读原文
剑桥揭秘:大模型翻车因执行出错
剑桥大学等机构研究表明,大模型执行长时任务翻车,原因是执行能力而非推理能力。单步准确率提升可使任务长度指数增长,还发现自条件化影响准确率,思考模型抗翻车能力更强。>阅读原文
MIT新作:GPT - 6或有“生命”,LLM可自我进化
MIT新作《Self - Adapting Language Models》让AI部署后自主进化,SEAL框架可让模型自己生成训练指令微调。经知识吸收和小样本推理场景验证,效果出色,若GPT - 6整合,或更强大。>阅读原文
ICLR 2026:SAM 3或为Meta新作,性能亮眼引争议
机器之心报道,ICLR 2026出现SAM 3论文,或为Meta续作。SAM 3实现可提示概念分割,性能提升显著,在多测试创佳绩,但有人质疑是旧概念包装,称开源社区早有类似功能。>阅读原文
全新推理架构EaaS:锐减37.5%推理成本
刘子铭等人提出全新「专家即服务」推理架构EaaS。它将专家拆成独立服务,解耦Attention与专家层。实验显示,EaaS能锐减37.5%成本,兼顾高吞吐与低延迟,容错性强。>阅读原文
斯坦福提出ACE框架革新大模型上下文工程
斯坦福等研究提出ACE框架,解决现有上下文优化方法短板。它把上下文变成动态‘战术手册’,在交互式智能体和领域特定推理任务中表现出色,成本低、效率高,为大模型发展提供新方向。>阅读原文
SIREN方法让大模型推理成绩飙升
SIREN团队:大模型在RLVR训练中有“熵困境”,传统方法易致熵崩塌或爆炸。提出的SIREN方法通过三重机制精准调控,实验显示能提升推理成绩,为模型训练提供新思路。>阅读原文
Google DeepMind:CoF 提升视频帧间一致性
CoT 提升语言模型推理能力却遭质疑。Google DeepMind 团队提出 CoF,认为可用于视频生成模型提升帧间一致性,像视觉 GPT,经测试表现优异,还让模型有强大泛化能力。>阅读原文
大模型:创意帮手还是创造力杀手?
《自然》研究发现,大语言模型在简单创意任务中能增强创造力,复杂任务中却会降低。长期依赖可能致创意退化。建议按需调节使用模式,保护自身创意能力。>阅读原文
谷歌:Multi - Agent推理时扩展才是未来
谷歌DeepMind和MIT:Multi - Agent是推理时扩展的未来,TUMIX以低成本提升准确率,Agent多样性优于重复采样。双工具互补,LLM能设计更强Agent,未来AI或自动优化工作流。>阅读原文
</p>