关键词:Clawdbot 更名 Moltbot;
Giants
马斯克停产 Model S/X 冲刺机器人量产;腾讯元宝派正式杀入 AI 社交赛道
Meta 裁员千人,战略重心从 VR 转向 AI 与智能眼镜
Meta 上周裁减了 Reality Labs 部门 10%的员工,涉及岗位接近 1000 个,其中大量集中在 VR 相关项目,包括 Quest VR 头显以及虚拟社交平台 Horizon Worlds。自 2020 年底以来,Meta 旗下的 Reality Labs 部门累计亏损已超过 700 亿美元。Meta 公司发言人表示,公司正在重新分配 Reality Labs 的资源,将更多投入放在 AI 和可穿戴设备上,例如与依视路陆逊梯卡联合推出的 Ray-Ban 智能眼镜产品线。这一调整标志着 Meta 战略重心从元宇宙向 AI 的转移,VR 行业可能正在进入一段"寒冬期"。
马斯克冲刺机器人量产,停产 Model S/X 为擎天柱让路
在最新财报电话会议上,马斯克宣布特斯拉将在 2026 年第二季度停产豪华车型 Model S 和 Model X,目的是给特斯拉机器人擎天柱(Optimus)让出生产线。马斯克透露,在把特斯拉加州弗里蒙特工厂的 Model S/X 生产线改造成擎天柱生产线后,其机器人的产量将达到每年一百万台。特斯拉 2026 年资本支出将"规模空前",超过 200 亿美元,是 2025 年 85 亿美元的 2 倍多。此外,特斯拉已在 2026 年 1 月 16 日签署协议,将在 xAI 最新一轮融资中向其投资 20 亿美元。
蚂蚁具身智能明牌:做大脑,与宇树错位竞争
蚂蚁集团正式公布其具身智能战略:不做机器人本体,而是专注于打造"大脑"系统。蚂蚁灵波团队负责人表示,公司选择与宇树科技等机器人硬件厂商错位竞争,专注于开发能够控制多种机器人平台的智能系统。这一战略定位意味着蚂蚁将避开硬件制造的激烈竞争,转而提供跨平台的 AI 解决方案,为不同机器人厂商提供统一的智能控制层。
腾讯元宝派正式杀入 AI 社交赛道
2026 年,腾讯正式推出基于 AI 的社交产品"元宝派",标志着这家社交巨头正式进入 AI 社交领域。元宝派结合了腾讯在社交网络和 AI 技术方面的双重优势,旨在通过 AI 增强用户的社交体验。该产品能够智能匹配用户兴趣、生成个性化内容,并提供 AI 辅助的社交互动功能,代表了社交网络向智能化方向发展的新趋势。
Models & Applications
DeepSeek-OCR 2 开源;Clawdbot 爆火更名 Moltbot;Kimi K2.5 开源炸场
DeepSeek-OCR 2 开源,实现视觉编码范式**转变
DeepSeek 发布 DeepSeek-OCR 2,通过引入 DeepEncoder V2 架构,实现了视觉编码从"固定扫描"向"语义推理"的范式转变。该模型将原本基于 CLIP 的编码器替换为轻量级语言模型(Qwen2-500M),并引入了具有因果注意力机制的"因果流查询"。这种设计打破了传统模型必须按从左到右、从上到下的栅格顺序处理图像的限制,赋予了编码器根据图像语义动态重排视觉 Token 的能力。在 OmniDocBench v1.5 评测中,其综合得分达到 91.09%,较前代提升了 3.73%。模型仅需 256 到 1120 个视觉 Token 即可覆盖复杂的文档页面,显著降低了下游 LLM 的计算开销。
Clawdbot 爆火后被强制更名 Moltbot, Mac mini 销量激增
开源 AI 助手 Clawdbot(现更名为 Moltbot)近期爆火,带火了 Mac mini 销量,有用户甚至一次性购买 40 台 Mac mini 来运行该应用。Clawdbot 是一个可以在本地运行的开源 AI 助手,能够直接住进常用聊天软件如 WhatsApp、Telegram、iMessage、Slack、Discord 中,具备持久记忆、主动行为、可扩展技能以及自托管可控性。然而,由于名称与 Claude 相似,Anthropic 公司强制要求其更名。开发者 Peter Steinberger 最终将其更名为 Moltbot,取自龙虾的蜕壳行为。该应用 GitHub 上的 Star 量已经超过 72.2k,被称为"开源贾维斯",能够完成整理邮件、管理日程、读 PPT、写代码、发推文等各种任务。
Kimi K2.5 正式发布并开源,推新 Agent 集群与编程工具
月之暗面正式发布并开源其新一代大模型 K2.5。该模型被宣称为迄今最智能和全能的开源模型,在 Agent、代码、图像及视频理解等多类基准测试中达到先进水平。K2.5 的核心突破在于首次引入“Agent 集群”能力,可自主创建多达 100 个“分身”组成团队,并行处理复杂任务,效率提升最高达 4.5 倍。同时,其强大的多模态能力显著降低了使用门槛,用户可通过拍照、截图或录屏与 AI 交互,甚至直接生成前端代码。同期,专为开发者打造的编程工具“Kimi Code”正式发布。
Qwen3 超大杯推理版正式上线,刷新全球 SOTA
阿里千问发布 Qwen3-Max-Thinking 正式版,在涵盖科学知识、数学推理、代码编程的 19 项权威基准测试中,赶上甚至超越 GPT-5.2-Thinking、Claude-Opus-4.5 和 Gemini 3 Pro 等 TOP 闭源模型。该模型总参数超万亿(1T),预训练数据量高达 36T Tokens,通过引入自适应工具调用和测试时扩展两项技术创新,显著提升了推理性能和调用工具的原生 Agent 能力。在启用工具的"人类最后的测试"HLE 中,Qwen3-Max-Thinking 得分 58.3,超过 GPT-5.2-Thinking 的 45.5,以及 Gemini 3 Pro 的 45.8,刷新 SOTA。千问 APP PC 端和网页端已上新这一 Qwen 系列最强模型,API 也已开放。
百川 M3 Plus 首创"证据锚定",医疗 AI 幻觉率降至 2.6%
百川智能发布医疗大模型 Baichuan M3 Plus,首创"证据锚定"技术,将医疗 AI 的幻觉率降至 2.6%,刷新全球纪录。该技术通过将模型输出严格锚定在医学证据和权威指南上,确保生成的医疗建议具有可靠的科学依据。M3 Plus 在多个医疗专业评测中表现优异,特别是在诊断准确性和治疗建议的可靠性方面显著超越同类产品。这一突破为 AI 在严肃医疗场景中的应用扫清了关键障碍。
蚂蚁开源比肩 Genie 3 的世界模型 LingBot-VLA
蚂蚁灵波开源具身智能基座模型 LingBot-VLA,采用了 20000 小时真实机器人数据,是目前开源的最大规模真实机器人数据之一。该模型在权威评测中全面超越了此前公认最强 Physical Intelligence 的π0.5,以及英伟达 GR00T N1.6 等国际顶尖模型。LingBot-VLA 采用专家混合 Transformer 架构,包含大脑(视觉语言模型)和小脑(动作专家模块)协同工作的系统,通过共享的自注意力机制进行深度耦合。模型展示了强大的跨本体泛化能力,在 9 种机器人数据上预训练后,在 3 种未见过的机器人平台上依然表现优异。
3D 领域的 NanoBanana HYPER3D 发布,万物皆可用嘴操控
3D 领域的 NanoBanana HYPER3D 正式发布,这是一个能够通过自然语言指令操控 3D 场景的 AI 系统。用户可以通过语音或文本描述来创建、编辑和控制 3D 对象,实现"万物皆可用嘴操控"的交互体验。该系统结合了 3D 生成、物理模拟和自然语言理解技术,能够理解复杂的空间关系和物理约束,为 3D 内容创作和虚拟环境交互提供了革命性的工具。
全球AI政策与市场简讯
魔法原子冲击 IPO ,将登央视春晚展示具身智能
江苏具身智能新贵魔法原子(Magic Atom)联合创始人披露,公司计划在今年冲击 IPO,并将登上央视春晚展示其最新具身智能技术。该公司专注于开发面向消费级市场的具身智能产品,已获得多轮融资。魔法原子的技术特点是能够实现低成本、高可靠性的机器人控制,目标是将具身智能技术带入普通家庭。
LeCun 创业公司**估值 35 亿美元,官宣世界模型核心方向
图灵奖得主 Yann LeCun 离开 Meta 后创立的 AMI Labs(Advanced Machine Intelligence)本周确认核心方向:开发世界模型(world models),以此构建能够理解现实世界的智能系统。公司估值达 35 亿美元,正在洽谈新一轮融资。LeCun 长期以来对现有大语言模型持怀疑态度,认为仅靠预测下一个 token 的生成式模型无法真正理解现实世界。他提出的世界模型应同时具备四项关键能力:理解真实世界、拥有持久记忆、能够进行推理与规划、可控且安全。AMI Labs 将专注于工业流程控制、自动化系统、可穿戴设备、机器人与医疗健康等高可靠性要求领域。
以上所有信息源自网络
THE END
关于 GMI Cloud
由 Google X 的 AI 专家与硅谷精英共同参与创立的 GMI Cloud 是一家领先的 AI Native Cloud 服务商,是全球七大 Reference Platform NVIDIA Cloud Partner 之一,拥有遍布全球的数据中心,为企业 AI 应用提供最新、最优的 GPU 云服务,为全球新创公司、研究机构和大型企业提供稳定安全、高效经济的 AI 云服务解决方案。
GMI Cloud 凭借高稳定性的技术架构、强大的GPU供应链以及令人瞩目的 GPU 产品阵容(如能够精准平衡 AI 成本与效率的 H200、具有卓越性能的 GB200、GB300 以及未来所有全新上线的高性能芯片),确保企业客户在高度数据安全与计算效能的基础上,高效低本地完成 AI 落地。此外,通过自研“Cluster Engine”、“Inference Engine”两大平台,完成从算力原子化供给到业务级智算服务的全栈跃迁,全力构建下一代智能算力基座。
作为推动通用人工智能(AGI)未来发展的重要力量,GMI Cloud 持续在 AI 基础设施领域引领创新。选择 GMI Cloud,您不仅是选择了先进的 GPU 云服务,更是选择了一个全方位的 AI 基础设施合作伙伴。
如果您想要了解有关 GMI Cloud 的信息
请关注我们并建立联系