获得徽章 0
其实,语言智能的爆发可能只是AI发展的“第一阶段”,真正的下一个前沿,是空间智能。现在的模型确实能写文章、画图、甚至生成视频,但它们其实并不“懂”这个世界。它可以描述一只猫,却不知道那只猫离桌子有多远;能生成一条街景图,却不理解空间的逻辑。而所谓的空间智能,就是让AI能在脑子里“搭建”一个世界。它不光能看图、听语言、理解物理规律,还能在和环境互动的过程中,不断修正自己的认知。对我们这些做多模态、视频生成、机器人研究的人来说,这就是下一个自然的跃迁点。
展开
1
有人问,大模型出来后,开发视角是不是发生了很大变化?确实,这两年做项目能明显感受到,从“写逻辑”到“教模型”,思维方式彻底换了。传统开发讲究规则闭环、边界清晰,而大模型更多靠概率与数据分布,靠“让系统自己学”。系统架构也在重构:从逻辑中台 + 数据库,变成了向量检索(RAG)+ 模型编排 + 观测治理三件套。开发流程不再只是写接口、跑单测,而是要做语料清洗、提示词设计、场景评测。上线也不是简单发版,而要有灰度、可回滚和人类反馈机制。成本上,API 费反而不是大头,最大支出是数据治理和模型评测。很多人说大模型会“吞掉程序员”,其实不然,它只是把确定性工作交给机器,把不确定性留给人。
展开
评论
最近在折腾 AI Agent,整个系统太容易飘。传统系统逻辑错了能debug,Agent是意图跑偏了,你根本不知道它从哪开始抽风。

前几天AI Agent分析得还挺靠谱,后面开始一本正经地胡说八道。查半天才发现是embedding更新不同步、索引漂移,加上prompt被截断,整得像是记忆混乱。

有时候还会自己改SQL、调阈值,“帮你优化”得特别勤快。结果把阈值一调,告警全失踪。最后只能加审计层,每个动作都得人类确认。

AI Agent确实能干活,但想让它稳定,太难了。它不是程序,更像个半懂事的新人,容易瞎折腾。

以前系统出bug能复现,现在Agent出bug,只能靠缘分
展开
1
“深度工作的假设:能够进行深度工作的能力,正变得越来越稀缺,而与此同时,它在我们的经济中却变得越来越有价值。”——《深度工作:如何有效使用每一点脑力》
在一个充满干扰的时代,专注已成为稀缺资源。真正的竞争力,不在于做得多,而在于能否进入深度专注状态,创造出高价值的成果。
评论
这两年,大家都在卷“更大的模型、更强的算力、更夸张的参数量”。但越来越多的迹象表明——“越大越好”正在接近天花板。
当行业共识过于集中在“规模”上时,真正的创新往往被忽略。算法效率、模型结构、数据质量、可解释性,这些才可能成为下一轮竞争的关键。
AI的发展不应只是“堆料比赛”,而要回归科学与工程的本质:用最优的算法解决最核心的问题。
展开
评论
拖延症的核心不是拖,而是逃。
逃避不确定,逃避失败,逃避那个“可能不够好”的自己。
每一次拖延,都是和焦虑的一场拉锯。
当你能允许不完美地开始,事情反而会轻盈起来。
评论
“Your job as a leader is not to make every decision, but to create an environment where the right decisions get made.”
—— Claire Hughes Johnson,《Scaling People》(2023)

“作为领导者,你的职责不是亲自做出每一个决定,而是营造一个能让正确决策自然发生的环境。”
展开
评论
在这个技术发展比我们思考还快的时代,真正重要的不是追逐每一个新工具,而是学会问对问题。

最近读了 Kate O’Neill 的《What Matters Next》,书中一句话让我印象深刻:
“Technology should serve our purpose, not become our purpose.”

技术应服务于人,而不是让人沦为技术的附属。
展开
评论
时间管理不是让一切按计划走,而是在混乱中保持节奏。
评论
最近看到 MIT 提出的递归语言模型(RLM)突破了LLM 的上下文瓶颈。核心思路并不是扩大模型窗口,而是像程序一样,把超长上下文拆分成片段,递归调用子模型处理与总结,再合并结果,有点像 LSTM 的“记忆”升级版。这让模型具备了“分段思考 + 记忆回溯”的能力,看起来就像能读懂“无限上下文”。
评论
清晨5点半,城市还没完全醒,我已经跑完了五公里。
呼吸的节奏像代码的循环,平稳又充满反馈。
跑步的时候不想算法、不想架构,但思路反而更清晰——
很多复杂问题,其实只是在“心率过高”的状态下被放大了。

晨跑像一次系统重启,汗水清空缓存,让新的一天有更干净的输入。
写代码靠逻辑,生活靠节奏。
日常的稳定迭代,比任何灵光乍现都更重要。
展开
16
今天一个网友问:
AI都能写代码了,人还学技术干嘛?

工具懂逻辑,人要懂方向。
技术的尽头不是机器,而是对世界的理解。
2
研究表明:对大语言模型(LLM)说话别太客气,语气越直接甚至粗鲁,模型反而回答得更准。
付玉祥于2025-10-13 11:41发布的图片
4
十一后首个周日:不卷不摆,刚刚好。
评论
拖延不会让事情消失,只会让压力、焦虑和自责一起到来。最好的时机,其实就是现在。
评论
当算法越来越强时,最稀缺的不是算力,而是“判断什么时候不用算法”的人。最近在调一个模型,花了两天提了1%的精度,后来一句规则判断直接解决。我突然意识到:AI的尽头是人性,模型的尽头是直觉。
你们在做AI时,有没有类似“被人类智慧反杀”的时刻?
评论
第一天上班,咖啡续命,文件堆成山。
假期的我:岁月静好。
上班的我:手忙脚乱。
但——重新开始,也挺好。
2
过去十年,我们在让机器“学习”;
未来十年,我们要让机器“理解”。
学习是模仿,理解是创造。
算法的尽头,也许是认知。
评论
下一页
个人成就
文章被点赞 22
文章被阅读 12,252
掘力值 278
收藏集
0
关注标签
0
加入于