首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
工具人研究Hive
掘友等级
工程师,专注 AI 应用与自动化工程,LLM · Agent · MCP,工具人研究所所长
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
我用 OpenClaw 做了一个资讯推送,然后决定再做一遍
我用 OpenClaw 做了一个资讯推送。需求很简单——抓 AI 领域的热点,按我的偏好每天推给我。 它跑起来了,每天都能收到。但我决定再做一遍。 不是因为它坏了,是因为我看着它,心里别扭。 这篇文章是关于那个别扭是什么。 不然下面讲的东西
从 TTS 工具上线谈起:几个被踩出来的认知
流行的说法是 LLM 让 code 变得廉价了。更准确的版本是:code 的边际生产成本塌方了,但总拥有成本没变,某些场景甚至更贵。 塌方的是"从零到一个能跑的 demo"。没变便宜的是: 所以当自媒体上 AI 框架一周一个、人人 SOTA
当安慰没有尽头——AI 拟合与心智脆弱状态
这篇文章是一个思考题,不是一篇观点文。不给答案,不站说教位置,目的是让你在某个具体画面上停一下,然后自己想。 前置阅读:[curve-fit:和 AI 协作一年之后,我才知道我每天在防御什么](/docs/curve-fit)——那篇讲清楚
拒绝自拟合 — 现阶段试行
上一篇讲了单次对话里的双向 curve-fit。这次想分享的,是它的时间维度——跨对话的记忆累积。更隐形,也更慢。 起因很简单。我的 Claude 账号被封了,一年的使用历史和记忆,全部丢失。差不多同时,Claude 在 4 月 4 日的新
一份学东西的 checklist
陈述性知识 程序性知识 两者互相促进:项目暴露基础知识窟窿并定优先级,基础知识让你在项目中看懂更多毛边。不分先后,同时跑。 手搓 → 跑通 → 输出 → 发布 → 反馈 完工线:够用到能收到反馈,不是做到满意。 对你而言,public =
一篇关于 curve-fit 的视频稿是如何被改出来、发出去的
——一段两天对话的结构化整理 对话最初的开场极简——"聊聊"。Claude 问聊啥,猜了 Brief 03 和 P1 ToolRef 的 sync 问题。 接着是"聊聊 curve-fit"。Claude 又猜了一遍:是想聊算法本身(最小二
curve-fit:和 AI 协作一年之后,我才知道我每天在防御什么
半年前我对着 ML 视频啃过一次。当时的感觉——和原来的技术栈脱节,没有技能迁移,从复杂的数学和算法开始,劝退了。 劝退我的不是"学不会",是"学不进去"——技术栈和我多年攒下的全栈经验完全脱节,我看着白板上的偏导符号,找不到一个钩子能把它
用 Harness Engineering 重新设计 TTS 流水线:一个多 Agent 系统的工程实践
用 Harness Engineering 重新设计 TTS 流水线:一个多 Agent 系统的工程实践 TTS(Text-to-Speech)配音是视频生产中最不稳定的环节。我做中文科技短视频,每期
为什么你的 AI Agent 需要认知架构 — 当 Sonnet 打败 Opus
为什么你的 AI Agent 需要认知架构 — 当 Sonnet 打败 Opus 一、问题:19 份报告,零反馈 Scout 是我们在 OpenClaw 框架上构建的 AI 求职市场分析 Agent,
我让AI Agent能记住经验了——agent-evolution框架完全指南
我让 AI Agent 能"记住"经验了——agent-evolution 框架完全指南 每次开新对话,AI Agent 又变成了一张白纸。 你花一周时间调教好一个内容创作 Agent,它终于懂了你的
下一页
个人成就
文章被阅读
1,365
掘力值
73
关注了
0
关注者
1
收藏集
0
关注标签
0
加入于
2026-03-10