首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ZiLing
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
最新
热门
做了一个 AI Agent Runtime,踩了一堆坑,聊聊我学到的东西
记录了我做 AvatarOS 这个开源 Agent Runtime 过程中踩过的坑:审批状态丢失、DAG 执行时序、Agent 失控防护,以及最终演进出的持久化状态机、风险分级执行器、验证自动修复框架
底层架构师的终局:AI 时代,我们是在写代码,还是在给模型“擦屁股”?
AI重构开发,架构师需向治理者转型。通过防御架构治理代码副作用,凭工程美学与异步协作强化决策。收回裁决权。
计算机科学里的“海森堡原理”:为什么我们永远无法完全预测代码的“副作用”?
莱斯定理证明,静态分析无法完美预测程序副作用。既然理论上无法预知,工程上的最优解便是转向“边界控制”。成熟的系统设计承认局限,通过限制“爆炸半径”来驯服不可控的副作用,用克制的执行边界来换取真正的安全
我以为它在帮我重构,结果它在帮我“重开”
我以为AI 在帮我重构,结果它在执行阶段直接“重开”了我的项目。代码逻辑没问题,Prompt 也很完美,但一次路径幻觉就让 3 个月的成果在几秒内归零。这次翻车让我重新思考 AI 自动化的执行安全。
为什么 AI Agent 需要执行层熔断器?——一次 LangChain 事故复盘
复盘一次LangChain事故:Agent在执行阶段越权访问文件却无人拦截。文章提出执行层熔断器理念,通过运行时校验、审计与回放,保障Agent在生产环境中的安全、可解释与可复现能力与风险控制体系
拒绝“从头重跑”:如何为 AI Agent 实现断点续传与状态回放?
在 AI Agent 的实际开发中,失败往往发生在执行阶段而非规划阶段。本文通过一次真实的调试经历,分析为什么 Agent 频繁被迫“从头重跑”,并探讨如何通过确定性执行、结构化 Trace 与状态回
AI Agent 系统里,最难的不是规划,而是如何定义“完成”
在 AI Agent / 自动化系统中,真正困难的往往不是规划或模型能力,而是如何定义任务“完成”。当系统开始面对部分失败、重试和不确定状态时,“done”本身就成了一个工程问题。
Agent 系统为什么这么难调试?问题往往不在模型,而在执行层
做了几个 Agent 项目后,我发现很多最难调试的问题并不出在模型或规划阶段。 计划看起来完全正确,但系统仍会在执行时失败,而且很难复现。 这篇文章记录了我在执行层踩过的一些真实工程坑。
个人成就
文章被阅读
592
掘力值
97
关注了
0
关注者
0
收藏集
0
关注标签
6
加入于
2025-12-17