首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ZiLing
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
最新
热门
底层架构师的终局:AI 时代,我们是在写代码,还是在给模型“擦屁股”?
AI重构开发,架构师需向治理者转型。通过防御架构治理代码副作用,凭工程美学与异步协作强化决策。收回裁决权。
计算机科学里的“海森堡原理”:为什么我们永远无法完全预测代码的“副作用”?
莱斯定理证明,静态分析无法完美预测程序副作用。既然理论上无法预知,工程上的最优解便是转向“边界控制”。成熟的系统设计承认局限,通过限制“爆炸半径”来驯服不可控的副作用,用克制的执行边界来换取真正的安全
我以为它在帮我重构,结果它在帮我“重开”
我以为AI 在帮我重构,结果它在执行阶段直接“重开”了我的项目。代码逻辑没问题,Prompt 也很完美,但一次路径幻觉就让 3 个月的成果在几秒内归零。这次翻车让我重新思考 AI 自动化的执行安全。
为什么 AI Agent 需要执行层熔断器?——一次 LangChain 事故复盘
复盘一次LangChain事故:Agent在执行阶段越权访问文件却无人拦截。文章提出执行层熔断器理念,通过运行时校验、审计与回放,保障Agent在生产环境中的安全、可解释与可复现能力与风险控制体系
拒绝“从头重跑”:如何为 AI Agent 实现断点续传与状态回放?
在 AI Agent 的实际开发中,失败往往发生在执行阶段而非规划阶段。本文通过一次真实的调试经历,分析为什么 Agent 频繁被迫“从头重跑”,并探讨如何通过确定性执行、结构化 Trace 与状态回
AI Agent 系统里,最难的不是规划,而是如何定义“完成”
在 AI Agent / 自动化系统中,真正困难的往往不是规划或模型能力,而是如何定义任务“完成”。当系统开始面对部分失败、重试和不确定状态时,“done”本身就成了一个工程问题。
Agent 系统为什么这么难调试?问题往往不在模型,而在执行层
做了几个 Agent 项目后,我发现很多最难调试的问题并不出在模型或规划阶段。 计划看起来完全正确,但系统仍会在执行时失败,而且很难复现。 这篇文章记录了我在执行层踩过的一些真实工程坑。
个人成就
文章被阅读
352
掘力值
86
关注了
0
关注者
0
收藏集
0
关注标签
6
加入于
2025-12-17