首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
yuer2025
掘友等级
高级算法工程师
|
遂宁图策软件科技有限公司
独立 AI 系统架构师 / 决策模型研究者 / Yuer DSL 作者 长期研究「AI 如何稳定执行任务」与「可复现的多步骤推理链」。GitHub: https://github.com/yuer-dsl 欢迎讨论与交流。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
如何用 Yuer DSL 构建一个投资风险量化前置裁决模板
背景:真正危险的不是“算错风险”,而是“不该算却开始算” 在 EDCA OS / Yuer DSL 的多轮高责任场景工程测试中,我们反复遇到同一个问题: 当系统在以下状态下继续执行风险量化或分析逻辑:
当 LLM 成为新的“解释出口”: AI SEO 之外,一个正在发生的人机协作范式变化
一、一个很真实的变化:我们开始把“理解”交给 AI 现在很多人的日常已经是这样: 刷到一堆信息 打开 ChatGPT / Copilot 问一句: “你怎么看?” 这一步不是搜索,也不是查资料, 而是
大模型为什么一进生产就不对劲?一个工程师视角的复盘
一个很多工程师都会遇到的瞬间 如果你真的把大模型接进过业务系统,大概率会经历过这个阶段: Demo 阶段: 灰度阶段: 真进生产: 常见问题包括: 同样的输入,多跑几次结果不一致 行为受上下文影响,难
Human-in-the-Loop,真的安全吗?
很多 AI 项目翻车,不是因为模型,而是因为这句: “我们有人在回路里” 如果你做过 AI 项目评审,大概率听过这句话: 这句话听起来很稳。 但在真实工程里,它经常是风险开始被忽略的地方。 这篇不讲模
用 AI 写 Rust,最危险的不是不会,而是“太会给建议”
最近一年,Rust + AI 成了一个很微妙的组合。 一边是 Rust 越来越火, 一边是 Copilot / ChatGPT/gemini/豆包 几乎人手一个。 很多人已经形成固定流程: 直到某一天
Agent 没死,但你现在做的 Agent,可能已经过时了
最近一年,AI Agent 几乎成了“万金油”: 自动规划任务 自动调用工具 多 Agent 协作 一条指令跑完全流程 很多 Demo 看起来都很爽。 但如果你真的把 Agent 接进过真实系统(钱、
AI Agent 越聪明,为什么系统反而越不可控?
这两年,AI Agent 被吹得越来越“聪明”。 自动决策、自动调度、自动执行, 看起来像是在帮工程师减负。 但我想抛一个不太讨喜的问题: 一、一个被忽略的工程事实 在很多 AI 系统中,实际运行结构
为什么未来 3 年,AI 系统如果“不会拒绝”,就注定上不了生产环境?
这两年,AI 模型和 Agent 的能力进步非常快。 Demo 越来越漂亮,自动化程度越来越高。 但在真正的工程落地中,越来越多团队开始遇到同一个问题: 很多人下意识以为是模型还不够强, 但实际原因往
AI Agent 从 Demo 到工程,最容易被忽略的几个“致命点”
很多人第一次做 AI Agent,都会经历一个相似的阶段: 我想聊的不是模型、不是 Prompt,也不是某个框架, 而是为什么大量 Agent 项目,卡死在“工程化”这一步。 1. Demo 阶段的
WebRTC 实时语音交互怎么做“可中断”?一个绕不开的 FSM 设计
如果你只是做“能说话”的语音系统, WebRTC + ASR + TTS 基本就够了。 但只要你开始做可插嘴(barge-in)的实时语音交互,你会很快发现: 这一步,99% 的问题都不是音频问题,而
下一页
个人成就
文章被阅读
1,280
掘力值
337
关注了
0
关注者
0
收藏集
0
关注标签
2
加入于
2025-11-17