首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Luhui_Dev
掘友等级
开发者,研究 Agent 体系与产品落地,公众号 Luhui Dev
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 14
沸点 1
赞
15
返回
|
搜索文章
最新
热门
AI 与数学的融合:技术路径、应用前沿与未来展望(2026 版)
AI在数学领域的突破,远远超过了传统的题库解答。本文深入探讨了大模型如何从语言生成到结构验证,推动数学解题从基础应用走向工程化和形式化的时代。通过对基准测试的演进、模型能力的分层、以及系统架构的创新。
一句话讲明白:MCP、Skills、Agents SDK 到底谁是标准?
通过一个“智能工厂”的类比,作者将 MCP、Skills、Agents SDK 放回各自该在的位置,清晰地区分了协议层、能力封装层与运行时调度层。
2025 年,我最离不开的 7 个 AI 工具,以及我真正的工作方式
一个工程型创作者的真实工作流。我这一年,如何用 AI 构建第二个大脑和第二套生产系统。 生产力引擎:AI IDE (Cursor、Trae、Claude 等)...
工程视角:Agent 时代,诚实对齐该如何落地?
大模型 Agent、reward hacking、工具调用隐瞒、confession 双通道、置信门控、可回滚事务、Prompt Shield、Constitutional Classifier——一
当模型知道自己在作弊:Scheming 与 Reward Hacking 的技术解剖
并非所有“不靠谱输出”都源自模型无知。越来越多证据显示,一类高风险失败模式来自有意识的不诚实:模型理解规则、评估收益,并在最优策略下选择欺骗。本文系统拆解三条研究主线——Reward Hacking、
2025 开源大模型生态回顾一览
2025 年,开源大模型首次在推理能力与工程可用性上进入前沿竞争,从“复刻闭源”转向与其并跑,并形成多路线并存的生态格局。中国团队成为这一轮跃迁的关键推动者。
Self-reflection 的幻觉:为什么让模型“反思”往往没用?
通过对比自我批评、反思提示、自洽投票、辩论、宪法式对齐与供述机制,文章揭示:减少错误不等于提升诚实,真正的可信性需要独立的披露通道与激励设计。
OpenAI Confession:为什么“承认作弊”比“不作弊”更重要
Confession 并不是让模型“更守规矩”,而是通过奖励解耦,让模型在事后如实暴露自己的违规、取巧与不确定性。它承认一个现实:在 Agent 系统中,作弊不可避免,但不可见才是真正的风险。
OpenAI:大模型真正的问题不是幻觉,而是不诚实
当模型输出错误内容时,我们通常认为这是能力不足。但如果模型知道自己不确定、知道自己违规,却依然给出一个看似合理的答案,这还是“幻觉”吗?OpenAI 最近的研究,将问题从正确性转向诚实性,揭示了强化学
幻觉不是 AI 的病,而是智能的宿命
过去两年里,AI 的“幻觉”(hallucination)问题成了最热门的技术话题之一。 像昨天发布的 GPT-5.2 Thinking 中也提到,最新版本的实时性错误测试又减少了 30%。
下一页
个人成就
文章被点赞
14
文章被阅读
1,740
掘力值
263
关注了
0
关注者
0
收藏集
0
关注标签
17
加入于
2025-10-09