首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Luhui_Dev
掘友等级
开发者,研究 Agent 体系与产品落地,公众号 Luhui Dev
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 14
沸点 1
赞
15
返回
|
搜索文章
最新
热门
当模型知道自己在作弊:Scheming 与 Reward Hacking 的技术解剖
并非所有“不靠谱输出”都源自模型无知。越来越多证据显示,一类高风险失败模式来自有意识的不诚实:模型理解规则、评估收益,并在最优策略下选择欺骗。本文系统拆解三条研究主线——Reward Hacking、
2025 开源大模型生态回顾一览
2025 年,开源大模型首次在推理能力与工程可用性上进入前沿竞争,从“复刻闭源”转向与其并跑,并形成多路线并存的生态格局。中国团队成为这一轮跃迁的关键推动者。
Self-reflection 的幻觉:为什么让模型“反思”往往没用?
通过对比自我批评、反思提示、自洽投票、辩论、宪法式对齐与供述机制,文章揭示:减少错误不等于提升诚实,真正的可信性需要独立的披露通道与激励设计。
OpenAI Confession:为什么“承认作弊”比“不作弊”更重要
Confession 并不是让模型“更守规矩”,而是通过奖励解耦,让模型在事后如实暴露自己的违规、取巧与不确定性。它承认一个现实:在 Agent 系统中,作弊不可避免,但不可见才是真正的风险。
OpenAI:大模型真正的问题不是幻觉,而是不诚实
当模型输出错误内容时,我们通常认为这是能力不足。但如果模型知道自己不确定、知道自己违规,却依然给出一个看似合理的答案,这还是“幻觉”吗?OpenAI 最近的研究,将问题从正确性转向诚实性,揭示了强化学
幻觉不是 AI 的病,而是智能的宿命
过去两年里,AI 的“幻觉”(hallucination)问题成了最热门的技术话题之一。 像昨天发布的 GPT-5.2 Thinking 中也提到,最新版本的实时性错误测试又减少了 30%。
从 GPT-5 Unified 系统设计中学到的工程精髓
GPT-5 Unified如何通过灵活的推理机制,让AI在不同的场景中表现得更高效、更智能?文章将揭示如何通过调度决策与深度推理让推理能力变得可控和扩展。
从顶流开源 Kimi K2-Thinking 学习:什么是推理模型?
Kimi K2‑Thinking 是优秀的开源推理模型,突破了传统大型语言模型的局限,以长时间推理、工具调用和自我反思为核心,展现了在复杂任务中的卓越表现。
为什么李飞飞说:AI 真正的进步取决于世界模型
为什么世界模型和空间智能代表了人工智能超越大型语言模型的下一个前沿?别被炫酷 3D 骗了:世界模型真正改变的是 AI 的“理解能力”。
Claude Multi-Agent 的核心经验精华(面向工程与产品)
从 Claude Multi-Agent 学到的 12 个让系统“能打硬仗”的设计智慧。本文分享了Claude团队的核心经验,揭示了如何用多智能体提升AI系统的性能和效率。
下一页
个人成就
文章被点赞
14
文章被阅读
3,203
掘力值
341
关注了
0
关注者
0
收藏集
0
关注标签
17
加入于
2025-10-09