首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ChatGPT与大模型研究
数据智能老司机
创建于2023-05-22
订阅专栏
生成式AI探索和研究,场景落地。
等 147 人订阅
共764篇文章
创建于2023-05-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
详尽拆解 Harness Engineering:AI Agent 真正的壁垒,不在模型,而在 Harness
很多人现在还在把 Agent 工程理解成“提示词写好一点”“工具接多一点”“模型换强一点”。但真做过生产系统的人都知道,决定一个 agent 能不能长期稳定干活的,往往不是模型本身,而是模型外面那一整
多模态数据湖仓,为什么会成为 Data+AI 的下一层基础设施:从 Iceberg + Ray 讲起
如果你最近在做 RAG、多模态检索、推荐、AIGC 训练数据,应该多少都踩过同一类坑。 原始 PDF、图片、音频、视频扔在对象存储里;结构化元数据放在数仓;embedding 又放进向量库;OCR、切
数据语义层,正在从 BI 配角变成 AI 时代的基础设施
说实话,语义层这个词前几年并不算性感。很多人一听就会把它和 BI、指标口径、老板看板绑在一起,觉得这是个老话题。可如果你最近认真看过主流数据平台的产品路线,就会发现它已经彻底变味了。Looker 把对
Agent Skills:为什么你的 AI 系统需要的不是更聪明的模型,而是一套可复用的能力包
开篇:一次让我彻底改变思路的失败 去年年底,我们团队做了一个客服 Agent 项目。需求很清晰:接入工单系统、知识库和用户画像,帮一线客服做工单分流、问题诊断和解决方案推荐。 我们的第一版实现方案非常
数据契约:AI 时代数据工程最被低估的基建
开篇:一个凌晨三点的故事 我先讲一个真实发生过的场景。 某天凌晨三点,我被告警叫醒。不是因为服务挂了,也不是因为模型超时。告警的内容是:线上一个 Agent 系统的「客户情绪判断准确率」在过去 6 小
FiberPO:新的优化几何,还是给 Trust-Region 套上的一层更精致的代数外壳?
开篇:为什么 LLM RL 的 proximal objective 一直在"打补丁"? PPO 是 2017 年的算法。到今天,它仍然是 LLM 对齐和 reasoning 训练中使用最广泛的 RL
MoE:更聪明的扩容,还是把模型问题搬进了系统深水区?
开篇:671B 参数,37B 激活——复杂性去哪了? DeepSeek-V3 有 671B 总参数,每个 token 只激活 37B。Mixtral 8x7B 有 47B 参数,每个 token 激活
QAT 深度拆解:大模型时代,量化感知训练到底还值不值得做?
从一个反直觉现象说起 2025 年 4 月,Google 发布了 Gemma 3 的 QAT checkpoint。做法很简单:在已经训好的全精度模型上,跑大约 5000 步量化感知训练,用非量化 c
合成数据的真相:不是替代真实数据,而是把最难的数据问题工程化
很多人第一次听到“合成数据”,脑子里的第一反应都差不多: 不就是“造点假的数据”吗? 这个理解,不能说全错,但确实太浅了。 因为今天真正有价值的合成数据,压根不是为了“糊弄一下模型”,也不是为了做个
它不是在扫漏洞,它是在自己打进去:Shannon 背后,AI 安全真正变天了
有时候,一个方向是不是到了拐点,不是看它会不会“更强一点”,而是看它有没有开始换一种工作方式。 Shannon 让我真正警觉的地方,不是它又多找了几个漏洞,也不是它把“AI 黑客”这个词重新炒热了,而
2026 年大模型 AI 产业全景:一个搞 Agent 的人,终于把整个技术栈看明白了
前几年大家聊 AI,最爱问的一句话是:你到底是做模型的,还是做应用的? 到了 2026 年,这个分法已经越来越不够用了。 因为今天的大模型产业,早就不是“上面一个模型,下面一堆套壳应用”这么简单。它更
Karpathy 不写代码了,他在用 LLM "编译"知识——这可能是 2026 年最被低估的 AI 用法
起因 最近 Karpathy 发了一条长推文,标题叫 "LLM Knowledge Bases"。 核心意思是:他最近大量使用 LLM 的方式已经不是写代码了,而是操作知识——用 Markdown 和
YC CEO 开源了他的编程工作流,3 周 61K Star——但这件事的意义远不止一个 GitHub 项目
先把背景讲清楚 2026 年 3 月 11 日,Y Combinator 现任 CEO Garry Tan 在 GitHub 上开源了一个叫 gstack 的项目。三周之后,61000 Star,81
你的 MacBook 正在变成一台 AI 路由器:本地推理革命的技术全景与产业震荡
零、引子:一个让我失眠的 GitHub 项目 2026年3月的某个深夜,我在 GitHub 上刷到一个叫 turboquant_plus 的开源项目。 它做的事情说起来不复杂——压缩大语言模型推理时的
Transformers 权威指南——强化学习 Transformer
强化学习(RL)是一种基于“通过环境反馈来做序列决策”的范式。你仔细想想就会发现,通过交互来学习其实并不是什么新概念。事实上,你这一生都一直在接触 RL 的基本原则。因为很多时候,你就是通过和周围环境
Transformers 权威指南——从声音到 Token 再返回声音:音频领域中的 Transformer
这一章会带你沿着“维度轴”再往前走一步。你是从最原始的 Transformer——也就是语言——出发的,然后走到了时间序列;接着你又探索了视觉和视频;现在,你要进入音频领域了。先剧透一句:Transf
Transformers 权威指南——用于视频生成的 Transformer
这一章会是一段很有趣的旅程,因为到这里,你前面学过的很多东西会在当前最先进的文生视频(T2V)和图生视频(I2V)模型里真正汇合起来。你已经看到 ViT 如何把图像重组为 patch(“视觉模型中的嵌
Transformers 权威指南——用于图像生成的 Transformer
随着 DALL·E、Imagen、Midjourney 和 Stable Diffusion 等文生图(text-to-image, T2I)生成模型的发展,一个全新的逼真图像创作时代已经开启。这些模
Transformers 权威指南——用于视觉任务的 Transformer
Transformer 在这一领域中的一个巨大优势,是它具备 few-shot 和 zero-shot 学习能力。图像标注成本很高,而且很多场景里根本拿不到足够多的标签,比如癌症检测就是这样。能够用极
Transformers 权威指南——用于时间序列的 Transformer
Transformer 之所以在时间序列建模中越来越受欢迎,是因为它比循环神经网络(RNN)模型更擅长捕捉长序列中的交互关系。Transformer 中的自注意力机制允许序列中的每个元素直接关注其他所
下一页