首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
数据智能老司机
掘友等级
架构师
大数据、AI、云原生
获得徽章 9
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 4
沸点 0
赞
4
返回
|
搜索文章
最新
热门
我读了Claude Code泄露的51万行源码,发现Anthropic在造一个"AI操作系统"
事情的起因 2026年3月31日,安全研究者 Chaofan Shou 在推上发了一条不起眼的帖子: 翻译成人话:Claude Code 的完整 TypeScript 源码,51.2万行,1903个文
从零开始构建一个推理模型——使用预训练好的 LLM 生成文本
本章内容包括 为使用 LLM 搭建代码环境 如何使用 tokenizer 为 LLM 准备输入文本 使用预训练 LLM 进行文本生成的逐步过程 用于加速 LLM 文本生成的缓存与编译技术 在上一章中,
从零开始构建一个推理模型——理解推理模型
本章内容包括 在 LLM 语境下,“推理”具体指什么 LLM 的常规预训练与后训练阶段 提升 LLM 推理能力的关键方法 推理与模式匹配有何不同 为什么我们要从零开始构建推理模型 欢迎来到大语言模型(
人类反馈强化学习实用指南——基于奖励建模的策略训练
在上一章中,我们讨论了 RLHF 的作用,以及如何通过多种方式将人类反馈纳入进来,以对齐 AI 策略并加速训练。其中一种非常实用的方法,是利用人类反馈训练一个奖励模型,再用这个奖励模型来引导智能体训练
人类反馈强化学习实用指南——人类反馈在强化学习中的角色
在本章中,我们将把关注重点转向人类反馈在强化学习(RL)中的作用,并从更宏观的角度来审视这一主题。在上一章中,我们已经说明了:与传统 RL 方法(例如 Q-learning)相比,带有人类反馈的强化学
人类反馈强化学习实用指南——强化学习导论
本书讨论的是如何让 AI 智能体与人类意图保持一致。过去二十年间,AI 能力呈指数级提升,而机器学习、计算机视觉、自然语言处理、深度学习以及强化学习(Reinforcement Learning,RL
Multimodal Lakehouse,不只是‘多模态 + 湖仓’
Multimodal Lakehouse,不只是“多模态 + 湖仓”:它到底在补哪条 AI 数据底座的断层? 这两年,很多团队一边在做多模态 RAG、视频理解、内容检索、Agent,一边又在补同一类基
AI Agent 创业,到底该往哪走?——方向、机会、陷阱与落地路径的深度拆解
为什么 Agent 创业看起来机会满地,真正下手时反而更迷茫 AI Agent 市场在 2025 年达到了 78.4 亿美元,预计 2030 年会突破 526 亿美元(41% 复合增长率)。CB In
AI 数据工程,究竟在重构什么?——一篇讲透 AI Data Engineering 的深度研究
为什么大家都在聊模型,但真正决定成败的是数据工程 一个典型的场景:团队花三个月搭了一套 RAG 系统——接了向量库,调了 embedding 模型,prompt 打磨了十几版,demo 环节效果惊艳。
Context Engineering 深度拆解:Agent 时代真正的胜负手
一、先讲清楚:Context Engineering 到底是个啥 2025 年 6 月,Shopify CEO Tobi Lütke 发了一条推:"我真的很喜欢 'context engineerin
下一页
个人成就
优秀创作者
文章被点赞
2,069
文章被阅读
931,756
掘力值
25,931
关注了
6
关注者
1,182
收藏集
1
关注标签
10
加入于
2019-03-02