首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI学习笔记
LukeLi
创建于2026-04-07
订阅专栏
AI学习笔记
等 1 人订阅
共6篇文章
创建于2026-04-07
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
一文看懂 RAG,如何给大模型装上“外部大脑”?
一、 为什么要学 RAG? 很多人玩大模型(LLM)都有个烦恼:AI 经常一本正经地胡说八道(幻觉),或者不知道最近发生的事。 RAG(检索增强生成) 的出现,就是为了解决这个问题。它不是去重新训练模
大模型底层逻辑(六):Harness 与 Planning
很多人在使用 AI 时会发现:让它写个短句它很行,但让它开发一个完整的系统,它就会顾头不顾尾,甚至陷入逻辑死循环。这是因为模型本质上是“逐词预测”的,它缺乏对复杂任务的长远构思。 为了解决这个问题,A
大模型底层逻辑(四):RAG 检索增强生成
大模型有一个致命的弱点:知识滞后。它的知识停留在训练结束的那一天(训练剪裁期)。如果你问它“今天早上的天气预报”或者“你们公司的最新报销政策”,它只会一本正经地胡说八道(幻觉)。 RAG (Retri
大模型底层逻辑(三):指令遵循与系统提示词,如何给 AI 立规矩?
很多初学者有一个误区:认为大模型天生就会对话。其实不然,原始的底座模型(Base Model)只会“续写”。如果你问它“北京的首都在哪?”,它可能会接着写“上海的首都在哪?”。 它是如何变成现在这种能
大模型底层逻辑(二):注意力机制,AI 如何在信息海洋里“划重点”?
在上一篇中,我们知道了 AI 把文字拆成了 Token,并给它们分配了空间坐标(Embedding)。但问题来了:孤立的单词是没有意义的。 比如“苹果”这个词: 在“苹果很好吃”里,它是水果。 在“苹
大模型底层逻辑(一):词元化与向量化,AI 到底怎么“读”懂世界?
当我们输入“你好,帮我写个代码”时,大模型(LLM)看到的并不是这些汉字,而是一串冰冷的数字。要理解 2026 年那些复杂的 MCP 或 Skills,我们得先看清模型底层的两个基本动作:拆解(Tok