首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
LukeLi
掘友等级
获得徽章 1
动态
文章
专栏
沸点
收藏集
关注
作品
赞
12
文章 12
沸点 0
赞
12
返回
|
搜索文章
最新
热门
一文看懂 RAG,如何给大模型装上“外部大脑”?
一、 为什么要学 RAG? 很多人玩大模型(LLM)都有个烦恼:AI 经常一本正经地胡说八道(幻觉),或者不知道最近发生的事。 RAG(检索增强生成) 的出现,就是为了解决这个问题。它不是去重新训练模
大模型底层逻辑(六):Harness 与 Planning
很多人在使用 AI 时会发现:让它写个短句它很行,但让它开发一个完整的系统,它就会顾头不顾尾,甚至陷入逻辑死循环。这是因为模型本质上是“逐词预测”的,它缺乏对复杂任务的长远构思。 为了解决这个问题,A
大模型底层逻辑(五):Function Calling 与Tools
在之前的学习中,AI 始终是在“说话”。哪怕它说得再对,如果你不手动复制它的代码去运行,或者不手动把它的建议录入系统,它依然只是个“清谈客”。 Function Calling(函数调用) 的出现,标
大模型底层逻辑(四):RAG 检索增强生成
大模型有一个致命的弱点:知识滞后。它的知识停留在训练结束的那一天(训练剪裁期)。如果你问它“今天早上的天气预报”或者“你们公司的最新报销政策”,它只会一本正经地胡说八道(幻觉)。 RAG (Retri
大模型底层逻辑(三):指令遵循与系统提示词,如何给 AI 立规矩?
很多初学者有一个误区:认为大模型天生就会对话。其实不然,原始的底座模型(Base Model)只会“续写”。如果你问它“北京的首都在哪?”,它可能会接着写“上海的首都在哪?”。 它是如何变成现在这种能
大模型底层逻辑(二):注意力机制,AI 如何在信息海洋里“划重点”?
在上一篇中,我们知道了 AI 把文字拆成了 Token,并给它们分配了空间坐标(Embedding)。但问题来了:孤立的单词是没有意义的。 比如“苹果”这个词: 在“苹果很好吃”里,它是水果。 在“苹
大模型底层逻辑(一):词元化与向量化,AI 到底怎么“读”懂世界?
当我们输入“你好,帮我写个代码”时,大模型(LLM)看到的并不是这些汉字,而是一串冰冷的数字。要理解 2026 年那些复杂的 MCP 或 Skills,我们得先看清模型底层的两个基本动作:拆解(Tok
Harness 工程:必要组件、核心工作与任务流转
一、一句话理解 Harness 工程 它是套在 AI Agent 外面的那层管理框架,决定 Agent 如何被约束、如何运转、如何交付结果。 二、必要组件 组件 1:多 Agent 架构 核心思想:让
GSD 使用指南:高效交付功能的结构化工作流
来源:https://gitcode.com/gh_mirrors/getshi/get-shit-done 一、为什么需要 GSD? 你是否遇到过这些问题? ❌ “AI 写的代码前后不一致,改完 A
数据库设计与建表规范手册
一、 命名规矩:拒绝“猜谜语” 良好的命名是代码自解释的第一步。 全小写 + 下划线: 禁止使用驼峰命名(如 UserName),一律使用 user_name。 原因: 不同操作系统对 MySQL 大
下一页
个人成就
文章被点赞
59
文章被阅读
12,531
掘力值
1,022
关注了
0
关注者
22
收藏集
0
关注标签
4
加入于
2020-07-02