温故而知新。
除非专业AI工程师以外,搞懂下面这 6 个词,你就已经超过 90% 的人了(夸张地)。不是死记硬背那种懂,是真的理解它们在干什么。
1. Token:AI 其实不识字
很多人以为 AI 在读单词、认字母。错了。
AI 读的是 token——你可以理解成"文本碎片"。有时候是一个完整的词比如 "cat",有时候是半个词比如 "un" 或 "tion",有时候就是个标点符号。
举个例子:"I love pizza" 这句话,AI 看到的可能是 3 个 token:"I"、" love"、" pizza"。
这玩意儿为什么重要?
因为你用的 ChatGPT、Claude、Gemini,背后都在数 token。你发的消息越长(token 越多),模型算得越累;它回得越长,成本越高。
还有那个"上下文窗口"——说的就是模型能记住多少 token。老模型可能只能记 4000 个,新的能记 100 多万个。
知道为啥 AI 聊着聊着就"失忆"了吗?因为 token 满了,前面的被挤掉了,跟电脑内存满了卡顿一个道理。
搞懂 token,你就明白为啥有些提示词效果好,有些不行;为啥长对话 AI 会忘;以及 API 为啥按 token 收费。
2. Context Window:AI 的"金鱼记忆"
想象你跟一个人聊天,但他有个毛病——只能记住最近 X 分钟的内容。再早的?全忘了。
这就是上下文窗口。
它指的是 AI 一次能"看到"多少 token。包括你的问题、对话历史、你上传的文档、还有它自己的回复。
就像一块白板。写满了就得擦掉旧的才能写新的。
这里有个坑
小窗口(比如 4K token)意味着 AI 一次只能看几页纸。你扔给它一本长篇报告,它其实只能啃一小口。
大窗口(比如 200K token)就爽了,整本书扔进去都能读。Claude 当时宣布 20 万 token 窗口的时候,圈内人都疯了。Gemini 后来搞到 100 万,直接改变游戏规则。
实战建议:如果你要处理长文档,或者聊了很久发现 AI 开始胡言乱语,别怪它——白板满了而已。
3. Harness:模型是次要的,框架才是核心
我加了这个章节,这个词最近特别火,而且我觉得它点破了 AI 行业的一个真相。
Harness 是什么?
简单说,就是套在 AI 模型外面的那层"工程框架"甚至更流行的说是agent的os。模型只是大脑,Harness 是身体——没有它,AI 只能聊天,干不了实事。
Harness 里都有啥?
| 组件 | 干嘛的 | 为什么重要 | | --- | --- | --- | | VM 隔离 | 安全执行环境 | AI 要跑代码,但不能让它搞坏你的系统 | | 代码库理解 | 自动读懂项目结构 | AI 得知道代码在哪、怎么组织的 | | 并行编排 | 同时干多个活 | 提高效率,别让 AI 傻等着 | | 视频捕获 | 录下操作过程 | 证明 AI 真的测了功能,不是瞎说 | | 多模型路由 | 不同任务用不同模型 | 简单活用小模型,省钱;难活用大模型,效果好 |
为什么 Harness 比模型更重要?
Cursor、Claude Code、OpenAI Codex,用的都是 GPT-4、Claude 这些顶级模型,但体验完全不同。
•Cursor 能自动跑测试、录视频、提交 PR•Claude Code 擅长终端操作和文件系统•Codex 跟 OpenAI 生态绑得深
差别不在模型,在 Harness 的工程化程度。
Cursor 35% 的 PR 现在是 AI 自动提交的,不是因为用了更好的模型,而是因为 Harness 够完整——从代码理解到测试到提交,一条龙。
给我的启示
模型已经是商品了,各家差距越来越小。真正的护城河是 Harness——怎么安全地执行 AI 生成的代码?怎么让 AI 快速理解大型项目?怎么验证 AI 的工作成果?
如果你在做 AI 产品,别只盯着模型,多想想 Harness 怎么设计。
4. Temperature:AI 的"胆量"设置
这个我特别喜欢讲,因为听完基本不会忘。
Temperature 控制 AI 输出的"随机性"。
•低温(接近 0):AI 特别怂,每次选最保险、最常见的词。输出稳定、准确,但无聊。就像那个永远用同一套邮件模板的人。
•高温(接近 1 或更高):AI 开始放飞自我,选一些出人意料的词,想法跳跃。有时候很精彩,有时候很离谱。
举个例子:让 AI 续写 "The cat sat on the..."
•低温:大概率说 "mat" 或 "floor",安全但无趣•高温:可能说 "philosophical dilemma" 或 "crumbling empire of Tuesday",有创意但可能没用
怎么用?
•写代码、总结文档、提取信息 → 低温,要准不要花•写小说、头脑风暴、营销文案 → 高温,要的就是意想不到
ChatGPT 这种消费级产品不让你调这个,它们设了个中间值。但用 API 或开发者工具的时候,你就能看到 temperature 参数了。现在你知道该调多少了吧?
5. Hallucination:AI 的"一本正经胡说八道"
这个词现在很火,但很多人没搞懂本质。
Hallucination(幻觉)就是 AI 自信满满地给你错误答案。不是"我不太确定",而是"事实就是这样"——虽然完全是编的。
我见过最离谱的例子:有人问 AI 一本书,AI 给了书名、作者、出版年份、情节摘要,头头是道。问题是——这本书根本不存在。
为什么会这样?
关键认知:AI 不是数据库,它不会"查资料"。它是根据训练时学到的模式,预测下一个最可能出现的 token。本质是超大规模的自动补全。
所以当 AI 不知道的时候,它不会说"我不知道"。它会编一个听起来像答案的东西——因为这正是它被训练要做的。
最危险的是什么?
AI 说错话的时候,语气和说对的时候一模一样自信。你不会感觉到"这次可能不靠谱"。
我的建议:涉及事实、数据、医疗、法律这些"错了会出事"的场景,永远把 AI 当起点,不是终点。用它找思路,然后自己验证。
懂幻觉的人不会不用 AI,而是会用得更聪明。
6. RAG:AI 怎么"突然"懂你的文档
这五个概念里最容易被误解的。搞懂了它,你看很多 AI 产品的眼光都会变。
RAG = Retrieval-Augmented Generation(检索增强生成)。名字吓人,其实特简单。
它解决什么问题?
普通 AI 只学过训练数据,截止到什么日期就是什么日期。它不懂你们公司的内部文档,不知道上周的新闻,没看过你刚上传的 PDF。
但那些"和 PDF 聊天"、"问文档问题"的产品是怎么做到的?
RAG 的流程:
1.你把文档上传2.系统把文档切成小碎片,存进一个叫"向量数据库"的地方(这玩意儿懂意思,不只是匹配关键词)3.你问问题时,系统先去数据库里搜最相关的碎片4.把这些碎片和你的问题一起扔给 AI:"这是相关背景,基于这个回答"5.AI 生成答案
就三步:搜相关内容 → 喂给 AI → 生成答案。
为什么这很重要?
过去两年几乎所有实用的 AI 产品都是这么干的:客服机器人查公司政策、法律助手读合同、论文总结工具……全是 RAG。
而且搞懂 RAG 后你会明白:当 AI"知道"你的文档时,它其实没"学"任何东西。只是做了一次聪明的搜索,然后把结果塞给模型。模型还是原来那个模型,变的是上下文。
7. Agent:AI 的下一个进化形态
我加了这个章节,如果说前面五个是理解 AI 的基石,Agent 就是未来。
Agent 是什么?
简单说:能自己干活的 AI。
现在的 AI 是你问它答。Agent 是你吩咐它做。
举个例子:你说"帮我订明天去北京的机票,上午的,经济舱"。普通 AI 会告诉你怎么订、有哪些航班。Agent 会直接帮你订好。
Agent 的五个特征:
•自主性:不用人盯着,自己能跑•反应性:感知环境变化,做出反应•主动性:不只是被动回答,会主动推进任务•社交性:能和其他 Agent 或人协作•学习能力:从经验中学习,越用越聪明
Agent 的三个阶段:
| 阶段 | 啥样 | 例子 | | --- | --- | --- | | 工作流型 | 按死规则执行 | 客服机器人按脚本回答问题 | | 半自主 | 自己能做点决定,但大事要人确认 | AI 写代码后等你审查,推荐酒店后等你确认预订 | | 全自主 | 全程自己搞定,人不用管 | 从需求分析到代码部署全自动,自动管理投资组合 |
我们现在在哪?大部分还在第一阶段,正在往第二阶段爬。全自主是终极目标,但路还长。
Agent 能干嘛?
•个人助理:管日程、回邮件、订旅行•教育:个性化辅导、陪练口语•医疗:健康咨询、提醒吃药•商业:客服、数据分析、写报告•创意:辅助写作、设计、音乐创作
但别急着兴奋,Agent 问题也不少:
•可靠性:出错了怎么办?•隐私:它要访问你多少数据?•透明度:它为啥做这个决定?•控制:你能随时接管吗?•责任:全自主 Agent 搞砸了,算谁的?
搞懂这些有啥用?
AI 不会消失,而且懂不懂这些的差距会越来越明显。
你不用会写代码,但:
•懂 token → 写提示词更准•懂上下文窗口 → 知道 AI 为啥突然"失忆"•懂 temperature → 知道什么时候该调参数•懂幻觉 → 不会盲目信 AI•懂 RAG → 明白那些"懂文档"的 AI 背后怎么回事•懂 Harness → 看透 AI 产品的真正竞争力•懂 Agent → 抓住下一个机会
七个词,真搞懂了,你就已经超过大多数只会用不会想的人了。
欢迎来到前 10%。
原文链接:towardsai.net/p/l/5-ai-te…
References
[1]: towardsai.net/p/l/5-ai-te…