首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI大模型学习
花草树木
创建于2026-02-12
订阅专栏
AI大模型学习
暂无订阅
共17篇文章
创建于2026-02-12
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
用 200 行 Python 理解 Agent 的本质
Agent 的定义 Agent 的本质可以用一个公式表达: LLM:提供推理和决策能力 工具:突破 LLM 的纯文本边界(读文件、写文件、执行命令) 循环:不是一次性的问答,而是多步骤迭代直到任务完成
A2A 协议深度解析(上):当 AI Agent 需要和另一个 AI Agent 说话
从一个真实的协作场景说起 想象这样一个任务: 一个 Agent 独立完成这个任务,需要: 连接数据库读数据 做数据分析 生成可视化图表 写报告文字 调用 Slack API 发消息 这五件事,每件都有
MCP vs Function Calling:两个总被搞混的概念,一次说清楚
先说结论 两者不是替代关系,而是不同层次的解决方案: Function Calling 是什么 Function Calling 是 OpenAI 在 2023 年引入的功能,让 LLM 能够以结构化
MCP 终极指南(进阶篇):手写一个 MCP Server,再用抓包拆解协议底层
为什么要手写而不是直接用现成的? ClawHub 上已经有数千个现成的 MCP Server,你不需要从头写。 但手写一次能给你带来用成品永远无法得到的东西: 真正理解 @mcp.tool() 装饰器
我抓包了 Cline 与模型的通信,发现了一件有趣的事
从一个问题开始 学完 MCP 基础之后,你可能会有一个疑问: 官方文档语焉不详。不同的 Host 实现方式不一样,Cline 怎么做的,只有一种方法能知道——抓包。 搭建中间人服务器 思路很简单:在
Temperature 和 Top-p:你以为在调"随机性",其实在调大模型的"性格"
从一个反直觉的例子开始 同样一个问题:"帮我起一个创业公司的名字" temperature = 0:每次给你同样的答案 temperature = 1:每次给你不同的答案 temperature =
Token 到底是什么?揭开大模型背后"文字压缩术"的神秘面纱
先从一个账单问题开始 你用 GPT-4 或 Claude API,账单是按什么算的? 答案是 Token。不是按字数,不是按请求次数,是 Token。 那 Token 是什么?很多人的理解停留在"大概
买东西总是刚下单就降价?本文以 **`price-watch`(商品降价监控器)** 为例,手把手带你写一个真正有用的 OpenClaw Skill,从零开始到
买东西总是刚下单就降价?本文以 **`price-watch`(商品降价监控器)** 为例,手把手带你写一个真正有用的 OpenClaw Skill,从零开始到发布 ClawHub,全流程跑通。
文件即真理:深度解析 OpenClaw 的 Markdown 记忆系统
文件即真理:深度解析 OpenClaw 的 Markdown 记忆系统 一、问题的起点:AI Agent 为什么会"失忆"? 用过 AI Agent 的人都有过这种体验—— 你昨天跟它聊了两个小时,把
我用 OpenClaw 两个月了,说几句真心话
最近只要在技术群里待着,十句话里至少有两句提到"龙虾"。 朋友圈里也开始出现一种新的晒图方式——截一张 OpenClaw 自动帮你处理完某件事的图,下面配一行字:"我已经不用手动做这个了。" 我承认,
腾讯"悄悄薅羊毛",OpenClaw创始人直接点名开怼——这件事值得聊聊
事情是怎么起来的? 最近"养龙虾"(就是玩 OpenClaw,一个开源 AI 智能体工具)的朋友应该都知道了这件事。 3月11日,腾讯上线了一个叫 SkillHub 的平台,定位是"专为中国用户优化的
AI 是杠杆,不是拐杖
杠杆和拐杖,表面像,本质反 杠杆和拐杖看起来很像:都是借助外力完成自己单独做不到的事。但有一个根本区别: 杠杆放大你已有的力量。拐杖补偿你缺失的力量。 用杠杆撬石头,你需要先有力气、找到支点、选好角度
2026 AI 开发分水岭!LangChain 还是 Semantic Kernel?一文讲透 7 大主流框架选型,手把手带你从 0 构建第一个超级 Agent
一、什么是 AI Agents? 1.1 AI Agent 的定义 AI Agent(AI 代理)是一种能够自主感知环境、做出决策并采取行动以实现特定目标的智能系统。与传统的AI模型不同,AI Age
90%的AI工程师都忽略了这一步!吴恩达2025最新笔记:不懂Tokenization,你的大模型只是在“瞎猜”!
Tokenization实战:从BPE到Hugging Face应用 | 吴恩达2025最新课程笔记 一、为什么分词如此重要? 1.1 分词是LLM的"眼睛" 核心作用: 将文本转换为模型可处理的数字
揭秘GPT-4与LLaMA背后的加速黑科技:KV Cache、MQA、GQA、稀疏注意力与MoE全解析
深入讲解现代大语言模型的核心优化技术,包括KV Cache自回归加速、Multi-Query Attention(MQA)、Grouped-Query Attention(GQA)、稀疏注意力(Spa
深度学习是AI的引擎,那么Transformer就是这个引擎的核心
Transformer基础入门:从词嵌入到注意力机制 | 吴恩达2025最新课程笔记 本文基于吴恩达2025年最新Transformer课程,深入浅出地讲解大语言模型如何"理解"语言。从最朴素的词袋模
万字长文深入解析Skill/MCP/RAG/Agent/OpenClaw底层逻辑
本文深度剖析AI领域五大热门技术名词(Skill、MCP、RAG、Agent、OpenClaw)的真实底层逻辑,用通俗易懂的大白话揭穿技术包装,带你理解模型上下文协议、检索增强生成、智能代理的工作原理