首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
ChatGPT与大模型研究
数据智能老司机
创建于2023-05-22
订阅专栏
生成式AI探索和研究,场景落地。
等 133 人订阅
共486篇文章
创建于2023-05-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Hugging Face实战——Hugging Face入门
本章内容包括 Hugging Face 的核心定位 Hugging Face Transformers 库 Hugging Face 托管的各类模型 Gradio 库 Hugging Face 是一个
构建一个 DeepSeek 模型——通过键值缓存(Key-Value Cache, KV Cache)解决推理瓶颈
本章内容 自回归式 LLM 推理为何低效 解决方案:键值缓存(Key-Value Cache, KV Cache)及其代价 MQA 与 GQA:第一代缓解 KV Cache 内存压力的方案 要理解 D
构建一个 DeepSeek 模型——DeepSeek 简介
本章内容 为什么 DeepSeek 是开源 AI 的转折点 我们将在本书中逐步实现的关键创新的高层路线图 本书的结构、范围与先修要求 近几年,大型语言模型(LLM)重塑了技术版图。我们已身处这样一个世
构建推理模型——评估推理模型
本章内容 可靠地从 LLM 的回答中提取最终答案 用符号数学求解器(像计算器一样)将 LLM 输出与参考解对比以校验正确性 跑通一条完整的评测流水线:加载预训练模型、生成答案、并在数据集上打分 评测让
构建推理模型——使用预训练 LLM 生成文本
This chapter covers (本章内容) 为使用 LLM 搭建代码环境 使用 tokenizer 为 LLM 准备输入文本 通过预训练 LLM逐步实现文本生成的全过程 用缓存与编译技巧加速
构建推理模型——理解推理模型
本章内容(This chapter covers) 在 LLM(Large Language Model,大语言模型) 语境下,“推理(reasoning) ”的确切含义 推理与**模式匹配(patt
使用 Python 入门 Model Context Protocol(MCP)——将 MCP 应用推向生产 (Bringing MCP Apps to Pro
欢迎来到本书的最后一章。很棒,你已经坚持到这里!你已经学会了如何构建服务器和客户端,可能也在思考:怎样迈出最后一步,把你构建的东西分享给全世界? 这个问题问得很好。本章将带你逐一梳理需要考虑的事项,确
使用 Python 入门 Model Context Protocol(MCP)——保护你的应用程序
在很多情况下,把 Web 应用上线到生产环境之前的前提就是先把它保护好。 也确实有不需要的场景,但大多数时候,你都希望确保应用是安全的,且只有授权用户才能访问其中的某些部分。 下面按场景给出可考虑的安
使用 Python 入门 Model Context Protocol(MCP)——引导澄清(Elicitation)
Elicitation 指“获取或产生某物(尤其是信息或反应)的过程”。 这对 MCP 有什么意义?官方文档这样描述: Model Context Protocol(MCP)提供了一种标准化方式,让服
使用 Python 入门 Model Context Protocol(MCP)——取样(Sampling)
MCP 最强大的特性之一就是取样(sampling) 。这到底是什么意思?先看词典定义,再类推出发。Merriam-Webster 将 sampling 定义为: 也就是说,我们需要一个“样本”,并对
使用 Python 入门 Model Context Protocol(MCP)——对接服务器
到目前为止,我们已经了解了如何创建服务器,也看过如何通过你自己编写的专用客户端来“消费”(使用)它们。本节将介绍如何使用现有软件(如 Visual Studio Code(VS Code) 或 Cla
使用 Python 入门 Model Context Protocol(MCP)——构建客户端
要消费(使用)一个 MCP 服务器,你需要某种形式的客户端。例如,你可以使用 Claude Desktop 或 Visual Studio Code(VS Code) 这样的应用,它们能够消费 MCP
使用 Python 入门 Model Context Protocol(MCP)——高级服务器
在第 3 章中,你已经了解了如何构建 MCP 服务器。不过,还有另一种更高级的构建方式——其核心目的是让你获得更强的可控性。 在本章中,你将学到如何: 使用 上下文管理器(context manage
使用 Python 入门 Model Context Protocol(MCP)——流式 HTTP(Streamable HTTP)
在第 4 章中,我们讨论了使用 服务器发送事件(Server-Sent Events,SSE) 作为传输方式来构建 MCP 服务器。在那一章里你了解到:如果希望用户在 Web 上访问你的 MCP 服务
使用 Python 入门 Model Context Protocol(MCP)——构建 SSE 服务器
到目前为止,你已经看到了如何使用 STDIO 作为传输方式来构建 MCP 服务器。对于在本地运行的服务器来说,这是一个很好的选择。然而,如果你希望通过 HTTP 远程连接到服务器,或者希望从 LLM
使用 Python 入门 Model Context Protocol(MCP)——服务器的构建与测试
在本章中,我们将介绍构建与测试服务器的基础。我们会从一个使用 STDIO 传输方式的简单服务器开始。STDIO 传输是一种通过标准输入与标准输出流与服务器通信的简单方法。用 STDIO 构建服务器非常
使用 Python 入门 Model Context Protocol(MCP)——深入解析模型上下文协议(MCP)
MCP 由许多部分组成。 简而言之,客户端与服务器之间通过 JSON-RPC(JavaScript Object Notation – Remote Procedure Call) 消息进行交互。JS
使用 Python 入门 Model Context Protocol(MCP)——Model Context Protocol(MCP)简介
生成式 AI 正在迅速成为当今技术版图中的一股力量,它重塑了各行各业,也重新定义了我们解决问题的方式。从自然语言处理到图像生成,生成式 AI 在各个领域的融入,为创新与效率打开了新的可能性。 对我们开
AI Engineering 必读的 9 本书
真正从只会“调用模型 API” 晋升到“全栈产品级工程化” —— 把数据、训练、部署、监控、Agent 与商业闭环串成一条生产线,才算真正的 AI Engineering 落地。 下面这 9 本书,我
使用 OpenAI Agents SDK 构建智能体——构建 AI 代理与代理式系统
到目前为止,我们已经把 AI 代理系统的各个部分分别搭建了出来:我们构建了简单代理,用工具扩展了它们的能力,加入了记忆与知识库,编排了多个代理协同工作,并学习了如何管理模型与护栏。现在,在最后一章里,
下一页