首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
ChatGPT与大模型研究
数据智能老司机
创建于2023-05-22
订阅专栏
生成式AI探索和研究,场景落地。
等 129 人订阅
共460篇文章
创建于2023-05-22
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
MCP 实战——压轴项目:AI 塔罗神谕
你做到了!欢迎来到《Practical MCP:Python 开发者指南》的最后一章。 在过去的七章里,你走过了一段精彩旅程: 第 1 章从宏观出发,理解了为什么 MCP 会成为 AI 的游戏规则改变
MCP 实战——社区焦点
在上一章中,你迈入了高级服务器架构的领域:学会了将 MCP 服务器集成进标准 ASGI 应用,编写强大的中间件来拦截并处理 MCP 事件,甚至还能从 OpenAPI 规范自动生成整套工具。你已从构建独
MCP 实战——高级服务器架构
在上一章中,你已经掌握了将 MCP 服务器推进到生产环境的要点:你学会了用 JWT 进行身份验证来保护工具,并将应用部署到现代的无服务器平台和传统虚拟机上。你已经构建、加固并部署了独立的 MCP 服务
MCP 实战——MCP 服务器的身份验证与部署
在上一章中,你深入探索了 MCP 的核心,把服务器从简单的“命令—响应”系统升级为能与 LLM 协作的上下文感知伙伴。你学会了用 Resources 暴露只读数据、用 Prompts 引导 LLM,并
MCP 实战——MCP 核心组件
在前两章里,你已经取得了巨大的进步:第 2 章里,你从一片空白起步,构建了第一个 MCP 服务器,掌握了本地与远程通信;第 3 章里,你把自定义工具与 Anthropic、Google、OpenAI
MCP 实战——与 LLM 平台集成
在上一章里,你已经掌握了基础:你构建了第一个 MCP 服务器、定义了工具,并学会用本地(STDIO)与远程(HTTP)两种传输方式与之通信。你还结识了你的新挚友——MCP Inspector。 现在,
MCP 实战——“‘Hello, World’ 体验:你的第一个 MCP 服务器”
在上一章中,你了解了模型上下文协议(Model Context Protocol,MCP)的高层概览。你明白了它为何具有颠覆性:它能把孤立的 LLM 变成能够与世界互动的强大代理。你也看到了 MCP
MCP 实战——全局视角:为什么 MCP 将成为 AI 的颠覆者
你之所以来到这里,是因为你已经见识过 Claude、GPT、Gemini 等大型语言模型(LLM)的非凡威力。你或许用它们做出过很棒的东西,见过它们生成有创意的文本,甚至写出出乎意料的好代码。 但你八
面向企业的图学习扩展——PyGraf:端到端图学习与服务
现在你已经理解了图学习流水线及其传统 ML 方法,本章将介绍我们的开源图机器学习库 PyGraf。它是我们用于构建企业级稳健图学习生态的框架。 在本章中,我们将带你了解该库的架构与核心模块,并用第 3
面向企业的图学习扩展——面向图的传统机器学习
在本章中,我们将探索应用于图的传统与非传统机器学习方法。随后,我们会在第 2 章奠定的基础之上,深入传统的基于图的机器学习。我们将先讨论图数据表示的细微差别,从通用方法过渡到对亚马逊共购(copurc
面向企业的图学习扩展——图机器学习流水线
在第 1 章中,我们带你初探了企业环境中的图学习世界,讨论了其多种用例,并在章节结尾强调了它所带来的挑战。随着本书的推进,我们将对整条将要深入探讨的 GML 流水线做一个高层概览。这条流水线从头到尾覆
面向企业的图学习扩展——图简介
企业级图学习与推理的强大能力 图是表示各种自然现象的基础工具,在生态网络和水文网络中尤为明显。在生态网络中,如图 1-1 所示的食物网,节点代表不同物种,边则表示捕食–被捕食关系或营养级联系。同样,在
GPU 编程实战——使用 PyCUDA 与 CuPy 功能
PyCUDA 中的动态 Kernel 编译 到目前为止,我们都是在 Python 脚本里以静态字符串的形式定义 CUDA C kernel,手动编写、一次性编译然后按需调用。这对于固定不变的 kern
GPU 编程实战——Kernel 优化入门
选择线程块(Block)和网格(Grid)大小 在开发更高级的 GPU kernel 时,选择合适的线程块大小和网格大小是影响性能的关键因素。虽然 CUDA 的海量并行能力能加速大规模数据处理,但硬件
GPU 编程实战——简单并行模式
数组的逐元素操作 逐元素计算与 CuPy 在并行编程中,最常见且最直接的模式就是逐元素操作。在许多实际问题里,我们需要对大型数据集的每个元素执行相同的算术运算——加、减、乘、除,或更复杂的操作。GPU
GPU 编程实战——基础数据传输与内存类型
主机与设备内存区域 理解主机内存与设备内存空间 每个 GPU 项目都有一个共同点:我们的数据可能存在于两种完全不同的地方——主机内存(Host Memory)和设备内存(Device Memory)。
GPU 编程实战——设置 GPU 编程环境
安装 CUDA 驱动与工具包 我们已经用 CuPy 和 PyCUDA 编写并成功运行了首批 GPU kernel!到目前为止,我们的工作依赖于一个正确配置的开发环境。但随着深入 GPU 编程,并开始使
GPU 编程实战——GPU 基础入门
GPU 与 CPU 在数据处理上的比较 在这样一个时代,无论是科学、商业、工程、媒体,甚至我们日常的网页浏览,都依赖于日益增长的数据量。单个台式机或服务器的 CPU 足以应对整个工作流程的日子正在消逝
让流浪汉都能学会的大模型教程——用大语言模型设计解决方案
本章你将看到这些实用干货: ✅ 如何用 检索增强生成(RAG) 来减少胡说八道 ✅ 如何让大模型“反向监管”人类,来减少自动化偏见 ✅ 如何用大模型的 embedding 赋能传统机器学习算法 ✅ 如
让流浪汉都能学会的大模型教程——关于大模型的误解、局限和惊人本事
本章要聊的事: 大模型跟人类在“学习方式”上的巨大差异 怎么让大模型在“低延迟”和“高并发”应用中表现更靠谱 让大模型“边走边想”:中间结果也能变成更好的最终答案 为啥大模型不是万能的?背后有计算复杂
下一页