首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
人工智障
bytebeats
创建于2023-03-14
订阅专栏
国内外优秀的人工智能相关文章集合.
等 5 人订阅
共37篇文章
创建于2023-03-14
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
MCP 服务器与 FastAPI 的集成
什么是 MCP? AI 与 API 的通信 MCP(模型上下文协议) 作为一个标准化的通信层, 使 AI 代理(如 Claude 或 GPT, 即 MCP 客户端)能够理解并交互外部 API(MCP
基于A2A/MCP的AI代理架构
本文面向对使用Google的 A2A 和Anthropic的 MCP 构建AI代理感兴趣的程序员. 本文将探讨各种架构组件,包括人类, 副驾驶, AI 代理, AI 模型, MCP 主机/客户端/服务
在本地 LLM 上运行MCP
无限制地使用本地LLM来实际检验MCP 学习生成式人工智能应用 上次我思考如何在本地设置LLM API时, 你将能够在应用程序开发中进行无限制的LLM实验. 如果我们能将LLM连接到提供的MCP(模型
MCP + A2A 可能是自互联网以来软件领域最大的变革
掌握 MCP 和 A2A 的先行者将塑造软件的未来. 以下是为啥这么说至关重要. 今天, 软件构建方式发生了一项重要变革, 而大多数人并未察觉.
强大的代理通信其实是 A2A + MCP + LangChain
在今天的博文中, 我将通过一个超快速教程, 向你展示如何使用A2A, MCP和LangChain创建一个多代理聊天机器人, 为你的业务或个人使用打造一个强大的代理聊天机器人.
Trae AI 的 #上下文 深度体验
对于我经常使用的 Chat 和 Builder 功能, 原本两个互不隶属的 Tab 消失了, 转而只有一个对话框了. 而且功能同样进行了增强.
使用 Google ADK, Gemma 3 和 MCP 工具构建 AI 代理
使用 Google ADK, Gemma 3 和 MCP 工具构建 AI 代理 将探讨如何使用谷歌的 代理开发工具包(ADK)来构建具有本地 LLM.
使用谷歌ADK构建AI Agent 用作MCP客户端
使用谷歌ADK构建AI Agent 通过完整代码深度剖析AI Agent 是如何成为 MCP 客户端的 Google Cloud Next '25 发布了几项突破性的公告. 这是一次充满创新, 实践演
通过 Google Gemini 2.5 Pro 实现 MCP
使用谷歌 Gemini 2.5 Pro 的 MCP 通过完整代码进行深度剖析. 包含代码, 架构和实际使用案例的分步指南. 随着 GPT-4, Claude, Gemini 和 Llama3 等大型语
模型上下文协议(MCP)服务器必知必会
模型上下文协议彻底改变了AI系统与现实世界数据和资源的交互方式. 这项变革性技术的核心是 MCP 服务器的概念, 它是大型语言模型(LLM)与数据库, API 和文件系统等外部资源之间的标准化框架
模型上下文协议(MCP): 带有动手实践的简明教程
带有动手实践的简明教程 什么是 MCP? 如何创建一个 MPC 服务器, 通过 Claude 桌面从网站上获取新闻? AI世界在不断发展, 我们几乎每天都能听到最新的新闻.
什么是模型上下文协议(MCP)?
通过举例解释说明 MCP 最近, 围绕 LLM 和外部工具的一个重要概念--模型上下文协议(MCP, 由 Anthropic 提出)--在开发者中获得了极大的关注.
Trae AI IDE, IDE 的未来已至?
Trae是一个自适应的AI IDE, 它能够改变开发人员的工作方式, 与开发人员协同工作提高了开发人员的工作效率.
豆包 MarsCode AI 助手: 有了一键 Apply, 我又能多活两年了
豆包 MarsCode AI 问答助手新上线的功能, 一键 Apply, 它能够将 AI 生成的代码片段应用至项目对应的文件位置并形成Git Diff, 无需手动找到并打开文件,无须复制粘贴.
人生如梦, 我用豆包 MarsCode Workspace
豆包MarsCode上新了Workspace? 等等, 什么是豆包? 为了不再 copy 官网上面的内容, 我决定亲自去问字节跳动 AI 在模型豆包, 看它怎么说. 我问它, "什么是字节跳动的豆包?
Torch 编译优化 Llama 3.2 可以事半功倍
Torch 编译最初是在 PyTorch 2.0 中引入的, 但经过多次更新和优化后, 它才能可靠地支持大多数大型语言模型(LLM).
如何通过 gRAG 和 LLM 查询知识图谱
你可能没有意识到, 你与知识图谱(KG)的交互比你想象的要频繁得多. 它们是许多现代搜索引擎, 大型语言模型(LLM)的检索增强生成(RAG)系统以及各种查询工具背后的技术. 但是, 知识图谱到底是什
LLM 开发技能总是学起来容易实践起来贵!
你可以用两种方法建造堡垒: 开始一块一块地堆砌砖块, 或者绘制一幅你将要建造的堡垒的图画, 并计划其执行过程;然后, 根据你的计划不断对其进行评估.
我用 Spring AI 集成 OpenAI ChatGPT API 创建了一个 Spring Boot 小程序
在 Spring Boot Java 框架中集成 OpenAI 的 ChatGPT API 和 Spring AI.
从 RAG 的视角看待 LLM
Transformer神经网络架构允许使用大型模型, 通常具有数千亿个参数. 这样的大型模型可以摄取海量数据, 这些数据通常来自互联网, 也可以来自Common Crawl和维基百科等来源.
下一页