首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Agentic AI应用开发理论与实践
FreeCode
创建于2025-10-10
订阅专栏
Agentic AI 应用开发理论与实践 本专栏主要关注点: 1、智能体应用的设计模式与应用场景 2、智能体应用开发框架 3、上下文工程 4、智能体应用的评估 5、智能体协同 6、智能体应用发展趋势
等 10 人订阅
共27篇文章
创建于2025-10-10
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
LangGraph1.0:智能体开发有什么不一样吗?
一、 初识LangGraph LangGraph受到诸多引领智能体(agent)未来发展的企业信赖,包括 Klarna、Replit、Elastic等。 它是一款底层编排框架与运行时环境,用于构建、管
2025年全球大模型技术对比分析
本文分享2025年主要大模型厂商最新产品发布情况、技术特点、性能表现。涵盖了大模型:Gemini 3、GPT-5.1、Claude 4.5、Grok 4.1、Qwen3、DeepSeek-V3、GLM
LangSmith Studio 调试智能体
本文分享如何使用LangSmith Studio调试智能体。 一、Studio支持的智能体 LangSmith部署界面中的Studio(工作室)功能支持连接两种类型的图(Graph)智能体: 部署在云
基于MCP的代码执行:构建更高效率的智能体
直接工具调用会为每个定义和结果消耗上下文。而智能体通过编写代码来调用工具,可实现更好的扩展。以下将介绍其在MCP中的工作原理。
基于LangSmith的提示词工程
提示词工程(Prompt Engineering)是指设计、测试并优化给大模型的指令,以使其生成可靠且有用的响应的过程。LangSmith提供了用于创建、版本控制、测试提示词以及进行协作的工具。
独立部署智能体
本文将向你展示如何在不使用LangSmith用户界面或控制面板的情况下,部署独立的智能体服务器(Agent Servers)。对于将一个或多个智能体,这是最轻量的自托管方案。
LangSmith本地部署LangGraph应用
本文将向你展示如何使用LangSmith在本地部署LangGraph应用,以便进行测试和开发。你需要LangSmith账号和密钥。
使用LangSmith评估智能体
评估(Evaluations)是衡量大模型应用程序性能的一种量化方式。LLM 的行为可能存在不确定性,即便对提示词、模型或输入做出微小调整,也可能对结果产生显著影响。而评估能够提供一种结构化方法。
使用LangSmith追踪智能体运行
LangSmith提供用于开发、调试和部署大型语言模型(LLM)应用程序的工具。它能帮助你在同一个平台中完成请求追踪、输出评估、提示词测试以及部署管理等操作。
LangChain1.0智能体开发:长期记忆
本文分享LangChain长期记忆组件。LangChain智能体借助LangGraph的持久化功能实现长期记忆,通过工具访问长期记忆。LangGraph将长期记忆以JSON文档的形式存储在存储系统中。
LangChain1.0智能体开发:检索增强生成(RAG)
大模型赋能的最强大应用之一,便是功能完善的问答(Q&A)聊天机器人。这类应用能够针对特定来源的信息回答问题,其核心技术是检索增强生成(RAG)。本文将通过一个实际例子带您了解两种不同的RAG实现模式。
LangChain1.0智能体开发:人机协作
智能体能自主决策任务的执行,但有时人工介入是必要的。LangChain提供了人工协作中间件支持智能体的人工介入功能。本文分享中断支持的决策类型、如何配置中断、如何响应中断、执行生命周期以及自定义逻辑
LangChain1.0智能体开发:MCP
模型上下文协议(MCP)是一种开放协议,用于标准化应用程序向大模型(LLM)提供工具和上下文的方式。LangChain智能体可借助langchain-mcp-adapters库使用MCP服务工具。
LangChain1.0智能体开发:上下文工程
构建智能体的难点在于如何让它们具备足够的可靠性。上下文工程是解决这个问题的关键钥匙。LangChain的智能体抽象层经过独特设计,为上下文工程的实施提供便利。中间件是实现上下文工程的重要手段。
LangChain1.0智能体开发:运行时(Runtime)
基于LangChain1.0创建的智能体是运行在LangGraph的运行时(Runtime)之上。LangChain可以通过LangGraph对外暴露的运行时对象访问上下文、存储以及流写入器。
LangChain1.0智能体开发:安全防护机制
防护机制是所有基于大模型的部署方案中的关键组件。设计完善的防护机制,有助于管理数据隐私风险和声誉风险。LangChain通过中间件实现安全防护机制,帮助客户构建安全、合规的人工智能应用。
LangChain1.0智能体开发:结构化输出
结构化输出能让智能体以特定、可预测的格式返回数据。用户只需设置所需的结构化输出模式(schema),LangChain的create_agent接口会自动处理结构化输出。理解原生策略和工具调用策略。
LangChain1.0智能体开发:中间件(Middleware)
LangChain提供了中间件这种高级抽象来控制和定制化智能体的执行过程。开发者通过中间件可以实现对智能体执行过程的精细化控制。开发者可以使用内置的中间件,也可以自定义中间件。最后总结了最佳实践经验。
LangChain1.0智能体开发:流输出组件
LangChain实现了一个流输出系统,用于呈现实时更新。 流输出对于提升基于大型语言模型(LLMs)构建的应用程序的响应性至关重要。流输出极大地改善了用户体验,尤其是在应对大型语言模型的延迟问题时。
LangChain 1.0智能体开发:记忆组件
记忆系统对于智能体至关重要。它能够记录过往的互动信息、推断用户的偏好,维持连贯的交互语境。LangChain框架提供了开箱即用的记忆组件,同时开发者可根据有业务场景设定记忆管理策略。
下一页