首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
人工智能
AIGC
LLM
AI编程
后端
OpenAI
Agent
算法
前端
展开
全部
人工智能
AIGC
LLM
AI编程
后端
OpenAI
Agent
算法
前端
Trae
Python
程序员
MCP
LangChain
深度学习
暂无数据
推荐
最新
12. LangChain4j + 向量数据库操作详细说明
12. LangChain4j + 向量数据库操作详细说明 @[toc] LangChain4j 向量化 3 件套: Embedding Model模型简介: https://docs.langcha
本地大模型编程实战(33)用SSE实现大模型的流式输出
SSE(Server-Sent Events)是一种基于 HTTP 协议的服务器向客户端单向推送数据的技术我们使用大语言模型**qwen3**实现翻译功能。它可以自动识别源语言,并翻译为目标语种。
LangChain已死?不,是时候重新思考AI工程范式了
当LangChain成为技术债:你的AI架构还撑得过明年吗? 引言 在过去的18个月里,LangChain无疑成为AI工程领域的耀眼明星——GitHub星标爆炸性增长、开发者峰会座无虚席、各种基于La
📚LangChain框架下的检索增强:5步构建高效智能体系统
检索增强智能体技术正在重塑AI应用的开发范式,它巧妙地将大语言模型的推理能力与结构化知识检索相结合,解决了传统智能体在处理动态信息时的局限性。今天我将根据实际开发中的痛点:如何设计高效、灵活的智能体系
💡突破RAG性能瓶颈:揭秘查询转换与智能路由黑科技
大多数团队在构建RAG系统时,会经历多轮实验,依赖多个组件如查询转换、智能路由、索引策略等。每个组件都需要独立的设置和调优,稍有不慎就会影响整体性能。今天我将深度解析从基础架构入手,逐步深入到高级优化
💡为什么你的RAG回答总是胡言乱语?致命瓶颈在数据预处理层
不知道大家在RAG项目实践中,有没有遇到这个问题?用LangChain框架自带的PyPDFLoader加载PDF报告时,虽然流程跑通了,但给出的结果回答质量极低,各种回避问题、事实错误。后来我通过深入
LangChain集成Qwen大模型多种方式分享与最佳实践
LangChain 是一个强大的开源框架,专为大语言模型的集成与应用开发而设计;而 Qwen(通义千问)则是阿里巴巴集团推出的优秀大语言模型,在国内拥有广泛的应用和良好的口碑。对于国内开发者而言,掌握
LLMCompiler:基于LangGraph的并行化Agent架构高效实现
随着大语言模型在复杂任务处理中的应用日益广泛,如何提高Agent系统的执行效率和降低计算成本成为了关键挑战。本文介绍了LLMCompiler架构的实现,创新Agent设计,旨在通过并行执行任务和减少冗
⚡ 突破LLM三大局限:LangChain架构核心解析与最佳实践
一、LangChain 基本理论与架构 1.1 核心设计思想 LangChain 通过模块化组件连接大语言模型(LLM)与外部系统,解决LLM的三大局限: 无状态性:通过 Memory 管理上下文 知
LangChain替代框架深度横评:轻量化、企业级、垂直专精的技术博弈
LangChain帝国裂变:轻量化 vs 企业级 vs 垂直专精,四大框架技术霸权争夺战 随着大模型应用分层化趋势加剧,LangChain的"大而全"架构已非唯一选择。本文基于技术架构特性,对比分析四
大模型如何突破“认知茧房”?RAG+MCP构建外部脑接口
RAG与MCP:AI大模型进化的黄金双翼 引言: 在大型语言模型(LLM)日臻成熟的今天,如何突破其固有限制成为关键议题。检索增强生成(RAG)与多模态上下文处理(MCP)技术正成为驱动大模型能力跃升
三分钟接入!SpringAI 玩转 Perplexity 聊天模型实战
在 SpringAI 的世界里,Perplexity 聊天模型可不仅仅是聊天,它还能实时搜索、支持函数调用、多模态输入,配置丝滑到飞起。本文小米带你从依赖配置到运行时选项,手把手玩转 Perplexi
🎯 RAG系统工业级部署指南:六步实现<3%幻觉率的问答系统
一、LangChain搜索工具实战:集成DuckDuckGo实现实时信息查询 核心场景:解决大模型知识滞后问题,通过搜索引擎获取实时信息 1.1 基础集成方案 1.2 高级配置(含元数据过滤) 1.3
6. LangChain4j + 流式输出详细说明
6. LangChain4j + 流式输出详细说明 @[toc] 流式输出(StreamingOutput)的概念 是一种逐步返回大模型生成结果的技术,生成一点返回一点,允许服务器将响应内容,分批次实
LangChain框架入门19: 构建你的第一个 AI 智能体
AgentExecutor作为一个经典且易于理解的Agent实现方式,它是学习 Agent 的良好切入点,本文将会对AgentExecutor进行详细讲解。
8. LangChain4j + 提示词工程详细说明
8. LangChain4j + 提示词工程详细说明 [toc] https://docs.langchain4j.dev/tutorials/chat-and-language-models/#ty
🔥 大模型开发进阶:基于LangChain的异步流式响应与性能优化
详细介绍LangChain如何高效串联搜索、记忆与工具调用功能,实操Prompt设计、Agent构建与决策链路,快速打造智能、高效、灵活的自动化AI工作流
📚LangChain与LlamaIndex深度整合:企业级树状数据RAG实战指南
本文首次公开结构化树状数据的RAG全链路优化方案,通过独创的路径感知混合嵌入算法和动态子树分块策略,成功在工业级场景中将召回率提升25-40%、延迟降低30-50%。我们将深度拆解七层优化架构:从智能
LangChain 表达式语言 (LCEL):从序列链接到并行执行
在 LLM 应用的开发浪潮中,LangChain 框架迅速成为最受欢迎的工具之一。随着应用的主键复杂化,复杂的 RAG、智能体(Agent)、多步骤推理等需求变得普遍,早期的编程范式逐渐显
使用Langchain生成本地rag知识库并搭载大模型
准备设备: 手机+aidlux2.0个人版 一、下载依赖 二、安装ollama并下载模型 安装完毕可以查看ollama版本进行验证,出现版本号之后就可以使用ollama 考虑性能因素,选择下载较小的模