首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
16_one
掘友等级
后端开发工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 15
沸点 0
赞
15
返回
|
搜索文章
最新
热门
LangChain V1.0 核心解析(拓展):LangSmith监控工具
LangSmith监控工具 LangSmith核心概念详解 大模型的行为往往存在不确定性,尤其在开发复杂的AI Agent应用程序时,过程中常包含众多子步骤。若希望掌握每一步的执行状态与结果,一方
LangChain V1.0 核心解析(五):RAG、Agentic RAG
LangChain框架搭建RAG 加载模型 文档加载 文档切分 文档向量存储与检索 创建向量存储(Faiss向量数据库) 加载并创建检索器 基础RAG链构建 Agentic RAG概述介绍 是一种
LangChain V1.0 核心解析(四):Short-term memory组件——让AI记住对话:上下文管理与历史追溯技术
Agent 记忆管理 概述 核心要素 State (状态): 定义用来存储消息的结构(通常是 MessagesState) Checkpointer (检查点保存器): 负责在每一步结束后把状态保存下
Python小计-列表推导式
列表推导式解析 原始代码 步骤一 results是个列表 列表中的每个元素doc是一个对象 每个doc对象都有一个属性page_content 步骤二 遍历results中的每个doc对象 对每个do
LangChain V1.0 核心解析(三):Tools组件——AI的"瑞士军刀":如何让大模型拥有调用API、操作数据、执行任务的能力
自定义tool工具使用 @too装饰器 概述 自动参数推断:基于函数签名自动生成工具的参数schema 简化配置:只需提供工具名称和描述即可快速创建 同步执行:默认支持同步函数调用,异步需要单独定义
LangChain V1.0 核心解析(二):Messages组件——对话流的构建与编排
不同角色Message 提示词模板 PromptTemplate partial_variables固定变量 ChatPromptTemplate LangChain Hub模板库
LangChain V1.0 核心解析(一):Models 组件 —— 集成、配置与实战调用
初始化模型 不同模型提供商提供自己的依赖包 设置密钥系统环境变量 2.DeepSeek DashScope 3.GLM Ollama Vllm (拓展) 统一入口 总结 RateLimit 模型速率限
Python小记--------------------- load_dotenv()用法
简单理解 load_dotenv() 形象形容 print(os.environ.get("API_KEY")
Dify+Xinference+简单Rag知识库
云服务器准备 网络加速 安装驱动与CUDA 删除现有的CUDA包 删除之前的CUDA目录 清理apt源 重新安装CUDA 12.4 设置环境变量 重启系统 验证安装 安装Docker 更新系统包 安装
autoDL安装Open-WebUi+Rag本地知识库问答+Function Calling
基础环境搭建 open-webui安装 ollama在线安装 2.1. 将模型下载地址改到数据盘 2.2. 启动ollama 3. 安装deepseek-r1:14b模型 Embedding模型下载
下一页
个人成就
文章被点赞
30
文章被阅读
16,460
掘力值
578
关注了
19
关注者
6
收藏集
1
关注标签
9
加入于
2022-08-15