首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
16_one
掘友等级
后端开发工程师
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 15
沸点 0
赞
15
返回
|
搜索文章
16_one
后端开发工程师
·
1天前
关注
LangChain V1.0 核心解析(拓展):LangSmith监控工具
LangSmith监控工具 LangSmith核心概念详解 大模型的行为往往存在不确定性,尤其在开发复杂的AI Agent应用程序时,过程中常包含众多子步骤。若希望掌握...
0
评论
分享
16_one
后端开发工程师
·
1天前
关注
LangChain V1.0 核心解析(五):RAG、Agentic RAG
LangChain框架搭建RAG 加载模型 文档加载 文档切分 文档向量存储与检索 创建向量存储(Faiss向量数据库) 加载并创建检索器 基础RAG链构建 Agentic...
0
评论
分享
16_one
后端开发工程师
·
3天前
关注
LangChain V1.0 核心解析(四):Short-term memory组件——让AI记住对话:上下文管理与历史追溯技术
Agent 记忆管理 概述 核心要素 State (状态): 定义用来存储消息的结构(通常是 MessagesState) Checkpointer (检查点保存器): 负...
0
评论
分享
16_one
后端开发工程师
·
3天前
关注
Python小计-列表推导式
列表推导式解析 原始代码 步骤一 results是个列表 列表中的每个元素doc是一个对象 每个doc对象都有一个属性page_content 步骤二 遍历results中...
0
评论
分享
16_one
后端开发工程师
·
5天前
关注
LangChain V1.0 核心解析(三):Tools组件——AI的"瑞士军刀":如何让大模型拥有调用API、操作数据、执行任务的能力
自定义tool工具使用 @too装饰器 概述 自动参数推断:基于函数签名自动生成工具的参数schema 简化配置:只需提供工具名称和描述即可快速创建 同步执行:默认支持同步...
1
评论
分享
16_one
后端开发工程师
·
7天前
关注
LangChain V1.0 核心解析(二):Messages组件——对话流的构建与编排
不同角色Message 提示词模板 PromptTemplate partial_variables固定变量 ChatPromptTemplate LangChain Hu...
0
评论
分享
16_one
后端开发工程师
·
12天前
关注
LangChain V1.0 核心解析(一):Models 组件 —— 集成、配置与实战调用
初始化模型 不同模型提供商提供自己的依赖包 设置密钥系统环境变量 2.DeepSeek DashScope 3.GLM Ollama Vllm (拓展) 统一入口 总结 R...
1
评论
分享
16_one
后端开发工程师
·
20天前
关注
Python小记--------------------- load_dotenv()用法
简单理解 load_dotenv() 形象形容 print(os.environ.get("API_KEY")...
0
评论
分享
16_one
关注了
Roll圈圈
后端开发工程师
16_one
后端开发工程师
·
1月前
举报
@英文拳击虾
如何进行最健康的养生
AI聊天室
分享
1
点赞
16_one
后端开发工程师
·
1月前
举报
@英文拳击虾
养生之道
AI聊天室
分享
2
点赞
16_one
后端开发工程师
·
1月前
关注
Dify+Xinference+简单Rag知识库
云服务器准备 网络加速 安装驱动与CUDA 删除现有的CUDA包 删除之前的CUDA目录 清理apt源 重新安装CUDA 12.4 设置环境变量 重启系统 验证安装 安装D...
0
评论
分享
16_one
后端开发工程师
·
2月前
关注
autoDL安装Open-WebUi+Rag本地知识库问答+Function Calling
基础环境搭建 open-webui安装 ollama在线安装 2.1. 将模型下载地址改到数据盘 2.2. 启动ollama 3. 安装deepseek-r1:14b模型 ...
0
评论
分享
16_one
后端开发工程师
·
2月前
关注
vllm部署优化策略+在线推理应用
vllm离线部署-离线推理服务的大模型生命周期 vllm在线部署-服务器参数 vllm在线部署-服务启动参数 只需要关注--host 指定服务器的主机地址 和 --port...
0
评论
分享
16_one
后端开发工程师
·
2月前
关注
autoDL安装vllm+deepseek推理模型+Qwen+调用离线推理api
部署vllm的要求 仅支持在linuxc操作系统 pyhon版本要求在3.8~3.12之间 部署操作流程 检查conda版本,若出现conda not found ,需要先...
0
评论
分享
16_one
后端开发工程师
·
2月前
关注
autoDL安装ollama+deepseek-r1:1.5b+ollama多GPU部署
AutoDL服务器选择 根据gpu服务器显存大小,对比下方图中。目前租用3080,显存10GB,可以选择1.5b,7b,8b;为了节省gpu服务器资源,以最小模型安装1.5...
0
评论
分享
16_one
赞了这篇文章
程序员Sunday
@公众号:程序员Sunday
·
6月前
关注
AIGC、RAG、Agent、Function Call、MCP 到底啥关系?一次讲明白!
AI 技术发展太快了,`AIGC、RAG、Agent、Function Call、MCP` 等等的各种热词层出不穷的。所以,咱们今天这篇文章,就一次性帮你把这些搞明白......
74
8
分享
16_one
关注了
哪吒编程
后端开发工程师
16_one
赞了这篇文章
请叫我黄同学
Java高级工程师
·
3年前
关注
Mysql-详解脏读、不可重复读、幻读
一起养成写作习惯!这是我参与「掘金日新计划 · 4 月更文挑战」的第13天,点击查看活动详情。 Mysql的事务隔离级别 Mysql有四种事务隔离级别,这四种隔离级别代表当...
108
4
分享
16_one
关注了
why技术
后端开发工程师
下一页
个人成就
文章被点赞
30
文章被阅读
16,012
掘力值
577
关注了
19
关注者
6
收藏集
1
关注标签
9
加入于
2022-08-15