首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
spring ai
订阅
MrSYJ
更多收藏集
微信扫码分享
微信
新浪微博
QQ
9篇文章 · 0订阅
复盘我的第一个 大模型Agent:从核心循环到模块化架构的演进之路
本文将以我编写的一个 Go Agent Demo 为例,穿透各类框架的表层封装,回归其工程本质。我将首先分析其核心的 ReAct 循环,并展示这个看似简单的循环是如何通过模块化设计,演进为一个结构化、
如何让大模型秒懂你的意图?提示工程三大绝招揭秘
大型语言模型(LLMs)在分类任务中表现出色,但要发挥其最大潜力,关键在于掌握提示工程技巧。本文从零开始,深入解析如何通过精心设计的提示词让大模型准确完成分类任务。
SpringAI轻松构建MCP Client-Server架构
什么是MCP? MCP 是 Model Context Protocol,模型上下文协议,它是由 Anthropic(Claude 大模型母公司)提出的开放协议,用于大模型连接外部“数据源”的一种协议
Spring AI 自定义Redis持久化ChatMemory
自定义实现ChatMemory Spring AI的对话记忆实现非常巧妙,解耦了"储存"和"记忆算法", 存储:ChatMemory:我们可以单独修改ChatMemory存储来改变对话记忆的保存位置,
Spring AI 自定义数据库持久化的ChatMemory
自定义实现ChatMemory Spring AI的对话记忆实现非常巧妙,解耦了"储存"和"记忆算法", 存储:ChatMemory:我们可以单独修改ChatMemory存储来改变对话记忆的保存位置,
LangChain + MCP + vLLM + Qwen3-32B 构建本地私有化智能体应用
一、私有化智能体应用 在本专栏的前面文章基于Spring AI MCP实现了本地 ChatBI 问答应用,本文还是依据该场景,采用 LangChain + vLLM + Qwen3-32B + MCP
手把手教会你如何通过ChatGPT API实现上下文对话
ChatGPT最近热度持续高涨,已经成为互联网和金融投资领域最热门的话题。 有的小伙伴可能需要在公司搭建一套ChatGPT系统,那使用ChatGPT的API显然是最好的选择。 不过ChatGPT
0基础进大厂,第9天:LLM 入门篇——与AI的多轮对话
引言 从这篇文章开始,作者即将开启一个新系列文章——AI篇,我将从最基本的AI概念开始说起到AIGC,AIGC是终点吗?当然不是,学无止境... LLM LLM(Large Language Mode
Spring Cloud Alibaba AI 对话记忆
对话记忆介绍 ”大模型的对话记忆”这一概念,根植于人工智能与自然语言处理领域,特别是针对具有深度学习能力的大型语言模型而言,它指的是模型在与用户进行交互式对话过程中,能够追踪、理解并利用先前对话上下文