首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI小白历险记
元元的飞
创建于2025-06-13
订阅专栏
始于java程序员临危受命部署AI大模型
等 2 人订阅
共7篇文章
创建于2025-06-13
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
7、大模型GPU显存计算方法
一、推理显存需求的组成 在大模型推理过程中,显存主要由以下几个部分构成: 组件 说明 1. 模型权重(Model Weights) 模型参数本身占用的显存,是最大头 2. KV Cache(Key-V
6、Spring AI Alibaba MCP结合Nacos自动注册与发现
通过使用Spring AI Alibaba 框架开发 MCP Server, 可以在 MCP Server启动后动态注册至 Nacos,并对齐进统一管理,支持以下能力: MCP Server 服务动态
5、Spring AI Alibaba示例代码(聊天记忆功能)
在AI对话应用中,聊天记忆功能让对话系统能够记住之前的交流内容,从而实现更自然的连续对话。就像你和朋友聊天时,朋友会记得你之前说过的话一样。 之前零基础使用didy里面,大模型里面有个聊天记忆的选项。
4、Spring AI Alibaba示例代码(其他平台模型及vllm-chat 400错误解决)
上一章我们初识了 Spring AI Alibaba 的 helloworld 模块,完成了环境搭建与快速入门,并成功调用了阿里云百炼平台的模型。那么有个疑问,之前私有化部署的时候使用过ollama、
3、Spring AI Alibaba是什么
当私有化部署的AI大模型顺利落地,下一个挑战立刻摆在眼前:如何高效对接业务系统?LangChain 固然是热门选择,无奈日常开发任务繁重,迟迟未能实践。转折点出现在关注到 Spring AI 及其 A
2、零基础掌握AI Agent:从Prompt到Function Calling与MCP
AI Agent 在 System Prompt 的约束下,根据 User Prompt 进行思考,通过 Function Calling 使用 Agent Tools,并借助 MCP 实现自动任务。
1、Ollama vs. vLLM:Java工程师的AI部署血泪史
摸鱼摸到AI组 - 这锅甩不开 春节期间的Deepseek火爆出圈后,我也跟风体验了一把。虽然常遇到服务器繁忙,但它的生辰八字算五行功能确实能提供一些参考。节后回归工作岗位,原本以为上半年就是常规的运