首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AI-LLM
Hank_Liu
创建于2025-04-16
订阅专栏
AI-LLM
暂无订阅
共2篇文章
创建于2025-04-16
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
使用Wireshark抓包看看MCP背后的请求链路
上回作者浅浅尝试了一口本地MCP服务的搭建,并成功运用在AI IDE中。 那么此次好奇这个提供了数据库query工具的MCP服务背后,究竟是用怎样的prompt与LLM交互?
AI assistant本地部署Continue.dev + Ollama + MCP Server
本文选择用VS Code + Continue.dev插件集成配套的AI IDE,配置Ollama本地运行qwen2.5-coder (7b)模型,并添加一个PG MCP server