首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
LLM
杨昆
创建于2025-06-17
订阅专栏
你猜我这个专栏是不是大模型写的?
暂无订阅
共3篇文章
创建于2025-06-17
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
MCP方案会比function call调用慢吗?
接上篇 在对比 MCP协议 和传统 Function Calling(如OpenAI方案) 的性能时,MCP方案通常会更慢,但牺牲部分速度换来了灵活性和扩展性。以下是具体原因分
大模型MCP示例
你猜这次的内容是不是大模型生成的?MCP协议实现了自然语言→工具调用→自然语言的闭环,同时保持灵活性和安全性。开发者可通过扩展MCP服务器支持更多工具(如股票查询、航班预订),而无需修改LLM
MCP工具多了咋办,效率高吗?
接上篇 在MCP协议中,当工具列表(/tools/list返回的结果)非常庞大时,LLM的自动匹配决策确实可能面临挑战,但通过合理的协议设计和优化策略可以解决大部分问题。以下是关键分析和解决方案: