首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
训推
订阅
小小的Max
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
全网最细,一文带你弄懂 MCP 的核心原理!
MCP 是如何做到统一工具调用方式的? MCP 客户端和 MCP Server 到底是怎么交互的? 为什么有的 MCP 客户端支持所有模型,有的确不行? 大家好,欢迎来到 code秘密花园,我是花园老
分布式训练Allreduce算法
现在的模型以及其参数愈加复杂,仅仅一两张的卡已经无法满足现如今训练规模的要求,分布式训练应运而生。分布式训练是怎样的?为什么要使用Allreduce算法?分布式训练又是如何进行通信的?
大模型分布式训练并行技术(一)-概述
利用AI集群,使机器学习算法更好地从大数据中训练出性能优良的大模型是分布式机器学习的目标。为了实现该目标,一般需要根据硬件资源与数据/模型规模的匹配情况,考虑对计算任务、训练数据和模型进行划分,进行分