首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户867573478982
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
MindSpore Transformers Safetensors权重详解
Safetensors是Hugging Face主导设计的安全、高效模型权重存储格式,核心解决传统CKPT、PT格式的安全隐患与加载效率问题,MindSpore Transformers已实现对Sa
昇思MindSpore动态图(PyNative)方案介绍
昇思MindSpore作为全场景AI框架,提供动态图(PyNative模式)与静态图(Graph模式)双运行模式,其中动态图(PyNative)采用“定义即运行”(Define by Run)的核心
MindSpore Transformers LLM数据预处理
数据预处理是LLM训练与推理的核心前提,直接决定模型训练效果与推理精度。MindSpore Transformers作为昇思生态下的大模型开发套件,提供了便捷、高效的数据预处理接口,支持Huggin
MindSpore Transformers LLM预训练与微调介绍
MindSpore Transformers是昇思MindSpore生态下的大模型全流程开发套件,整合了Transformer架构核心能力与MindSpore高效训练特性,支持主流LLM(如Qwen
MindSpore大模型训练评估指标
MindSpore大模型训练评估是模型性能优化、效果验证的核心环节,通过量化评估指标衡量模型的拟合能力、泛化能力及生成质量,适配LLM(大语言模型)、VLM(多模态模型)等各类大模型训练场景。核心评
MindSpore预训练数据准备
MindSpore预训练数据准备是模型预训练的核心前提,核心遵循“数据获取→清洗预处理→格式转换→加载验证”四大步骤,适配LLM、CV等多类预训练任务,深度兼容昇腾NPU硬件,依托MindData数
昇腾平台多模态生成推理技术
昇腾平台多模态生成推理技术,依托昇腾全栈AI架构,实现文本、图像、音频等多模态数据的协同生成与高效推理,核心依托CANN芯片使能层、MindIE推理引擎及MindSpeed MM工具套件,适配Qwe
MindSpeed LLM开发实践
MindSpeed LLM是华为昇腾生态专属的大语言模型分布式训练与推理框架,前身为ModelLink,专为昇腾NPU优化,提供端到端的大模型开发方案,涵盖预训练、微调、推理部署全流程,支持百余种主
MindSpore 分布式集群
MindSpore 分布式集群是支撑大模型训练、超大规模数据计算的核心能力,通过数据并行、模型并行、混合并行三大策略,将计算任务高效分发到多机多卡(昇腾 NPU/GPU),线性扩展算力,解决单卡显存
昇腾Triton算子开发(初级)入门指南
昇腾Triton(Triton-Ascend)是OpenAI Triton编译器在华为昇腾NPU上的后端实现,核心价值在于降低昇腾算子开发门槛——开发者无需掌握复杂的Ascend C或汇编语言,仅通
下一页
个人成就
文章被点赞
1
文章被阅读
14,772
掘力值
435
关注了
0
关注者
0
收藏集
0
关注标签
7
加入于
2022-01-21