首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户867573478982
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
MindSpore `mindspore.nn`模块学习
mindspore.nn是 MindSpore 框架中用于构建神经网络的核心模块,提供了丰富的预定义构建块(称为 Cell)和计算单元。 1. 核心概念:神经网络 Cell Cell是 MindSpo
MindSpore框架在AI训练中的并行计算模型优势
MindSpore 在并行计算模型上的核心优势在于其 “自动并行” 与 “原生全栈协同” 设计,这使其在大规模分布式训练,尤其是大模型训练中,能显著降低开发门槛并提升硬件利用率。 其主要优势体现在
大模型 SPTD 并行策略、MFU 计算与 GPT3-175B 性能优化
在千亿参数大模型的训练与部署中,分布式并行策略、算力利用率评估与性能优化是核心技术支柱。以 Megatron SPTD 并行、MFU 计算和 GPT3-175B 稠密模型优化为切入点,可系统理解大模型
MindSpore-模型迁移案例
模型迁移场景所必需的数据集、模型和训练、推理流程等在MindSpore上的构建方法做简单介绍。同时展示MindSpore和PyTorch在数据集包装、模型构建、训练流程代码上的差别。
推理部署与训练的映射关系:从训练到落地的核心链路
在深度学习全流程中,推理部署与模型训练并非割裂的环节,而是高度关联的技术体系:推理本质是训练过程中模型前向计算(Model Forward)部分的独立化、工程化落地,核心目标是在保证精度的前提下,实现
MindSpore Ops 模块核心概览学习
一、 模块定位与导入 mindspore.ops提供了大量可直接调用的函数接口,涵盖了构建神经网络模型所需的几乎所有底层操作。其设计类似于 PyTorch 的 torch.nn.functional
昇腾AI推理性能优化入门:从模型量化到算子调优
在昇腾AI处理器的推理场景中,性能优化是提升部署效率、降低硬件成本的核心环节。本文从模型量化和算子调优两大基础方向入手,结合昇腾CANN架构特性与实战工具,拆解推理性能优化的核心逻辑与可落地方法,帮
昇腾CANN架构入门:核心组件与数据处理流程详解
先搞懂:CANN到底是什么 CANN(Compute Architecture for Neural Networks)是昇腾AI处理器的异构计算架构,定位是承上启下: • 向上对接PyTorch/T
多卡场景下模型从 GPU 到 NPU 的手工迁移指南
在 AI 模型分布式训练迁移场景中,将 GPU 环境下的代码迁移至昇腾 NPU 环境,除完成单卡迁移的 3 项核心修改外,还需重点调整分布式通信方式,这是保障多卡协同训练稳定高效的关键步骤。这一调整主
MindSpore COOTensor 学习
COOTensor 是 MindSpore 中用于表示稀疏张量的一种核心数据结构。它采用“坐标格式”(COO, Coordinate Format)来高效存储和处理主要包含零元素的矩阵(或高维张量)
下一页
个人成就
文章被点赞
1
文章被阅读
12,316
掘力值
370
关注了
0
关注者
0
收藏集
0
关注标签
7
加入于
2022-01-21