首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
用户867573478982
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
用户867573478982
14小时前
关注
MindSpore Transformers Safetensors权重详解
Safetensors是Hugging Face主导设计的安全、高效模型权重存储格式,核心解决传统CKPT、PT格式的安全隐患与加载效率问题,MindSpore Tran...
0
评论
分享
用户867573478982
14小时前
关注
昇思MindSpore动态图(PyNative)方案介绍
昇思MindSpore作为全场景AI框架,提供动态图(PyNative模式)与静态图(Graph模式)双运行模式,其中动态图(PyNative)采用“定义即运行”(Def...
0
评论
分享
用户867573478982
14小时前
关注
MindSpore Transformers LLM数据预处理
数据预处理是LLM训练与推理的核心前提,直接决定模型训练效果与推理精度。MindSpore Transformers作为昇思生态下的大模型开发套件,提供了便捷、高效的数据...
0
评论
分享
用户867573478982
14小时前
关注
MindSpore Transformers LLM预训练与微调介绍
MindSpore Transformers是昇思MindSpore生态下的大模型全流程开发套件,整合了Transformer架构核心能力与MindSpore高效训练特性...
0
评论
分享
用户867573478982
14小时前
关注
MindSpore大模型训练评估指标
MindSpore大模型训练评估是模型性能优化、效果验证的核心环节,通过量化评估指标衡量模型的拟合能力、泛化能力及生成质量,适配LLM(大语言模型)、VLM(多模态模型)...
0
评论
分享
用户867573478982
14小时前
关注
MindSpore预训练数据准备
MindSpore预训练数据准备是模型预训练的核心前提,核心遵循“数据获取→清洗预处理→格式转换→加载验证”四大步骤,适配LLM、CV等多类预训练任务,深度兼容昇腾NPU...
0
评论
分享
用户867573478982
14小时前
关注
昇腾平台多模态生成推理技术
昇腾平台多模态生成推理技术,依托昇腾全栈AI架构,实现文本、图像、音频等多模态数据的协同生成与高效推理,核心依托CANN芯片使能层、MindIE推理引擎及MindSpee...
0
评论
分享
用户867573478982
14小时前
关注
MindSpeed LLM开发实践
MindSpeed LLM是华为昇腾生态专属的大语言模型分布式训练与推理框架,前身为ModelLink,专为昇腾NPU优化,提供端到端的大模型开发方案,涵盖预训练、微调、...
0
评论
分享
用户867573478982
14小时前
关注
MindSpore 分布式集群
MindSpore 分布式集群是支撑大模型训练、超大规模数据计算的核心能力,通过数据并行、模型并行、混合并行三大策略,将计算任务高效分发到多机多卡(昇腾 NPU/GPU)...
0
评论
分享
用户867573478982
14小时前
关注
昇腾Triton算子开发(初级)入门指南
昇腾Triton(Triton-Ascend)是OpenAI Triton编译器在华为昇腾NPU上的后端实现,核心价值在于降低昇腾算子开发门槛——开发者无需掌握复杂的As...
0
评论
分享
用户867573478982
15小时前
关注
多模态大模型训练与微调实战
一、多模态大模型训练与微调(含代码) 多模态大模型能够同时理解和处理文本、图像、视频等数据,MindSpore作为昇思全场景深度学习框架,原生支持大模型分布式训练、低资源...
0
评论
分享
用户867573478982
15小时前
关注
MindSpore Transformers 断点续训
断点续训是长周期大模型训练的核心保障,MindSpore Transformers(MindFormers)通过 Checkpoint 2.0 机制实现全状态保存与精准恢...
0
评论
分享
用户867573478982
15小时前
关注
昇思大模型思维链提示
思维链提示的核心价值的是“激活大模型的涌现能力”,无需架构调整或微调,仅通过提示工程引导模型将复杂问题拆解为多个中间步骤,显化原本隐含的推理逻辑[superscript:...
0
评论
分享
用户867573478982
15小时前
关注
昇思MindSpore大语言模型微调
昇思LLM微调基于“预训练-微调”范式,核心是在预训练模型(如Llama2、Qwen)的基础上,使用目标任务数据集调整模型参数,使模型适配特定场景(如对话、领域问答)[s...
0
评论
分享
用户867573478982
15小时前
关注
昇思MindSpore深度学习基础
昇思MindSpore是华为自主研发的全场景深度学习框架,核心定位是“易用、高效、全场景”,依托昇腾NPU硬件优势,实现“训练-推理一体化”开发,同时兼容CPU、GPU等...
0
评论
分享
用户867573478982
15小时前
关注
大模型推理量化调试调优指南
大模型推理量化是降低显存占用、提升推理吞吐量的核心技术,通过将模型权重、激活值从FP32/FP16量化为INT8/INT4,在保证精度损失可控(误差≤1%)的前提下,可实...
0
评论
分享
用户867573478982
15小时前
关注
昇思平台精度调试工具msprobe
昇思(MindSpore)平台精度调试工具以 msprobe 为核心,搭配 Dump 数据采集、MindInsight 可视化、精度比对、溢出 / NaN 检测 四大能力...
0
评论
分享
用户867573478982
15小时前
关注
MindSpore大模型训练精度问题定位
一、案例背景与问题现象 本案例基于MindSpore实现Transformer-base模型,用于文本情感二分类任务(正面/负面),训练过程中出现典型精度问题:训练集损失...
0
评论
分享
用户867573478982
15小时前
关注
昇腾+MindSpore实战:从入门到性能调优的全方位经验分享
一、环境配置:打好性能基础 在昇腾910等NPU硬件上,正确的环境配置是性能优化的第一步。MindSpore提供了两种运行模式:PYNATIVE_MODE(动态图)和GR...
0
评论
分享
用户867573478982
15小时前
关注
昇腾平台部署GLM-5-w4a8模型
1. 基本信息 项目信息 原始模型名 GLM-5 原始模型链接 https://huggingface.co/zai-org/GLM-5 测试机型 Atlas 800T ...
0
评论
分享
下一页
个人成就
文章被点赞
1
文章被阅读
14,775
掘力值
435
关注了
0
关注者
0
收藏集
0
关注标签
7
加入于
2022-01-21