首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
RaceSnail
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
昇腾NPU上基于MindIE服务的AIME和MATH500测评方案
背景 当前对DeepSeek-R1此类带推理think思维链的模型进行模型能力测评缺乏一个较准确的方,MindIE当前不能对DeepSeek报告中提到的几个数据集(AIME 2024、AIME 202
飞桨x昇腾生态适配方案:15_loop算子缺失(下):for循环替换loop
接上一章节内容,将ONNX模型拆分成loop算子部分和非loop算子部分后,分别转换成OM模型,并用for循环替换loop算子计算逻辑,比较OM模型和ONNX模型的推理结果是否一致,验证结果如果一致则
飞桨x昇腾生态适配方案:14_loop算子缺失(上):ONNX模型拆分
方案背景 当在线推理的速度无法满足客户要求,使用atc工具将onnx转为om模型走离线推理路径时,遇到NPU不支持LOOP算子的问题,本文提供一种解决方案。 本方案的设计思路是,onnx文件分成loo
飞桨x昇腾生态适配方案:13_API离线推理
ais_bench提供的python API可供使能基于昇腾硬件的离线模型(.om模型)推理。具体介绍可参考API_GUIDE 下面列举几个常用的API推理场景使用方法。 静态API推理 单个om推理
飞桨x昇腾生态适配方案:12_动态OM推理
动态BatchSize OM推理 以档位1 2 4 8档为例,设置档位为2,本程序将获取实际模型输入组Batch,每2个输入为一组,进行组Batch。 示例命令: 推理结果: 输出结果: 执行完毕后,
飞桨x昇腾生态适配方案:11_静态OM推理
推理环境准备 ais_bench推理工具简介 昇腾离线OM模型的推理后端是ACL(Ascend Computing Language),其底层采用C实现,后来在ACL基础上又做了一套Python接口,
飞桨x昇腾生态适配方案:10_ONNX转OM
本章节介绍 ONNX 模型如何转化为 OM 模型,并在昇腾AI处理器上做离线推理。 昇腾张量编译器(Ascend Tensor Compiler,简称ATC)是异构计算架构CANN体系下的模型转换工具
飞桨x昇腾生态适配方案:09_Paddle转ONNX
本节介绍 PP-OCRv4 模型如何转化为 ONNX 模型。 环境准备 需要准备 PaddleOCR、Paddle2ONNX 模型转化环境,和 ONNXRuntime 推理环境。 安装 Paddle2
飞桨x昇腾生态适配方案:08_性能调优方法
性能优化问题定界 在通过分析 profiling 文件找出性能瓶颈后,接下来将介绍相关的优化方法。算子时长主要由计算时间和调度时间两部分构成,下面将分别对计算时间长和调度时间长这两种情况进行探讨。 计
飞桨x昇腾生态适配方案:07_性能数据分析
性能调优思路 性能优化是一项系统性工作,建议采用 "分析 - 定位 - 优化" 的流程,通过性能分析工具定位瓶颈后实施针对性优化。 通过 profiling 工具获取算子级性能数据定位性能瓶颈点,主要
下一页
个人成就
文章被阅读
4,758
掘力值
105
关注了
0
关注者
3
收藏集
2
关注标签
10
加入于
2017-07-23