首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
TVM 中文
神经星星
创建于2022-12-07
订阅专栏
汇集 TVM 中文学习资料、教程及案例,欢迎关注~ 更多请访问:https://tvm.hyper.ai/
等 6 人订阅
共76篇文章
创建于2022-12-07
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
【TVM 教程】内联及数学函数
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → https://tvm.hyper.ai/
【TVM 教程】规约(reduce)
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 →https://tvm.hyper.ai/
【TVM 教程】TVM 中的 Schedule 原语
作者:Ziheng Jiang TVM 是一种用于高效构建内核的领域特定语言。 本教程展示了如何通过 TVM 提供的各种原语来调度计算。 计算相同结果的方法众多,然而,不同的方法会导致局部性和性能各异
【TVM 教程】使用 Relay Visualizer 可视化 Relay
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → Apache TVM 是一个端到端的深度学习编译框架,适用于 C
【TVM 教程】在 Relay 中使用 Pipeline Executor
Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。更多 TVM 中文文档可访问 → Apache TVM 中文站tvm.hyper.ai/ 作者:
【TVM 教程】在 Relay 中使用外部库
作者:Masahiro Masuda,Truman Tian 本文介绍如何将 cuDNN 或 cuBLAS 等外部库与 Relay 一起使用。 Relay 内部用 TVM 来生成 target-spe
【TVM 教程】构建图卷积网络
更多 TVM 中文文档可访问 → https://tvm.hyper.ai/ 本文介绍如何用 Relay 构建图卷积网络(GCN)。本教程演示在 Cora 数据集上运行 GCN。Cora 数据集是图神
【TVM 教程】在 Adreno™ 上部署预训练模型
本文是一个逐步教程,演示如何在 Adreno 上(不同精度)部署预训练的 PyTorch ResNet-18 模型。 首先,我们需要安装 PyTorch 与 TorchVision,因为我们将使用它作
【TVM 教程】在 CPU 上部署 Hugging Face 剪枝模型
作者:Josh Fromm 本教程演示如何采用剪枝后的模型(本例中模型是 来自 Hugging Face 的 PruneBert),并使用 TVM 来利用模型稀疏支持来加速。 尽管本教程的主要目的是在
【TVM 教程】在 CUDA 上部署量化模型
作者:Wuwei Lin 本文介绍如何用 TVM 自动量化(TVM 的一种量化方式)。有关 TVM 中量化的更多详细信息,参阅 此处。本教程将在 ImageNet 上导入一个 GluonCV 预训练模
【TVM 教程】编译 PyTorch 目标检测模型
本文介绍如何用 Relay VM 部署 PyTorch 目标检测模型。 首先应安装 PyTorch。此外,还应安装 TorchVision,并将其作为模型合集(model zoo)。 可通过 pip
【TVM 教程】使用 TVM 部署框架预量化模型 - 第 3 部分(TFLite)
更多 TVM 中文文档可访问 →Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。 | Apache TVM 中文站 作者:Siju Samuel
【TVM 教程】使用 TVM 部署框架预量化模型
本文介绍如何将深度学习框架量化的模型加载到 TVM。预量化模型的导入是 TVM 中支持的量化之一。有关 TVM 中量化的更多信息,参阅 此处。 这里演示了如何加载和运行由 PyTorch、MXNet
【TVM 教程】在树莓派上部署预训练模型
此教程介绍如何用 Relay 编译 ResNet 模型,并将其部署到树莓派。 在设备上构建 TVM Runtime 首先在远程设备上构建 TVM runtime。 本节和下一节中的所有指令都应在目标
在 Jetson Nano 上部署预训练模型
此教程介绍如何用 Relay 编译 ResNet 模型,并将其部署到 Jetson Nano。 在 Jetson Nano 上构建 TVM Runtime 第一步是在远程设备上构建 TVM runt
在 Android 上部署预训练模型
更多 TVM 中文文档可访问 →https://tvm.hyper.ai/docs 下面是用 Relay 编译 Keras 模型,并将其部署到 Android 设备上的示例: 设置环境 由于 And
部署到 Adreno™ GPU
介绍 Adreno™ 是由高通开发并用于许多 SoC 的图形处理单元(GPU)半导体 IP 核系列。 Adreno™ GPU 可以加速复杂几何图形的渲染,在提供高性能图形和丰富的用户体验的同时拥有很
Relay BNNS 集成
更多 TVM 中文文档可访问 →https://tvm.hyper.ai/docs 介绍 Apple BNNS 库由一组函数构成,这些函数用来构建推理(和训练)过程中的神经网络。macOS、iOS、t
Vitis AI 集成
更多 TVM 中文文档可访问 →Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。IApache TVM 中文站 **Vitis AI **是用在
Relay TensorRT 集成
介绍 NVIDIA TensorRT 是一个用于优化深度学习推理的库。这种集成尽可能多地将算子从 Relay 迁移到 TensorRT,无需对 schedule 调优,即可提升 NVIDIA GPU
下一页