首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
模型量化
订阅
悠悠同学
更多收藏集
微信扫码分享
微信
新浪微博
QQ
4篇文章 · 0订阅
综述论文:当前深度神经网络模型压缩和加速方法速览
大型神经网络具有大量的层级与结点,因此考虑如何减少它们所需要的内存与计算量就显得极为重要,特别是对于在线学习和增量学习等实时应用。此外,近来智能可穿戴设备的流行也为研究员提供了在资源(内存、CPU、能耗和带宽等)有限的便携式设备上部署深度学习应用提供了机会。高效的深度学习方法可…
Pytorch实现量化感知训练QAT(一)
很久没更新文章了,小伙伴是不是有点想我呢? 小林最近在搞训练感知量化的东西, 这玩意比那些后处理量化方案靠谱多了, 比你把float32的模型转到tensorrt,再在tensorrt上做量化靠谱. 有人可能会问了, 你说的靠谱到底体现在哪儿? 简单来说有这么几点: 众所周知,…
工程之道,深度学习的工业级模型量化实战
MegEngine提供从训练到部署完整的量化支持,包括量化感知训练以及训练后量化,凭借“训练推理一体”的特性,MegEngine更能保证量化之后的模型与部署之后的效果一致。本文将简要介绍神经网络量化的
量化感知训练实践:实现精度无损的模型压缩和推理加速
简介:本文以近期流行的YOLOX[8]目标检测模型为例,介绍量化感知训练的原理流程,讨论如何实现精度无损的实践经验,并展示了量化后的模型能够做到精度不低于原始浮点模型,模型压缩4X、推理加速最高2.3