首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
深度学习
订阅
喜淘金
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
如何优化深度学习模型以提升推理速度
在深度学习中,推理指的是神经网络的一次前向传播过程,然后从中得到输出结果的过程。我们可以将标准的卷积换成可分离卷积来减少计算量,也可以通过剪枝、量化和模型冻结等方式来减少很多推理时间。
计算深度学习模型的macs
macs(Multiply–Accumulate Operations)原本是硬件方面的指标,不过近年来深度学习模型运算速度也会经常出现,我们可以使用torchprofile进行计算。 这里我直接使用
边缘计算 | 在移动设备上部署深度学习模型的思路与注意点
本文介绍AI模型适用于小型本地设备上的方法技术:压缩模型参数量,设计更小的模型结构,知识蒸馏,调整数据格式,数据复用等,并介绍移动小处理设备的类型、适用移动设备的模型框架等。
网易有道开源EMLL:高性能端侧机器学习计算库,大幅提高计算性能
在人工智能技术不断深入发展的今天,我们对于计算的性能要求越来越高。随着数据的指数式增长,依靠云侧的计算已经显现了诸多不足,例如数据处理的实时性、网络条件制约、数据安全等,因此端侧的推理则愈发重要。
看完这篇我就不信还有人不懂卷积神经网络!
这是我参与2022首次更文挑战的第7天,活动详情查看:2022首次更文挑战 前言 在深度学习大🔥的当下,我知道介绍卷积神经网络的文章已经在全网泛滥,但我还是想要写出一点和别人不一样的东西,尽管要讲的知