首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
kd代码实战
订阅
Shiym
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
知识蒸馏系列(一):三类基础蒸馏算法
0 前言 知识蒸馏(Knowledge Distillation,简记为 KD)是一种经典的模型压缩方法,核心思想是通过引导轻量化的学生模型“模仿”性能更好、结构更复杂的教师模型(或多模型的 ense
从教师到学生:神奇的“知识蒸馏”之旅——原理详解篇
小伙伴有没有遇到过因深度学习模型太大而导致训练部署困难呢🧐🧐🧐今儿就给大家介绍一个AI领域重要的模型压缩方法——知识蒸馏。它基于“教师-学生网络思想”训练方法,通过师徒传授,将大规模知识传递给轻
AI精炼术:利用PyTorch实现MNIST数据集上的知识蒸馏
上期介绍了知识蒸馏的核心原理,一句话概括——将教师模型的知识通过soft targets传递给学生模型。今天就来实战一下,看看教师模型、学生模型是怎样用代码构建的,学习如何用知识蒸馏提高学生模型的性能