首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Eree
掘友等级
学生
|
浙江大学
获得徽章 4
动态
文章
专栏
沸点
收藏集
关注
作品
赞
20
文章 19
沸点 1
赞
20
返回
|
搜索文章
最新
热门
【论文】TOWARDS FASTER AND BETTER FEDERATED LEARNING A FEATURE FUSION APPROACH阅读笔记
本文主要提出一种特征融合的方式,来加速并且提升联邦学习的性能。 如今许多智能设备依赖于预训练模型,这使得机器的推断能力缺乏个性化和灵活性。与此同时,智能终端同时还产生了大量有效的隐私数据,这些数据能够提升这些模型的个性化能力。联邦学习,一种能够直接在终端上对模型进行训练的一种分…
【西瓜书】阅读笔记 2. 模型评估与选择
将数据集D分为两个互斥的集合,一部分为训练集S,一部分为测试集T。当S较大T较小的时候可能评估不够准确。如果T变大了,那么用S训练的模型可能和用D训练的模型相比差别太大,评估的结果也不够准确。 将数据集D分为k个互斥的集合,将k-1个子集作为训练集,剩下的集合做为测试集合,这样…
【西瓜书】阅读笔记 1. 绪论
机器学习:假设用P来评估计算机程序在某任务类T上的性能,若一个程序通过经验E在T中任务上获得了性能改善,则我们就说关于T和P,该程序对E进行了学习。 数据集(dataset)包含了一系列的记录,每条记录就是一个示例(instance)或者是样本(sample)。反应某些性质的是…
Stagewise Knowledge Distillation 论文笔记
大部分现代深度学习模型需要高运算力,但是对于嵌入式设备来说,缺少这种高运算能力。因此对于这类设备,能够减少运算并且保持性能的模型非常重要。知识蒸馏就是解决这类问题的方法之一。传统知识蒸馏方法是直接在一个阶段中将知识从老师中转换到学生。我们提出一种阶段性的训练方式,来提升知识的转…
个人成就
文章被点赞
3
文章被阅读
1,999
掘力值
48
关注了
10
关注者
2
收藏集
1
关注标签
19
加入于
2018-02-21