首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
_星期五__
掘友等级
前端
|
阿里巴巴
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
13
文章 11
沸点 2
赞
13
返回
|
搜索文章
最新
热门
Kbone 解析 & 结合 LuLu 初实践(React向)
由于公司主要项目几乎是 React 主导,所以本文会主要从 React 的视角来解析这个框架。事实上,Kbone 适合 Vue、React、Preact。不同框架的视角会有一些不一致,不过本质是相同的。 本身 reactDom 是为浏览器环境而生的,因为只有浏览器环境才有 do…
解析 Chameleon 小程序的运行时性能问题
实验采用了4000条简单数据类型。点击按钮后,数据源变化为3000条另外的新数据。 实验中这种切换时的顿挫感是非常明显的。即使是微信原生也会有可感知的毫秒级的顿挫,但 Chameleon 相比微信原生而言,顿挫感快提升到秒级了。 下面使用微信原生的框架代码来实现同样的功能,并测…
剖析 Antd Table 组件的错位和性能问题
零. 开门见山的 Bug 解决方案 该写固定的 width,height 就写固定 width,height 。(修复简单,但这样 table 就不灵活,没法针对动态变化高度) 针对简单场景,可以用 setTimeout 在 mounted 之后触发下文的 syncFixedT…
Knowledge Distillation 知识蒸馏
知识蒸馏简单来说将原本复杂的模型,用一个小模型代替,小模型直接学习大模型的预测结果。 如图 y1和y2,y3 的分数差距非常大,这样的话和直接学label就没有区别了,我们需要扩大label之间的联系,所以引入Temperature系数来解决这个问题。
LSTM
LSTM的第一步是决定我们需要从cell状态中扔掉什么样的信息。这个决策由一个称为“遗忘门(forget gate)”的sigmoid层决定。输入 和 ,输出一个0和1之间的数。1代表“完全保留这个值”,而0代表“完全扔掉这个值”。 比如对于一个基于上文预测最后一个词的语言模型…
循环神经网络
定义隐藏单元的值。为了表明状态是网络的隐藏单元,我们使用变量 h 代表状态重写式: 展开的循环架构允许我们将 g(t) 分解为函数 f 的重复应用。因此,展开过程引入两个主要优点: 无论序列的长度,学成的模型始终具有相同的输入大小,因为它指定的是从一种状态到另一种状态的转移,而…
西瓜书-特征选择与稀疏学习
特征选择和降维计算一样,都能有效的减轻维数灾难问题,事实上,特征选择和降维计算是处理高维数据的两大主流技术。但与降维将高维属性投影嵌入到低维空间不同,特征选择是直接将无关的属性去除,这会有效降低学习任务的难度,就像侦探破案一样,将繁杂的因素抽丝剥茧,只留下关键信息,则真相往往更…
西瓜书-PCA
依然还记得2004年左右Isomap横空出世的惊奇, 再看t-SNE的诞生,真是膜拜! 也正是Hinton对PCA能理解到他的境界, 他才能发明t-SNE。 最大可分性:样本点在这个超平面上的投影能尽可能分开。 下面我们以3维降到2维为例,来试着理解为什么需要这两种性质。图10…
特征值分解和奇异值分解
特征向量的几何含义是:特征向量通过方阵A变换只进行伸缩,而保持特征向量的方向不变。 当v为零向量时,等式一定成立,但我们需要求非零解v。假设为为下图的黄线: 求得λ代入到式子中可以得到特征向量。 一般来说对角矩阵实际情况中很难出现,所以我们需要构造这样的矩阵,假设矩阵有好多个特…
西瓜书-概率图模型
概率模型(probabilistic model)提供了一种描述框架,将学习任务归结于计算变量的概率分布。在概率模型中,利用已知变量推测未知变量的分布称为“推断”(inference),其核心是如何基于可观测变量 x 推测出未知变量 c 的条件分布 。贝叶斯学习算法就是一个经典…
下一页
个人成就
文章被点赞
61
文章被阅读
28,184
掘力值
637
关注了
59
关注者
51
收藏集
1
关注标签
3
加入于
2018-07-10