首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
30岁转码
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
最新
热门
Transformers源码分析-GPT2(Pytorch)
GPT2通过堆叠Transfomer的Deocder广泛的应用于各类生成式任务。并且在Tranformers-GPT2的源码中,提供了很多Trick来压缩计算时间和计算开销,因此读懂源码非常有必要。
Transformers源码分析-BERT(Pytorch)
Transofrmers版本4.21 这里只考虑预训练的代码,毕竟预训练才是最重要的,一通百通。即 BertForPretraining这个类 获取类调用的关系图UML图 图中左侧箭头对应NSP任务的
ELMo模型理解
ELMO充分利用了Bi-LSTM的各层的所有输出以及Embdding层来解决了Word2vec存在的不支持一词多义的缺陷。
Transofmer中的N个为什么
Transformer系列模型的面试常见问题和深入理解:为什么要除以d_k,残差和LaryNorm的先后对模型有什么影响?为什么要共享Embedding参数?可不可以不共享
Transformer的自己实现
面试准备: Transformer 作为一种序列转换模型(sequence transduction)完全抛弃了RNN\CNN等传统的方案。
个人成就
文章被点赞
1
文章被阅读
3,006
掘力值
75
关注了
1
关注者
2
收藏集
0
关注标签
8
加入于
2022-07-16