首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
huggingface-Transformers-源码解读
30岁转码
创建于2022-07-29
订阅专栏
通过阅读Huggingfac-transformers中的模型源码和论文加深自己对预训练模型的理解。
等 1 人订阅
共2篇文章
创建于2022-07-29
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Transformers源码分析-GPT2(Pytorch)
GPT2通过堆叠Transfomer的Deocder广泛的应用于各类生成式任务。并且在Tranformers-GPT2的源码中,提供了很多Trick来压缩计算时间和计算开销,因此读懂源码非常有必要。
Transformers源码分析-BERT(Pytorch)
Transofrmers版本4.21 这里只考虑预训练的代码,毕竟预训练才是最重要的,一通百通。即 BertForPretraining这个类 获取类调用的关系图UML图 图中左侧箭头对应NSP任务的