首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
NLP中的常用模型
30岁转码
创建于2022-07-16
订阅专栏
收集,复现分享NLP中的典型模型。
暂无订阅
共3篇文章
创建于2022-07-16
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Transformers源码分析-BERT(Pytorch)
Transofrmers版本4.21 这里只考虑预训练的代码,毕竟预训练才是最重要的,一通百通。即 BertForPretraining这个类 获取类调用的关系图UML图 图中左侧箭头对应NSP任务的
Transformer的自己实现
面试准备: Transformer 作为一种序列转换模型(sequence transduction)完全抛弃了RNN\CNN等传统的方案。
ELMo模型理解
ELMO充分利用了Bi-LSTM的各层的所有输出以及Embdding层来解决了Word2vec存在的不支持一词多义的缺陷。
Transofmer中的N个为什么
Transformer系列模型的面试常见问题和深入理解:为什么要除以d_k,残差和LaryNorm的先后对模型有什么影响?为什么要共享Embedding参数?可不可以不共享