首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
StarSpaceNLP
StarSpaceNLP
创建于2021-11-13
订阅专栏
NLP on Transformers 101 基于Transformer的NLP智能对话机器人实战公开课 One Architecture, One Course,One Universe
等 1 人订阅
共32篇文章
创建于2021-11-13
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
第11章: 挑战BERT霸主地位的Autoregressive语言模型XLNet剖析及源码完整实现
1,作为Autoregressive语言模型的XLNet何以能够在发布时在20个语言任务上都能够正面挑战作为Autoencoding与训练领域霸主地位的BERT? 2,XLNet背后Permutati
第10章: 明星级轻量级高效Transformer模型ELECTRA: 采用Generator-Discriminator的Text Encoders解析及EL
1,GAN:Generative Model和Discriminative Model架构解析 2,为什么说ELECTRA是NLP领域轻量级训练模型明星级别的Model? 3,使用replaced
第9章: ALBERT Pre-training模型及Fine-tuning源码完整实现、案例及调试
1,Corpus数据分析 2,Pre-training参数设置分析 3,BasicTokenizer源码实现 4,WordpieceTokenizer源码实现 5,ALBERT的Tokenizatio
第8章: 轻量级ALBERT模型剖析及BERT变种中常见模型优化方式详解
1,从数学原理和工程实践的角度阐述BERT中应该设置Hidden Layer的维度高于(甚至是高几个数量级)Word Embeddings的维度背后的原因 2,从数学的角度剖析Neural Netwo
第7章: BERT Fine-tuning源码完整实现、调试及案例实战
1,数据预处理训练集、测试集源码 2,文本中的Token、Mask、Padding的预处理源码 3,数据的Batch处理实现源码及测试 4,加载Pre-training模型的BertModel及Ber
第6章: BERT Pre-training模型源码完整实现、测试、调试及可视化分析
1,词典Vocabulary库构建多层级源码实现及测试 2,Dataset加载及数据处理源码完整实现及测试和调试 3,Next Sentence Prediction机制源码完整实现及测试 4,Mas
第5章: Autoencoding Language Models数学原理及模型架构解析
1,Auto-encoding Language Models通用数学原理详解 2,为何要放弃采用Feature-Based语言模型ELMo而使用Fine-tuning模型? 3,双向语言模型:bot
第4章: Autoregressive Language Models之GPT-1、2、3解析及GPT源码实现
1,Task-aware的人工智能Language model + Pre-training + Fine-tuning时代 2,Decoder-Only Stack数学原理及架构解析 3,训练材料标
第3章: 细说Language Model内幕及Transformer XL源码实现
1,人工智能中最重要的公式之一MLE数学本质剖析及代码实战 2,Language Model的数学原理、Chain Rule剖析及Sparsity问题 3,Markov Assumption
第2章: 通过30+个细分模块完整实现Transformer论文源码及项目调试
1,Transformer源码训练及预测整体效果展示 2,模型训练model_training.py代码完整实现 3,数据预处理data_preprocess.py代码完整实现 4,Input端Emb
第1章: 贝叶斯理论下的Transformer揭秘
1,基于Bayesian Theory,融Hard Attention、Soft Attention、Self-Attention、Multi-head Attention于一身的Transforme
NLP on Transformers 101(基于Transformer的NLP智能对话机器人实战课程)
One Architecture, One Course,One Universe 本课程以Transformer架构为基石、萃取NLP中最具有使用价值的内容、围绕手动实现工业级智能业务对话机器人所需