1,Auto-encoding Language Models通用数学原理详解
2,为何要放弃采用Feature-Based语言模型ELMo而使用Fine-tuning模型?
3,双向语言模型:both left-to-right and right-to-left不同实现及数学原理解析
4,深度双向语言模型背后的数学原理及物理机制
5,Unsupervised Fine-tuning训练模型架构及数学原理解析
6,Transfer Learning数学原理及工程实现详解
7,MLM(Masked Language Models)数学原理及工程架构解析
8,MLM问题解析及解决方案分析
9,Pre-training + Fine-tuning的BERT分层架构体系及组件解析
10,BERT的三层复合Embeddings解析
11,BERT不同模块的参数复杂度分析
12,BERT在进行Masking操作中采用10%随机选取词库的内容进行替换masked位置的内容的数学原理剖析
13,BERT在进行Masking操作中采用10%的内容维持不变的数学原理揭秘
14,BERT的Masking机制五大缺陷及其解决方案分析
15,BERT的Masking机制在Data Enchancement方面的妙用
16,BERT的Masking机制在处理智能对话系统中不规范用语甚至是错误语法及用词的妙用
17,BERT的NSP(Next Sentence Prediction)机制及其实现
18,BERT的NSP三大问题及解决方案剖析
19,BERT的CLS剖析及工程实现
20,BERT的CLS三个核心问题及解决方案
21,Knowledge Distillation for BERT数学原理贝叶斯及KL散度解析及案例实战
22,使用BERT进行Classification架构及案例实战
23,使用BERT进行NER(Named Entity Recognition)架构及案例实战
24,使用BERT实现文本Similarity任务的架构及案例实战
25,使用BERT实现Question-Answering任务的架构及案例实战
26,ALBERT模型架构解析
27,RoBERTa模型架构解析
28,SpanBERT模型架构解析
29,TinyBERT模型架构解析
30,Sentence-BERT模型架构解析
31,FiBERT模型架构解析
32,K-BERT模型架构解析
33,KG-BERT模型架构解析