广义语言模型 SunYanCN 2019-05-06 356 阅读1分钟 NLP文字向量化 Embedding One-Hot方法: Embedding Transfomer Position Embedding 和 Word Embedding 位置编码矩阵是一个常数,其值由函数(pos,i)定义,其中pos是句子中单词的位置,i是Embedding的维度。 Attention 相关论文和资源 Attention Is All You Need ULMFiT论文 ELMO论文 GPT论文和OpenAI的官方博客文章 BERT论文 GPT-2论文和OpenAI的官方博客文章