首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP
订阅
NLP与人工智能
更多收藏集
微信扫码分享
微信
新浪微博
QQ
17篇文章 · 0订阅
ELECTRA:比 BERT 更好的生成判别模型
ELECTRA 提出了一种新的预训练方法 RTD,训练过程类似 GAN,利用生成器将句子中的单词进行替换,然后判别器判断句子中哪些单词被替换过。ELECTRA 可以达到比 Bert 更好的效果。
机器翻译与自动文摘评价指标 BLEU 和 ROUGE
在机器翻译任务中,BLEU 和 ROUGE 是两个常用的评价指标,BLEU 根据精确率(Precision)衡量翻译的质量,而 ROUGE 根据召回率(Recall)衡量翻译的质量。
XLNet 详解
XLNet 采用了 PLM (Permutation Language Model) ,将句子随机排列,然后用自回归的方法训练,从而获得双向信息并且可以学习 token 之间的依赖关系。
BERT 模型蒸馏 Distillation BERT
Bert 模型体积及计算量都很大,因此有不少针对 BERT 模型压缩的研究,其中模型蒸馏 Distillation 是一种比较好的解决方法,本文介绍两种基于模型蒸馏的 BERT 模型压缩方法。
RoBERTa 和 ALBERT
本文介绍 RoBERTa 和 ALBERT。RoBERTa 在更大的数据集和最优的参数中训练 BERT,提升性能;ALBERT 主要通过共享参数和 Embedding 分解对Bert 进行压缩。
Transformer-XL 语言模型
Transformer 在学习长距离依赖信息的能力仍然有一些限制,Transformer-XL 是一种语言模型,可以提高 Transformer 学习长期依赖信息的能力。
OpenAI GPT 和 GPT2 模型详解
OpenAI GPT 是在 Google BERT 算法之前提出的,与 BERT 最大的区别在于,GPT 采用了传统的语言模型进行训练,即使用上文预测下文,而 BERT 同时使用上下文进行预测。
彻底理解 Google BERT 模型
BERT 模型是 Google 在 2018 年提出的一种 NLP 模型,Bert 基于 Transformer 并在 11 个 NLP 领域的任务上都刷新了以往的记录。
自然语言处理之文本表示(二)
本文主要参考Coursera上 国立高等经济大学的自然语言处理课程 和 吴恩达老师的的机器学习课程。 one-hot 可以说是机器学习领域最常见的数据表示形式了。 还是以 上述内容为例,对于 我爱自然语言处理 这句话 tokenization 化之后得到了三个 one-hot …
四步理解GloVe!(附代码实现)
1. 说说GloVe 正如GloVe论文的标题而言,**GloVe的全称叫Global Vectors for Word Representation,它是一个基于全局词频统计(count-based & overall statistics)的词表征(word represe…