首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
论文阅读
机器不爱学习
创建于2022-11-27
订阅专栏
论文阅读
暂无订阅
共1篇文章
创建于2022-11-27
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
PERT-不再使用MLM任务的语言模型
本文提出了PERT,它主要用于NLU任务,且是一个基于全排列的自编码语言模型。主要思路是对输入文本的一部分进行全排列,训练目标是预测出原始字符的位置,同时也使用了WWM(全词掩码)与N-gram掩码去