首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
自然语言处理
Ann_
创建于2022-09-26
订阅专栏
基于预训练方法
等 3 人订阅
共6篇文章
创建于2022-09-26
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
RoBERTa:优化训练流程,让 BERT 更强
RoBERTa RoBERTa 是 Facebook AI 提出的 BERT 改进版本,全名是 Robustly Optimized BERT Pretraining Approach。它并没有改变
ALBERT:参数共享让 BERT 更轻更强
之前写过BERT,不了解BERT的同学可以看这个:【翻译】图解BERT、ELMo等 最近在面试,陆陆续续也收到了一些offer,但都不是很满意。还在继续找,所以闲着没事也会回顾一些基础知识。今天就说一
常见文本生成评价指标——机器学习评估指标
接着常见文本生成评价指标——非训练评价指标写的。 还是看名字,这类指标是基于机器学习模型评估机器生成的文本之间或机器生成的文本自然语言文本之间的相似性。 所谓的基于机器学习模型是一些利用训练好的模型来
常见文本生成评价指标——非训练评价指标
对于一个生成模型来说,最重要的一定是生成文本的质量。文本质量主要是四个方面: 流畅度: 输出内容是否流畅 真实性: 生成的文本多大程度上还原语境中描述的事情 语法: 生成的文本是否有语法问题 多样性:
一文拿捏点互信息(PMI)解决词分布式表示稀疏性问题
我正在参加「掘金·启航计划」 英国语言学家John Rupert Firth 在1957 年《A synopsis of linguistic theory》中提到
SVD解决词分布式表示稀疏性
我正在参加「掘金·启航计划」 这篇文章是接着一文拿捏点互信息(PMI)解决词向量稀疏性问题写的。解决词向量稀疏性问题另一个方法是使用奇异值分解