首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
阿黎一只喵
掘友等级
算法工程师
调参侠|NLP打杂仔
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 4
沸点 0
赞
4
返回
|
搜索文章
最新
热门
Attention is all you need:想学Bert?从“头”开始
这应该算是一篇复习的文章,在Transformer几乎要统治各个领域的时候,回想Transformer竟然有一丝模糊。但是Transformer在深度学习领域的地位应该是毋庸置疑的,无论为NLP领域的Bert还是CV领域的Visual Transformer,我们都可以看到它的…
Latice-Flat: 引入词汇让中文NER变得更强
相比于英文NER中文NER一直存在一个难点就是中文的字不是单独的词语。因此中文NER有两种方式:基于字的NER和基于词的NER,基于词的NER会因为分词引入错误的信息并且会出现OOV的情况,而基于词的NER则会错失了中文词语之间的信息。很多研究尝试将词语的信息加入基于字的NER…
Fine-tune BERT for Extractive Summarization: BERT和文本摘要
文本摘要主要分为抽取式文本摘要和生成式文本摘要,抽取式文本摘要因为发展的时间比较长,因此在工业界应用的范围比较广。比较常用的抽取式文本摘要的算法就是Textrank,但是呢,本文要介绍一篇和BERT相关的抽取式摘要的模型。当然作为对比,本文也介绍了另一篇文章,结合了Textra…
What does BERT learn: 探究BERT为什么这么强
自从BERT推出之后,在文本理解领域取得了非常好的效果。之后很多工作都是关注模型本身和模型输出,为什么预训练模型可以取得这么好的效果,我们对此的了解并不多。了解这些不仅可以让我们更好的理解模型,而且可以让我们发现模型的缺陷,同时帮助我们去设计更好的模型。本文将为大家介绍两篇文章…
个人成就
文章被点赞
15
文章被阅读
7,988
掘力值
190
关注了
0
关注者
6
收藏集
0
关注标签
5
加入于
2020-12-15