首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
nlp
订阅
孙靖初
更多收藏集
微信扫码分享
微信
新浪微博
QQ
21篇文章 · 0订阅
美团大脑:知识图谱的建模方法及其应用
作为人工智能时代最重要的知识表示方式之一,知识图谱能够打破不同场景下的数据隔离,为搜索、推荐、问答、解释与决策等应用提供基础支撑。美团大脑围绕吃喝玩乐等多种场景,构建了生活娱乐领域超大规模的知识图谱,为用户和商家建立起全方位的链接。我们美团希望能够通过对应用场景下的用户偏好和商…
fighting41love/funNLP
最近需要从文本中抽取结构化信息,用到了很多github上的包,遂整理了一下,后续会不断更新。 很多包非常有趣,值得收藏,满足大家的收集癖! 如果觉得有用,请分享并star,谢谢! 涉及内容包括:中英文敏感词、语言检测、中外手机/电话归属地/运营商查询、名字推断性别、手机号抽取、…
【NLP】You May Not Need Attention详解
之前蹭上了BERT的热度,粉以个位数每天的速度增长,感谢同学们的厚爱!弄得我上周本来打算写文本分类,写了两笔又放下了,毕竟文本分类有很多SOTA模型,而我的研究还不够深入。。慢慢完善吧,今天看到一篇You may not need attention,写attention起家的…
【NLP】Universal Transformers详解
上一篇transformer写了整整两周。。解读太慢了。。主要是自己也在理解,而且没有时间看源码,非常惭愧,如果哪里说错了希望大佬们可以提醒一下 2. 【NLP】Transformer详解 Universal Transformer的产生是因为Transformer在实践上和理…
命名实体识别NER实战之基于bert(二)
上一篇介绍了基本的ner任务,这篇继续介绍下CRF,最后使用Bert实现Ner任务。 我们先看两张简图。 图一是Bilstm也就是上一篇介绍的模型,图二就是BiLstm+CRF。对比两图不难发现,图二在标签之间也存在着路径连接,这便是CRF层。这里CRF的作用就是对各标签的之间…
【NLP】ELMo vs GPT vs BERT
最近看了一篇论文叫《Linguistic Knowledge and Transferability of Contextual Representations》,NAACL 2019,感觉长了很多姿势,和大家分享一下。 目前词向量的做法有两大类,一类是类似word2vec、g…
自己动手实现word2vec(Skip-gram模型)
学习word2vec的skip-gram实现,除了skip-gram模型还有CBOW模型。 Skip-gram模式是根据中间词,预测前后词,CBOW模型刚好相反,根据前后的词,预测中间词。 首先,我们需要定义一个窗口大小,在窗口里面的词,我们才有中间词和前后词的定义。一般这个窗…