首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
NLP
订阅
吴加清
更多收藏集
微信扫码分享
微信
新浪微博
QQ
9篇文章 · 0订阅
NLP预处理技术-特征提取和word2vec
参考笔记:掘金-NLP预处理技术。笔者根据其框架以及自身学习积累扩充了特征提取(Feature Extraction)部分的内容
NLP教程(1) | 词向量、SVD分解与Word2Vec
本文介绍自然语言处理(NLP)的概念及其面临的问题,进而介绍词向量和其构建方法(包括基于共现矩阵降维和Word2Vec)。
自然语言处理教程 | 斯坦福CS224n · 课程带学与全套笔记解读
本系列是ShowMeAI组织的斯坦福CS224n《自然语言处理与深度学习》的学习笔记,包含一整套【NLP深度教程】 和【20章课件注释】,是非常TOP的完整学习资料~
【手撕算法】【NLP】【Embedding】word2vec原理,代码实现
本文主要从原理、代码实现,理论结合实战,两个角度来剖析word2vec算法。 理论部分主要是关于 什么是 word2vec,其两种常见的模型。实战部分主要是通过Gensim库中的word2vec
【NLP】Universal Transformers详解
上一篇transformer写了整整两周。。解读太慢了。。主要是自己也在理解,而且没有时间看源码,非常惭愧,如果哪里说错了希望大佬们可以提醒一下 2. 【NLP】Transformer详解 Universal Transformer的产生是因为Transformer在实践上和理…
【NLP】Google BERT详解
11号论文放上去,12号各个公众号推送,13号的我终于在最晚时间完成了前沿追踪,惊觉上一篇论文竟然是一个月前。。。立个flag以后保持一周一更的频率。下周开始终于要在工作上接触NLP了,之后希望会带来更多自己的东西而不是论文解析。 2. 【NLP】Transformer详解 B…
【NLP】Transformer详解
自Attention机制提出后,加入attention的Seq2seq模型在各个任务上都有了提升,所以现在的seq2seq模型指的都是结合rnn和attention的模型,具体原理可以参考传送门的文章。之后google又提出了解决sequence to sequence问题的t…
【NLP】Attention原理和源码解析
对attention一直停留在浅层的理解,看了几篇介绍思想及原理的文章,也没实践过,今天立个Flag,一天深入原理和源码!如果你也是处于attention model level one的状态,那不妨好好看一下啦。 P.S. 拒绝长篇大论,适合有基础的同学快速深入attenti…
【NLP】You May Not Need Attention详解
之前蹭上了BERT的热度,粉以个位数每天的速度增长,感谢同学们的厚爱!弄得我上周本来打算写文本分类,写了两笔又放下了,毕竟文本分类有很多SOTA模型,而我的研究还不够深入。。慢慢完善吧,今天看到一篇You may not need attention,写attention起家的…