首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
NLP与人工智能
掘友等级
NLP算法工程师
公众号: NLP与人工智能
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
21
文章 21
沸点 0
赞
21
返回
|
搜索文章
最新
热门
彻底理解 Google BERT 模型
BERT 模型是 Google 在 2018 年提出的一种 NLP 模型,Bert 基于 Transformer 并在 11 个 NLP 领域的任务上都刷新了以往的记录。
基于 CNN 的文本分类算法
CNN 是卷积神经网络,通常用于图像领域,本文介绍一篇将CNN用于文本分类的论文《Convolutional Neural Networks for Sentence Classification》
Transformer 模型详解
Transformer 是 Google 的团队在 2017 年提出的一种 Self-Attention 模型,现在比较火热的 Bert 也是基于 Transformer。
Seq2Seq 模型详解
Seq2Seq 是一种循环神经网络的变种,包括编码器 (Encoder) 和解码器 (Decoder) 两部分。Seq2Seq 是自然语言处理中的一种重要模型,可以用于机器翻译、对话系统、自动文摘。
朴素贝叶斯与文本分类
朴素贝叶斯 (Naive Bayesian algorithm) 是一种基于概率统计的分类方法,主要用到了贝叶斯定理和特征条件独立性假设,可以用于文本分类、信用评估等方面。
动态词向量算法 — ELMo
传统的词向量模型,学习得到的词向量是固定不变的,即一个单词只有一种词向量。本文介绍的 ELMo 算法使用了深度双向语言模型 (biLM),可以学到单词在句子中的动态向量。
循环神经网络 RNN、LSTM、GRU
循环神经网络 (Recurrent Neural Networks,RNN)是一种擅于处理序列数据的模型,例如文本、时间序列、股票市场等。
词向量模型 — Glove
常见的词嵌入算法有基于矩阵分解的方法和基于浅层窗口的方法,Glove 结合了这两类方法的优点生成词向量。
词向量模型 — Word2Vec
Word2Vec 是 google 在2013年提出的词向量模型,通过 Word2Vec 可以用数值向量表示单词,且在向量空间中可以很好地衡量两个单词的相似性。 1. 词向量 让计算机理解人类的语言是一件很 Cool 的事情,而首先要做的就是将单词表示成一个数值向量(称为词向量…
个人成就
文章被点赞
75
文章被阅读
44,806
掘力值
894
关注了
2
关注者
40
收藏集
1
关注标签
5
加入于
2019-09-05