首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
NLP
NicesLife
创建于2021-10-08
订阅专栏
NLP
等 3 人订阅
共27篇文章
创建于2021-10-08
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
Attention 注意力机制
注意力机制的核心思想是:从大量信息中筛选出少量重要信息,使聚焦到这些重要信息上,同时忽略不重要的信息...
语言模型和预训练
统计语言模型:用统计的方法(条件概率)解决语言模型的问题;神经网络语言模型:用神经网络模型解决语言模型的问题...
强化学习 Reinforcement Learning
强化学习:在Agent与环境交互当中,为了达成一个目标而进行的学习过程。强化学习所要学习的东西,实际上就是一个好的价值函数,而一个好的价值函数决定一个好的策略
2017 将联合提取任务转换为标注问题 Joint Extraction of Entities and Relations Based on a Novel
这篇文章提出了一种新的标注方案用于标注关系和实体,从而将联合抽取问题转换为序列标注问题, 它通过在机器学习模型中添加LSTM层,解决了
预训练模型ERNIE
ERNIE全称为Enhanced language Representation with Informative Entities,为了让模型学习到海量文本中蕴含的现在知识,百度提出了ERNIE模型
自然语言处理中的预训练任务2
DAE在文献《Extracting and composing robust features with denoising》 最早被提出,它接收部分被破环是输入,然后训练重构出原始没有被破坏的输入。
自然语言处理中的预训练任务1
概率任务是自然语言处理中最常见的无监督任务。LM是一个经典的概率密度估计问题,在实践中它通常特指自回归语言模型或者是单向语言模型。
Transformer模型的改进
自然语言处理领域的专家和学者一直在寻找最适合NLP的模型,可以说,Transformer可能是目前位置最适合NLP的模型。
Bert
上一篇文章我们介绍了Transformer,这篇文章我们一起看一下他的衍生网络之一Bert。 Bert 整体框架 Bert采
Transformer
Transformer利用自注意力机制实现了快速并行,改进了RNN及其衍生网络训练慢的特点,同时可以训练非常深的网络,从而提高模型的准确率。
Python爬取豆瓣Top250数据
Python爬取豆瓣Top250数据,爬取数据的网站:https://movie.douban.com/top250?start=0...
知识图谱智能学习方法
知识图谱的智能学习 地质数据知识图的构建包括知识提取和知识管理两个逻辑组成部分。前者主要通过无监督处理来学习相应的地质知识...
KNN(最近邻规则分类)
KNN算法比较适用于样本容量比较大的类域的自动分类。 KNN算法的核心思想是,如果一个样本在特征空间中的K个...
单层感知器
单层感知器是最简单的神经网络,它的作用呢就是可以高效快速地解决线性可分的问题。单层感知器的结构...
分类评估指标
这是我参与11月更文挑战的第1天,活动详情查看:2021最后一次更文挑战 一、正确率与召回率 正确率与召回率(Precision & Recall)是广泛应用于信息检索和统计学分类领域..
激活函数(Activation functions)
小知识,大挑战!本文正在参与“程序员必备小知识”创作活动。 使用一个神经网络时,需要决定使用哪种激活函数用隐藏层上,哪种用在输出节点上...
神经网络的监督学习
小知识,大挑战!本文正在参与“程序员必备小知识”创作活动。 关于神经网络也有很多的种类,考虑到它们的使用效果,有些使用起来恰到好处,但事实表明...
特征缩放与交叉验证
小知识,大挑战!本文正在参与“程序员必备小知识”创作活动。 一、特征缩放 如果某个特征的取值范围比其他特征大很多,那么数值计算(比如说计算欧式距离)就受该特征的主要支配...
Keras-线性回归
小知识,大挑战!本文正在参与“程序员必备小知识”创作活动。 神经网络可以用来模拟回归问题 (regression),实质上是单输入单输出神经网络模型...
Keras之绘制网络结构
小知识,大挑战!本文正在参与“程序员必备小知识”创作活动。 Keras是由纯python编写的基于theano/tensorflow的深度学习框架...
下一页