首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
Himon
掘友等级
算法工程师
大家好,我是一只梦想环游世界的程序猿。 就像相信大米能够煮成米饭,我也相信数据和算法的力量。
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
43
文章 42
沸点 1
赞
43
返回
|
搜索文章
最新
热门
LSTM+Attention实现seq2seq深度解析
1. LSTM理论介绍 几个关键点: 每一层实际上只有一个LSTM cell在运行,不同时刻共享权重的。所谓时刻就是按照输入序列,每个时刻输入一个token的向量来运算。 定义网络与batch_siz
处理标注错误的样本(learning with noisy labels)
机器学习任务最重要的是高质量的数据,而“高质量”在现实生产中往往很难实现,数据中或多或少都会有噪音。那么,除了人工清理噪音,还有一种思路,是通过算法的层面来进行“带噪学习”。本文就介绍相关的算法。
Learning To Rank算法和评价指标
排序学习是推荐、搜索、广告的核心方法,而LTR就是专门做排序任务的一个有监督的机器学习算法。所以,LTR仍然是传统的机器学习处理范式,构造特征,学习目标,训练模型,预测。LTR一般分为三种类型,
论文笔记 --《Get To The Point: Summarization with Pointer-Generator Networks》
来源: ACL 2017 关键词:NLG,Pointer-Generator Networks 1.背景及问题描述 seq2seq模型的出现给生成式摘要(abstractive text summar
论文笔记 --《Bottom-Up Abstractive Summarization》
来源: EMNLP 2018 关键词:NLG,Bottom-Up, Text-Summarization 1.背景及问题描述(Abstract) 文本摘要是需要从长文本上生成内容相关的文本摘要。 基于
文本相似度算法(无监督算法)
本文主要介绍文本相似度的非监督算法,相比较有监督的复杂模型,无监督模型和算法在现实场景下经常使用,是必须要掌握的基础技能。
Rasa学习笔记2--Rasa Core
1. 概念介绍 Learning from real conversations is more important than designing hypothetical ones,我觉得这是非常重要的事情,我们在构建自己的bot的时候 ,我们往往想绞尽脑汁来排列组合出各种意…
改变Jupyter Notebook的主题
Jupyter Notebook 更换主题(背景、字体),方法介绍. 我的设定和样式展示,持续更新和优化
论文笔记 --《THE CURIOUS CASE OF NEURAL TEXT DeGENERATION》
这篇论文主要讨论使用语言模型的文本生成编码策略(decoding strategy),充分对比了*概率最大化编码*和*随机编码*两种编码策略,并分析了之前方法的问题。同时提出核心采样...
训练语言模型,零概率和平滑问题
训练语言模型,零概率和平滑问题 当我们训练语言模型时候,就算使用一个相当大量的语料,如果直接用比值计算概率,大部分条件概率依然是零,这种模型称之为“不平滑”。在实际应用中,这种现象不可避免。 古德提出
下一页
个人成就
文章被点赞
121
文章被阅读
44,300
掘力值
1,175
关注了
6
关注者
24
收藏集
0
关注标签
5
加入于
2019-09-19