首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
AlexChiu
掘友等级
算法工程师
NLP
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
3
文章 3
沸点 0
赞
3
返回
|
搜索文章
最新
热门
apex的实践
apex是NVIDIA开源的用于在PyTorch框架下实现混合精度训练的模块,能够方便地进行FP16训练。 我在编译安装apex的过程中遇到了一些问题,通过查issues来解决的。 可以试试找到 path_to_anaconda3/lib/libstdc++.so.6, 然后连…
Dual Co-Matching Network for Multi-choice Reading Comprehension笔记
目前流行的SQuAD数据集是比较简单的MRC任务,因为已经给定了阅读段落,而且问题的答案已经被完全的包含在了阅读段落里。 本文针对了一个更难的数据集RACE。RACE数据集的问题答案不一定包含在给定的阅读材料中,这需要模型更加深度地了解阅读材料。 基于BERT来设计的Model…
BERT的一些实践
BERT的paper中pre-train的lr为1e-4,如果进行额外pre-training 应该设小一点的lr,如2e-5。我自己的实验也表明了,lr=1e-4会得到比较差的结果。但是 sequences 越长带来的显存压力越大,而且是和sequence length的平方…
Learning to Ask: Neural Question Generation for Reading Comprehension 笔记
感觉和 “Neural Question Generation from Text: A Preliminary Study” 这篇很像的工作,都是基于 Seq2Seq 的思想来做 Question Generation。 两者的区别在与 Encode 和 Decode 的设计…
PyTorch 的多卡并行训练
并行的方式分为了数据并行。 DataParallel 会将module复制到多个卡上,也会将每个batch均分到每张卡上,每张卡独立forward自己那份data,而在backward时,每个卡上的梯度会汇总到原始的module上,以此来实现并行。 但是,这样的方式会造成原始m…
Question Difficulty Prediction for READING Problems in Standard Tests 笔记
这部分是通过CNN来encode文本中的句子。CNN能从local到global的捕捉文本中的语义信息。文中采用的 wide-CNN 和 p-max pooling 结合的方式。 不是很清楚为啥采用这种CNN结构,而不是如同textCNN一样的进行2-D卷积。 将连续k个wor…
个人成就
文章被点赞
3
文章被阅读
14,441
掘力值
200
关注了
0
关注者
2
收藏集
0
关注标签
4
加入于
2019-03-24