首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
机器学习
订阅
loumzy
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
斯坦福NLP课程 | 第15讲 - NLP文本生成任务
NLP课程第15讲回顾了NLG要点,介绍了解码算法、NLG任务及其神经网络解法,着手解决NLG评估中的棘手问题,并分析了NLG目前的趋势以及未来的可能方向。
transformers库学习笔记(一):安装与测试
我的版本号:python 3.6.9;pytorch 1.2.0;CUDA 10.0。 pip之前确保安装pytorch1.1.0+。 在命令行输入如上命令后,transformers会自动下载依赖模型。输出以下结果,安装成果。 transformers自动下载模型的保存位置:…
微信开源推理加速工具 TurboTransformers,性能超越 PyTorch/TensorFlow 与主流优化引擎
以BERT为代表的Transformer神经网络是近年来NLP领域最重要的模型创新,很多NLP任务,如阅读理解、文章摘要、语义分类、同义改写等,都通过采用BERT获得了显著的效果提升。但是,如下图所示,Transformer带来更高的模型精度的同时也引入了更多的计算量,使用Tr…