首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
30岁转码
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
1
文章 1
沸点 0
赞
1
返回
|
搜索文章
30岁转码
赞了这篇文章
zidea
AI工程师
·
3年前
关注
做一件有趣的事,尝试学着自己动手写一个深度学习框架(1)—深入反向传播
一直一来想是实现一个深度学习框架,对于我来说这是一件很有趣的事,当然更是一件具有挑战的事。由于自己储备关于这方面知识远远不够,所以最近大部分时间都用来收集资料。希望分享有助...
8
评论
分享
30岁转码
关注了
偷熊计划
30岁转码
3年前
关注
Transformers源码分析-GPT2(Pytorch)
GPT2通过堆叠Transfomer的Deocder广泛的应用于各类生成式任务。并且在Tranformers-GPT2的源码中,提供了很多Trick来压缩计算时间和计算开销...
0
评论
分享
30岁转码
3年前
举报
#新人报道#
整理一下两年来学的东西,一来增加一下自己写作能力,二来重新学习一边,为面试做准备
分享
1
点赞
30岁转码
3年前
关注
Transformers源码分析-BERT(Pytorch)
Transofrmers版本4.21 这里只考虑预训练的代码,毕竟预训练才是最重要的,一通百通。即 BertForPretraining这个类 获取类调用的关系图UML图 ...
1
评论
分享
30岁转码
3年前
关注
ELMo模型理解
ELMO充分利用了Bi-LSTM的各层的所有输出以及Embdding层来解决了Word2vec存在的不支持一词多义的缺陷。...
0
评论
分享
30岁转码
3年前
关注
Transofmer中的N个为什么
Transformer系列模型的面试常见问题和深入理解:为什么要除以d_k,残差和LaryNorm的先后对模型有什么影响?为什么要共享Embedding参数?可不可以不共享...
0
评论
分享
30岁转码
3年前
关注
Transformer的自己实现
面试准备: Transformer 作为一种序列转换模型(sequence transduction)完全抛弃了RNN\CNN等传统的方案。...
0
评论
分享
个人成就
文章被点赞
1
文章被阅读
2,928
掘力值
74
关注了
1
关注者
2
收藏集
0
关注标签
8
加入于
2022-07-16