稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
transformer
订阅
avatar
用户1655237814608
更多收藏集

微信扫码分享

微信
新浪微博
QQ

4篇文章 · 0订阅
  • BERT模型入门系列(二): Attention模型实现
    概述:在上一篇文章《BERT模型入门系列:Attention机制入门》里面,用了机器翻译的例子把Encoder-Decoder模型、以及Attention模型的基本原理进行了讲解,这篇配合上一篇文章的
    • 小潘GoWalker
    • 4年前
    • 2.1k
    • 2
    • 评论
    神经网络
  • BERT模型入门系列: Attention机制入门
    Attention模型在NLP领域用的风生水起,但是一直对attention模型的基本原理不理解,看了很多别人的文章,似乎是看懂了,但实际上在真正理解起来的时候,就是没办法说出个所以然来,所以用自己的
    • 小潘GoWalker
    • 4年前
    • 2.1k
    • 7
    • 2
    人工智能
  • BERT模型入门系列(四):Transformer模型详解
    Transformer模型实在论文《AttentionIsAllYouNeed》里面提出来的,用来生成文本的上下文编码,传统的上下问编码大多数是由RNN来完成的,不过,RNN存在两个缺点:一、计算是顺
    • 小潘GoWalker
    • 4年前
    • 2.9k
    • 4
    • 3
    人工智能
  • BERT模型入门系列(三):Self-Attention详解
    在2018年BERT模型横空出世后,各种各样的BERT衍生模型ALBERT,SpanBERT,DistilBERT,SesameBERT,SemBERT,SciBERT,BioBERT,MobileB
    • 小潘GoWalker
    • 4年前
    • 5.7k
    • 3
    • 评论
    神经网络 人工智能