稀土掘金 稀土掘金
    • 首页
    • 沸点
    • 课程
    • 数据标注 HOT
    • AI Coding
    • 更多
      • 直播
      • 活动
      • APP
      • 插件
    • 直播
    • 活动
    • APP
    • 插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
transformer
订阅
avatar
用户9769332575691
更多收藏集

微信扫码分享

微信
新浪微博
QQ

4篇文章 · 0订阅
  • Transformer模型结构解析与Python代码实现
    0. 前言 2017年,谷歌研究人员在《Attention Is All You Need》这篇论文中提出了Transformer模型,该模型最初是被用于机器翻译任务中。由于其良好的可并行性和强大的特
    • 一天到晚潜水的鱼
    • 1年前
    • 1.3k
    • 5
    • 1
    深度学习
    Transformer模型结构解析与Python代码实现
  • 程序猿如何成为技术专家
    书中有云 田志刚老师《卓越密码:如何成为专家》书中介绍,成为技术专家,大致分为5个时期,如下 探索期,对领域和行业知识的理论学习阶段 新手期,掌握了理论后的实践阶段,大多需要人带 胜任期,自己独立完成
    • i校长
    • 3年前
    • 4.3k
    • 58
    • 14
    程序员
  • 图解Transformer系列一:Positional Encoding(位置编码)
    作为最近热门的生成式大模型的基石,Transformer自2017年诞生以来,就成为nlp研究者必须掌握的基本模型。本系列将通过图解方式,全方面展示Transformer的细节。
    • 猛猿
    • 2年前
    • 4.4k
    • 13
    • 1
    算法 人工智能
    图解Transformer系列一:Positional Encoding(位置编码)
  • 从零详细解读什么是Transformer模型
    Transformer由论文《Attention is All You Need》提出,在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。
    • 安可可可可
    • 2年前
    • 3.1k
    • 9
    • 8
    算法
    从零详细解读什么是Transformer模型