稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
大模型原理
订阅
关于大语言模型的原理,如Encoding, Decoding和Tranformer。
avatar
稀有猿诉 创作等级LV.5
更多收藏集

微信扫码分享

微信
新浪微博
QQ

3篇文章 · 0订阅
  • 计算机是如何理解文字的?
    之前写过一篇介绍词向量的文章:5分钟搞懂什么是词嵌入,里面说到:通过把文本转换为词向量,就可以十分方便的计算两者之间的关系,看看哪两个单词更为相近。 比如有四个单词:“猫”、“狗”、“鱼”、“跑”,通
    • 董董灿是个攻城狮
    • 1年前
    • 532
    • 2
    • 1
    算法
  • 图解 Transformer [译]
    原文:The Random Transformer 作者:Jay Alammar 讨论环节: 在 Hacker News 上获得 65 分,共有 4 条评论 在 Reddit 的 r/MachineL
    • 宝玉的工程技术分享
    • 1年前
    • 2.4k
    • 26
    • 12
    人工智能 LLM
  • 深入理解Transformer技术原理 | 得物技术
    谷歌在2017年发布Transformer架构的论文时,论文的标题是:Attention Is All You Need。重点说明了这个架构是基于注意力机制的。
    • 得物技术
    • 1年前
    • 6.8k
    • 56
    • 2
    AIGC 前端 架构
    深入理解Transformer技术原理 | 得物技术