首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型原理
订阅
关于大语言模型的原理,如Encoding, Decoding和Tranformer。
稀有猿诉
更多收藏集
微信扫码分享
微信
新浪微博
QQ
3篇文章 · 0订阅
计算机是如何理解文字的?
之前写过一篇介绍词向量的文章:5分钟搞懂什么是词嵌入,里面说到:通过把文本转换为词向量,就可以十分方便的计算两者之间的关系,看看哪两个单词更为相近。 比如有四个单词:“猫”、“狗”、“鱼”、“跑”,通
图解 Transformer [译]
原文:The Random Transformer 作者:Jay Alammar 讨论环节: 在 Hacker News 上获得 65 分,共有 4 条评论 在 Reddit 的 r/MachineL
深入理解Transformer技术原理 | 得物技术
谷歌在2017年发布Transformer架构的论文时,论文的标题是:Attention Is All You Need。重点说明了这个架构是基于注意力机制的。