首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
transformer
订阅
用户8659294703886
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
信我!这里有普通人也能理解的 Transformer
你一定听说过当下风靡全球的 ChatGPT,但你知道它是如何利用 Transformer 模型的神奇力量吗?这里将用最通俗易懂的方式,揭秘 Transformer 的来龙去脉,结构原理。
从头理解与编码LLM的自注意力机制
本文将介绍Transformer架构和GPT-4、LLaMA等语言大模型中使用的自注意力机制。自注意力和相关机制是LLM的核心组件,使用LLM时,了解这些机制十分有必要。
图解Transformer系列二:Self-Attention(自注意力机制)
作为最近热门的生成式大模型的基石,Transformer自2017年诞生以来,就成为nlp研究者必须掌握的基本模型。本系列将通过图解方式,全方面展示Transformer的细节。
Attention isn’t all you need!Mamba混合大模型开源:三倍Transformer吞吐量
自 2017 年开创性研究论文《Attention is All You Need》问世以来,transformer 架构就一直主导着生成式人工智能领域。
从零详细解读什么是Transformer模型
Transformer由论文《Attention is All You Need》提出,在本文中,我们将试图把模型简化一点,并逐一介绍里面的核心概念,希望让普通读者也能轻易理解。