首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
土圡玉玊
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
2
文章 2
沸点 0
赞
2
返回
|
搜索文章
赞
文章( 2 )
沸点( 0 )
NVIDIA提出Hymba网络,Mamba+Attenation解决transformer的长序列低效难题
本文详细讲解了NVIDIA 本月提出的 Hymba 模型架构。该架构结合了SSM和transformer,解决了传统架构处理长序列成本过高的问题
Tokenformer: 下一代Transformer架构
本文提出了Tokenformer架构,其优势在于增量学习能力:在增加模型尺寸时,无需从头开始重新训练模型,大大降低了成本。 本文由北大和谷歌进行合作,一作是北大在读博士,代码已开源
关注了
2
关注者
0
收藏集
0
关注标签
0
加入于
2025-01-25