首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
不会弹吉他的布鲁克
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
大模型加速-核心网络算子-Flash Attention V1
FlashAttention V1目的不是节约FLOPs,而是减少对HBM的访问。重点是FlashAttention在训练和预测过程中的结果和标准Attention一样,对用户是无感的,而其他加速方法
个人成就
文章被点赞
6
文章被阅读
13,914
掘力值
482
关注了
2
关注者
5
收藏集
0
关注标签
9
加入于
2024-08-27