首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
transformer
订阅
wen酱110586
更多收藏集
微信扫码分享
微信
新浪微博
QQ
126篇文章 · 0订阅
Transformer图解以及相关的概念解析
前言 transformer是目前NLP甚至是整个深度学习领域不能不提到的框架,同时大部分LLM也是使用其进行训练生成模型,所以transformer几乎是目前每一个机器人开发者或者人工智能开发者不能
Transformer图解以及相关的概念解析
前言 transformer是目前NLP甚至是整个深度学习领域不能不提到的框架,同时大部分LLM也是使用其进行训练生成模型,所以transformer几乎是目前每一个机器人开发者或者人工智能开发者不能
Transformer图解以及相关的概念
前言 transformer是目前NLP甚至是整个深度学习领域不能不提到的框架,同时大部分LLM也是使用其进行训练生成模型,所以transformer几乎是目前每一个机器人开发者或者人工智能开发者不能
Transformer图解以及相关的概念
前言 transformer是目前NLP甚至是整个深度学习领域不能不提到的框架,同时大部分LLM也是使用其进行训练生成模型,所以transformer几乎是目前每一个机器人开发者或者人工智能开发者不能
解剖注意力:从零构建Transformer的终极指南
解剖注意力:从零构建Transformer的终极指南 相信不用我过多介绍,你已经对 Transformer 如雷贯耳,它是当今大语言模型的核心基石,可以说没有Transformer就没有今天的人工智能
Huggingface Transformers库学习笔记(三):使用Transformers(Using Transformers Part 2)
「这是我参与2022首次更文挑战的第20天,活动详情查看:2022首次更文挑战」。 导语 本文为我之前在CSDN平台上的一篇博客记录。原链接为:Huggingface Transformers库学习笔
Huggingface Transformers库学习笔记(二):使用Transformers(上)(Using Transformers Part 1)
「这是我参与2022首次更文挑战的第19天,活动详情查看:2022首次更文挑战」。 导语 本文为我之前在CSDN平台上的一篇博客记录。原链接为:Huggingface Transformers库学习笔
Huggingface Transformers库学习笔记(一):入门(Get started)
「这是我参与2022首次更文挑战的第18天,活动详情查看:2022首次更文挑战」。 导语 本文为我之前在CSDN平台上的一篇博客记录。原链接为:Huggingface Transformers库学习笔
transformers库中使用DataParallel保存模型参数时遇到的问题记录
携手创作,共同成长!这是我参与「掘金日新计划 · 8 月更文挑战」的第20天,点击查看活动详情 pytorch中使用DataParallel保存模型参数时遇到的问题记录 之前使用Transformer
Transformers 加速的一些常用技巧
Transformers 是一个强大的架构,但同时也容易导致在训练过程中出现OOM或者达到GPU的运行时限,本文介绍了一些Transformers常用的加速策略。