首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
真忒修斯之船
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
93
文章 93
沸点 0
赞
93
返回
|
搜索文章
最新
热门
大模型训练框架(一)综述
尽管 PyTorch 是一个非常流行的深度学习框架,它在动态计算图、易用性、灵活性和强大的社区支持方面具有许多优点 ,但在大模型训练方面,我们需要更专业的框架来满足特定的需求,最主要的原因是:`分布式
LoRA不是唯一选择,Adapters微调大模型的奥秘(四)AdaLoRA
AdaLoRA是一种对LoRA技术的改进,它的核心思想是根据模型中不同权重矩阵的重要性来动态分配参数预算。换句话说,它让模型自己决定哪些部分在微调时更重要,从而在这些部分使用更多的参数进行更新,而对于
LoRA不是唯一选择,Adapters微调大模型的奥秘(三)QLoRA
QLoRA是一种针对大型预训练语言模型(LLM)的高效微调技术。它结合了量化和低秩适配(LoRA)两种技术,旨在减少模型微调过程中的内存占用和计算成本,同时尽量保持模型性能。
Adapters微调大模型的奥秘(二)LoRA
LoRA是最流行的 PEFT 方法之一,如果你刚开始使用 PEFT,它是一个很好的起点。它最初是为大型语言模型开发的,但由于其效率和有效性,它是一种非常流行的扩散模型训练方法。
LoRA不是唯一选择,Adapters微调大模型的奥秘(一)综述
大家应该都知道LoRA了,这是非常流行的PEFT方法,属于Adapters的一种。Adapters是一种非常好的微调大模型的方法,可以在不改变原模型参数的情况下,增加新的任务。
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(五)Multitask prompt tuning
2023年5月,时隔2年后,soft-prompts又有了新方法,我第一次看到这个方法的时候,心里闪过一个词:一顿操作猛如虎
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(四)P-Tuning
P—Tuning是为了解决NLU任务而设计的Soft prompts方法,P-tuning添加了一个可训练的嵌入张量,这个张量可以被优化以找到更好的提示
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(三)Prefix-Tuning
同样在2021年(和Prompt Tuning同一年),Prefix-Tuning被提出,它通过在模型输入的前缀位置添加可学习的提示向量来实现。
微调不要只知道LoRA,微调大模型之Soft Prompts(二)Prompt Tuning
Prompt Tuning是一种高效的微调方法,它通过在模型输入中添加特定的文本提示(prompt)来适配下游任务,而不需要对预训练模型的参数进行全面的更新。
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(一)综述
Prompting通过包含一段描述任务或展示任务示例的文本提示,为特定的下游任务调整一个冻结的预训练模型。有了Prompting,你可以避免为每个下游任务完全训练一个单独的模型。
下一页
个人成就
文章被点赞
129
文章被阅读
34,668
掘力值
1,809
关注了
0
关注者
39
收藏集
0
关注标签
4
加入于
2024-04-23