首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
真忒修斯之船
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
93
文章 93
沸点 0
赞
93
返回
|
搜索文章
真忒修斯之船
2月前
关注
大模型推理框架(四)TensorRT-LLM
TensorRT-LLM是 NVIDIA 提供的一个用于LLMs在 NVIDIA GPU 上的推理性能的开源库。它通过一系列先进的优化技术,如量化、内核融合、动态批处理和多...
2
评论
分享
真忒修斯之船
2月前
关注
大模型推理框架(三)Text generation inference (TGI)
TGI是一个由Hugging Face开发的用于部署和提供LLMs的框架。它是一个生产级别的工具包,专门设计用于在本地机器上以服务的形式运行大型语言模型...
1
评论
分享
真忒修斯之船
3月前
关注
在坚冰还盖着北海的时候,我看到了怒放的梅花
我自己在北平的生活是十分困苦的。我住在一个叫三眼井的地方,和另外七个人合住一个小房间,我们全体挤在炕上,连呼吸的地方都没有。每逢我翻身都得预先警告身旁的人。不过在公园和故宫...
1
评论
分享
真忒修斯之船
3月前
关注
大模型推理框架(二)vLLM
vLLM是一种基于PagedAttention的推理框架,通过分页处理注意力计算,实现了高效、快速和廉价的LLM服务。在推理过程中,将注意力计算分为多个页面,每个页面只计算...
2
评论
分享
真忒修斯之船
3月前
关注
大模型推理框架(一)综述
除了分布式推理和支持量化之外,大模型推理框架最大的用处是加速推理。加速推理的主要目的是提高推理效率,减少计算和内存需求,满足实时性要求,降低部署成本...
1
评论
分享
真忒修斯之船
3月前
关注
大模型训练框架(五)Accelerate
Accelerate是一个用于简化和加速深度学习模型训练的库,它支持在多种硬件配置上进行分布式训练,包括 CPU、GPU、TPU 等。...
1
评论
分享
真忒修斯之船
3月前
关注
大模型训练框架(四)Megatron-LM
Megatron-LM 通过模型并行的方式,允许训练具有数千亿参数的模型。该框架综合应用了数据并行、张量并行和流水线并行来训练像 GPT这样的大型模型...
1
评论
分享
真忒修斯之船
3月前
关注
大模型训练框架(三)DeepSpeed
DeepSpeed是由微软研究团队开发的一个深度学习优化库,旨在提供高效、可扩展的大规模模型训练能力。它通过采用先进的并行化策略、内存优化技术和混合精度训练来显著提高训练效...
1
评论
分享
真忒修斯之船
3月前
关注
大模型训练框架(二)FSDP
FSDP 可以看作是微软 Deepspeed 框架中提出的三种级别的 ZERO 算法中的 `ZERO-3` 的实现。...
1
评论
分享
真忒修斯之船
3月前
关注
AI大模型必备数学知识之线性代数(一)矩阵,奇异性和行列式
矩阵只是matrix的一个翻译,matrix一词来自拉丁语,表示 “子宫”之意,子宫是孩子诞生之处,故也引申为各种事物的源出之处,即“发源地”。这个词后来被用在各种学科中。...
1
评论
分享
真忒修斯之船
3月前
关注
大模型训练框架(一)综述
尽管 PyTorch 是一个非常流行的深度学习框架,它在动态计算图、易用性、灵活性和强大的社区支持方面具有许多优点 ,但在大模型训练方面,我们需要更专业的框架来满足特定的需...
0
评论
分享
真忒修斯之船
3月前
关注
LoRA不是唯一选择,Adapters微调大模型的奥秘(四)AdaLoRA
AdaLoRA是一种对LoRA技术的改进,它的核心思想是根据模型中不同权重矩阵的重要性来动态分配参数预算。换句话说,它让模型自己决定哪些部分在微调时更重要,从而在这些部分使...
1
评论
分享
真忒修斯之船
3月前
关注
LoRA不是唯一选择,Adapters微调大模型的奥秘(三)QLoRA
QLoRA是一种针对大型预训练语言模型(LLM)的高效微调技术。它结合了量化和低秩适配(LoRA)两种技术,旨在减少模型微调过程中的内存占用和计算成本,同时尽量保持模型性能...
1
评论
分享
真忒修斯之船
3月前
关注
Adapters微调大模型的奥秘(二)LoRA
LoRA是最流行的 PEFT 方法之一,如果你刚开始使用 PEFT,它是一个很好的起点。它最初是为大型语言模型开发的,但由于其效率和有效性,它是一种非常流行的扩散模型训练方...
1
评论
分享
真忒修斯之船
3月前
关注
LoRA不是唯一选择,Adapters微调大模型的奥秘(一)综述
大家应该都知道LoRA了,这是非常流行的PEFT方法,属于Adapters的一种。Adapters是一种非常好的微调大模型的方法,可以在不改变原模型参数的情况下,增加新的任...
1
评论
分享
真忒修斯之船
3月前
关注
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(五)Multitask prompt tuning
2023年5月,时隔2年后,soft-prompts又有了新方法,我第一次看到这个方法的时候,心里闪过一个词:一顿操作猛如虎...
1
评论
分享
真忒修斯之船
3月前
关注
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(四)P-Tuning
P—Tuning是为了解决NLU任务而设计的Soft prompts方法,P-tuning添加了一个可训练的嵌入张量,这个张量可以被优化以找到更好的提示...
0
评论
分享
真忒修斯之船
3月前
关注
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(三)Prefix-Tuning
同样在2021年(和Prompt Tuning同一年),Prefix-Tuning被提出,它通过在模型输入的前缀位置添加可学习的提示向量来实现。...
1
评论
分享
真忒修斯之船
4月前
关注
微调不要只知道LoRA,微调大模型之Soft Prompts(二)Prompt Tuning
Prompt Tuning是一种高效的微调方法,它通过在模型输入中添加特定的文本提示(prompt)来适配下游任务,而不需要对预训练模型的参数进行全面的更新。...
1
评论
分享
真忒修斯之船
4月前
关注
LoRA不是唯一选择,Soft Prompts微调大模型的奥秘(一)综述
Prompting通过包含一段描述任务或展示任务示例的文本提示,为特定的下游任务调整一个冻结的预训练模型。有了Prompting,你可以避免为每个下游任务完全训练一个单独的...
1
评论
分享
下一页
个人成就
文章被点赞
114
文章被阅读
18,961
掘力值
1,725
关注了
0
关注者
28
收藏集
0
关注标签
4
加入于
2024-04-23