获得徽章 0
安利下自己的项目 求star呀 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型 (github链接:github.com
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可
现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。

本仓库中还有:
- 介绍大模型训练中最常用的两个技术:混合精度训练和梯度检查点,给出示例代码并以EVA ViT-G(0.99B参数)作为例子进行性能测试
- 基于Lavis实现一个干净、灵活的Trainer,在任务、模型、数据集、scheduler上都具备可拓展性,同时相比huggingface Trainer,更加干净、去冗余!

github链接:github.com
展开
1
安利下自己的项目 求star呀
这次介绍大模型训练中最常用的两个技术:混合精度训练和梯度检查点,给出示例代码并以EVA ViT-G(0.99B参数)作为例子进行性能测试

该仓库里还有:
- 基于Lavis实现一个干净、灵活的Trainer,在任务、模型、数据集、scheduler上都具备可拓展性,同时相比huggingface Trainer,更加干净、去冗余!
- 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可(现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。)

github仓库:github.com
文章:
展开
评论
安利下自己的项目 求star呀
这次介绍大模型训练中最常用的两个技术:混合精度训练和梯度检查点,给出示例代码并以EVA ViT-G(0.99B参数)作为例子进行性能测试

该仓库里还有:
- 基于Lavis实现一个干净、灵活的Trainer,在任务、模型、数据集、scheduler上都具备可拓展性,同时相比huggingface Trainer,更加干净、去冗余!
- 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可(现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。)

github仓库:github.com
文章:
展开
1
安利下自己的项目 求star呀
本项目基于Lavis实现一个干净、灵活的Trainer,在任务、模型、数据集、scheduler上都具备可拓展性,同时相比huggingface Trainer,更加干净、去冗余!

该仓库里还有:
多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可

现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。

github链接:github.com
trainer直接跳转:github.com
展开
评论
安利下自己的项目 求star呀 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可

现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。

github:github.com
展开
评论
安利下自己的项目 求star呀 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可

现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。
github链接:github.com
展开
1
安利下自己的项目 求star呀 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可

现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。
github链接:github.com
展开
评论
#新人报道# 推荐下自己的项目 多模态大模型实战MiniGPT4Qwen:3090+2小时+通义千问=个人版双语多模态大模型
本项目使用Qwen-Chat作为LLM,用MiniGPT4的对齐方式,更加高效地训练了一个MLLM,名为 Minigpt4Qwen。仅需1张3090、18.8k数据,3M可训练参数和可训练数个小时即可

现在已经开放了数据集、模型checkpoint、命令行demo、gradio的WebUI demo,并支持了LoRA微调功能。
github链接:github.com
展开
评论
个人成就
文章被点赞 6
文章被阅读 9,765
掘力值 224
收藏集
1
关注标签
23
加入于