书生大模型实战营(第四期)-1.3-第4关-InternVL 多模态模型部署微调实践

218 阅读3分钟

一、理解多模态大模型的常见设计模式,可以大概讲出多模态大模型的工作原理。

多模态大模型的工作原理通常包括以下几个步骤:

  1. 输入处理:不同模态的数据(如文本、图像、音频)被分别预处理成适合模型输入的形式。
  2. 特征提取:每种模态的数据通过专门的编码器(如Transformer、CNN等)提取特征表示。
  3. 模态融合:通过某种融合策略(如拼接、注意力机制、统一表示等)将不同模态的特征进行融合。
  4. 任务处理:融合后的特征用于执行特定的任务,如分类、生成、问答等。
  5. 训练与优化:模型通过多模态数据集进行训练,可能采用多任务学习、对比学习等策略进行优化。

多模态大模型的设计模式和工作原理可以根据具体应用场景和任务需求进行调整和组合,以实现更好的性能和更广泛的应用。

二、了解InternVL2的设计模式,可以大概描述InternVL2的模型架构和训练流程。

设计模式

InternVL2采用的是LLaVA式架构设计(ViT-MLP-LLM),具体包括:

  • InternLM2-20B:一个大型语言模型。
  • InternViT-6B:一个视觉Transformer模型。
  • MLP:多层感知机,用于特征融合。

模型架构

  1. Dynamic High Resolution:InternVL独特的预处理模块,动态高分辨率,旨在让ViT模型能够获取更细节的图像信息,提高视觉特征的表达能力。
  2. InternViT:模型中的视觉Transformer部分,用于提取图像特征。
  3. Pixel Shuffle:在超分任务中常见的操作,用于改变tensor的通道数和特征图的大小。
  4. Multitask output:支持多任务输出,增强模型的泛化能力。

训练流程

InternVL2的训练流程包括以下几个关键步骤:

  1. 环境配置:包括训练环境和推理环境的配置。
  2. 数据预处理:采用动态分辨率策略,将图像分割成不同大小的tiles,基于输入图像的宽高比和分辨率进行调整。
  3. 模型训练:使用长文本、多图像、医疗数据和视频等训练数据,训练模型以处理这些类型的输入。
  4. 优化与调度:在训练过程中,使用不同的优化器和学习率调度策略,以提高训练效率和模型性能。
  5. 多模态对话:通过pipeline.chat接口构造多轮对话管线,实现与模型的交互。

InternVL2通过这些设计和训练流程,实现了在多模态任务中的高性能,包括文档和图表理解、场景文本理解和OCR任务、科学和数学问题解决等。

三、了解LMDeploy部署多模态大模型的核心代码,并运行提供的gradio代码,在UI界面体验与InternVL2的对话。

image.png image.png

四、了解XTuner,并利用给定数据集微调InternVL2-2B后,再次启动UI界面,体验模型美食鉴赏能力的变化。

菠萝咕噜肉识别成了回锅肉哈哈 image.png