InternLM 生态介绍

214 阅读1分钟

InternLM 生态

image.png

InternLm2 模型

  1. 模型特性:
  • 支持20万字超长上下文,能够在长文本中进行有效信息检索和任务处理。
  • 综合性能显著提升,在多个领域如推理、数学、代码、对话和创意写作等方面达到领先水平。
  • 配合代码解释器,InternLM2-Chat-20B在特定数学和代码任务上可与GPT-4相媲美。
  • 工具调用能力增强,能够支持复杂智能体的搭建和多轮工具调用。
  1. 更新历史:
  • 2024年1月31日,发布了InternLM2-1.8B和相关对话模型,提供了更经济的部署方案。
  • 2024年1月23日,发布了InternLM2-Math-7B和InternLM2-Math-20B,这些模型在数学任务上超越了ChatGPT。
  • 2024年1月17日,发布了InternLM2-7B和InternLM2-20B及其对话模型,这些模型在多个方面取得了显著进步。
  1. 模型规格:
  • 提供了7B和20B两种规模的模型,7B为轻量级模型,20B提供更强的综合性能。
  • 模型分为Base、标准版和Chat版,其中Chat版专为对话交互优化。
  1. 性能评估:
  • 在多个数据集上进行了客观和主观评测,InternLM2-Chat在多个任务上表现优异,超过了其他一些知名的大型语言模型。
  • 提供了详细的性能比较表格,展示了InternLM2-Chat与其他模型的比较结果。
  1. 开源许可证:
  • 代码遵循Apache-2.0协议开源,模型权重对学术研究开放,并可申请商业使用授权。

数据来源:

书生·浦语大模型实战营