InternLM 生态
InternLm2 模型
- 模型特性:
- 支持20万字超长上下文,能够在长文本中进行有效信息检索和任务处理。
- 综合性能显著提升,在多个领域如推理、数学、代码、对话和创意写作等方面达到领先水平。
- 配合代码解释器,InternLM2-Chat-20B在特定数学和代码任务上可与GPT-4相媲美。
- 工具调用能力增强,能够支持复杂智能体的搭建和多轮工具调用。
- 更新历史:
- 2024年1月31日,发布了InternLM2-1.8B和相关对话模型,提供了更经济的部署方案。
- 2024年1月23日,发布了InternLM2-Math-7B和InternLM2-Math-20B,这些模型在数学任务上超越了ChatGPT。
- 2024年1月17日,发布了InternLM2-7B和InternLM2-20B及其对话模型,这些模型在多个方面取得了显著进步。
- 模型规格:
- 提供了7B和20B两种规模的模型,7B为轻量级模型,20B提供更强的综合性能。
- 模型分为Base、标准版和Chat版,其中Chat版专为对话交互优化。
- 性能评估:
- 在多个数据集上进行了客观和主观评测,InternLM2-Chat在多个任务上表现优异,超过了其他一些知名的大型语言模型。
- 提供了详细的性能比较表格,展示了InternLM2-Chat与其他模型的比较结果。
- 开源许可证:
- 代码遵循Apache-2.0协议开源,模型权重对学术研究开放,并可申请商业使用授权。
数据来源:
书生·浦语大模型实战营