对标GPT4!开源32K上下文大模型

197 阅读2分钟

对标GPT4!开源32K上下文大模型

刚刚,Mistral AI 的模型又双叒叕更新了!

关注****智言AI对话,即可免费体验无魔法版本的DALL·E3(画图)、GPT实时联网和4V功能(看图)!

智言AI对话

关注公众号,点击:发消息,即可使用chat4.0!支持"绘图Dalle-3"、“看图4V”、语音对话…

公众号

​ 

可以复制使用本文中的chatgpt提示词哦! 电脑端复制链接进行使用: chat.chatgptten.com/

这次开源一如既往地「突然」,是在一个叫做 Cerebral Valley 的黑客松活动上公布的。

图片

PPT 一翻页,全场都举起了手机拍照:

图片

这次开源的 Mistral 7B v0.2 Base Model ,是 Mistral-7B-Instruct-v0.2 背后的原始预训练模型,后者属于该公司的「Mistral Tiny」系列。

此次更新主要包括三个方面:

  • 将 8K 上下文提到了 32K;

  • Rope Theta = 1e6;

  • 取消滑动窗口。

图片

**

下载链接:models.mistralcdn.com/mistral-7b-…

更新之后的性能对比是这样的:

图片

场外观众迅速跟进。有人评价说:「Mistral 7B 已经是同尺寸级别中最好的模型,这次改进是一个巨大的进步。 我将尽快在这个模型上重新训练当前的许多微调。」

图片

Mistral AI 的第一个 7B 模型发布于 2023 年 9 月,在多个基准测试中实现了优于 Llama 2 13B 的好成绩,让 Mistral AI 一下子就打出了知名度。

图片

这也导致目前很多开源大模型都已不再对标 Llama 2,而是将 Mistral AI 旗下的各系列模型作为直接竞争对手。

而 Mistral 7B v0.2 Base Model 对应的指令调优版本 Mistral-7B-Instruct-v0.2 在 2023 年 12 月就已开放测试,据官方博客介绍,该模型仅适用于英语,在 MT-Bench 上能够获得 7.6 分的成绩,逊于 GPT-3.5。

图片

此次开放基础模型之后,开发者们就可以根据自己的需求对这个「当前最好的 7B 模型」进行微调了。

不过,7B 模型只能算是 Mistral AI 众多惊艳成果中的一项。这家公司的长远目标是对标 OpenAI。

中文版ChatGPT4.0微信端使用方式

图片图片

公众号.png

在这里插入图片描述

标签:

AIGC ChatGPT