第一个支持一亿上下文的模型:LTM-2-Mini

242 阅读1分钟

阿里 Qwen2-VL: 更清晰地看世界

阿里通义昨天发布了新视觉语言模型 Qwen2-Vl,同样基于 Qwen2 打造,

其中官方主要用于演示和基准测试对比的 72B 模型只提供 API,能力较弱的 7B 和 2B 模型基于 Apache 2.0 协议开源,支持商用。

API 的具体价格还没出,不过你可以在这里试用闭源的 72B 模型:Qwen/Qwen2-VL,这里可以试用开源的 2B 模型,差距还是不小:MaziyarPanahi/Qwen2-VL-2B

更多的介绍可以看官方博客 《Qwen2-VL: 更清晰地看世界》

美国政府宣布 OpenAI 新模型发布前须经过严格审核

今天早上,美国政府宣布 OpenAI 与 Anthropic 达成了一项合作协议,双方将在人工智能安全研究、测试和评估领域展开合作。

根据协议,美国国家人工智能安全研究所(USAISI)将有权在 OpenAI 和 Anthropic 发布新模型前提前访问并进行技术安全与伦理使用的监管审查。

今天早些时候,OpenAI CEO 奥特曼发推表示“在国家层面进行审查很重要”,评论区纷纷嘲讽。

参考来源:

  • 美国人工智能安全研究所:U.S. AI Safety Institute Signs Agreements Regarding AI Safety Research, Testing and Evaluation With Anthropic and OpenAI
  • 路透社:OpenAI, Anthropic sign deals with US govt for AI research and testing
  • OpenAI 首席执行官 Sam Altman 推文

LTM-2-Mini:第一个支持一亿上下文的模型

Magic 昨晚发布了 LTM-2-Mini,第一个具有 1 亿 Token 上下文的模型,它可以在推理过程中处理相当于 1000 万行代码或 750 本小说的内容。