美团开源啦,源码地址+部署脚本

99 阅读4分钟

大家好,我是小悟。

美团发布并开源了一个叫LongCat-Flash-Chat的大模型,名字听着挺萌,实际是个狠角色。

5600亿参数的“大块头”,却只用激活270亿左右的“小脑子”就能干活,推理速度快得离谱,成本还低到5块钱就能处理100万字。

这年头,AI圈卷技术已经不够看了,还得卷性价比。

图片

“会挑活干”的AI,才是真聪明

美团这个LongCat-Flash-Chat走了条“精打细算”的路子。它用的是混合专家模型(MoE)架构,简单说就是“术业有专攻”。

每个任务只唤醒最相关的那部分“专家”来处理,其他参数该躺平就躺平。比如你问它怎么订酒店,它不会傻乎乎把编程知识也搬出来凑数,而是精准调用旅行相关的“专家模块”。

这种设计让它的推理速度直接飙到单用户100+ tokens/s,在H800芯片上跑得飞起。

更绝的是,它还搞了个“零计算专家”机制,就像个精明的管家,根据上下文判断哪些词值得多花算力,哪些可以一笔带过。

结果就是:参数总量5600亿,但每次实际只用270亿左右,省电又省力。

图片

智能体任务?人家是“专业选手”

现在AI都在卷“智能体”能力(也就是能自主调用工具、解决复杂问题的那种),而LongCat-Flash-Chat在这方面直接秀了一波肌肉。

它在工具使用测试(τ2-Bench)里吊打了不少更大的模型,在复杂场景任务(VitaBench)里更是拿下第一名。

想象一下,你让它帮你订机票、查攻略、甚至自动整理会议纪要,它不仅能分步骤搞定,还能顺手调用各种工具,效率拉满。

它在编程和指令遵循上的表现也不错。比如TerminalBench(终端命令行任务)排第二,SWE-Bench(代码修复)也有60.4分,中文指令理解更是拿下多个榜单最佳。

对于经常和代码、复杂指令打交道的人来说,这种“听话又靠谱”的AI确实能省不少事。

图片

美团这步棋,是想干嘛?

今年美团在AI上的动作挺频繁,之前就推出过NoCode(编程智能体)、袋鼠参谋(经营决策助手)、美团既白(酒店垂类AI)这些具体场景的工具。

这次开源LongCat-Flash-Chat,算是他们“Building LLM(自研大模型)”战略的首次亮相。

开源的好处显而易见,开发者可以直接拿去魔改、优化,甚至集成到自己的产品里。

美团自己则能通过社区反馈快速迭代,同时吸引更多AI人才和合作伙伴。长远看,这种“技术开源+场景落地”的组合拳,比单纯砸钱堆参数更有生命力。

高效AI才是未来

现在很多人聊AI,总盯着“能不能取代人类”,但其实更实际的进步在于“能不能用更低的成本,解决更具体的问题”。

处理100万字只要5块钱,比很多商业模型便宜一大截。推理速度还快,适合长时间运行的复杂任务。

这种“经济适用型AI”,对中小企业、开发者甚至普通用户来说,可能比那些高高在上的“万亿参数巨无霸”更有用。

当然,技术细节(比如跨层通信优化、PID控制器调参这些)咱普通人不用深究,但有一点很明确:AI的未来,一定是属于那些既能“干活”,又会“省钱”的模型。

image.png

模型已经开源,Hugging Face和Github都有,感兴趣的可以去试试。

开源仓库统一采用 MIT License,并允许用户利用模型输出、通过模型蒸馏等方式训练其他模型。

image.png

图片

谢谢你看我的文章,既然看到这里了,如果觉得不错,随手点个赞、转发、在看三连吧,感谢感谢。那我们,下次再见。

您的一键三连,是我更新的最大动力,谢谢

山水有相逢,来日皆可期,谢谢阅读,我们再会

我手中的金箍棒,上能通天,下能探海