2025大模型服务能力“成绩单”揭晓,蓝耘元生代多项指标领跑行业

121 阅读2分钟

在2025年9月13日举办的 GOSIM 2025大会现场,清华大学与中国软件评测中心(CSTC)联合发布的《2025大模型服务性能排行榜》由清华大学计算机系高性能所翟季冬教授正式揭晓。在多个权威评测维度中,蓝耘元生代MaaS平台表现突出,多款模型在延迟、吞吐等关键指标上位居行业前列,展现出卓越的技术实力与服务性能。

在关乎用户体验的延迟指标上,蓝耘元生代表现亮眼:在DeepSeek-R1-0528、DeepSeek-V3.1、Kimi-K2-Instruct三款模型中跻身延迟前三。其中,“DeepSeek-V3.1”模型首字延迟仅0.79秒,位列第一,超越七牛云、阿里云百炼、火山方舟等多家服务提供商,体现出优异的响应效率;更凭借Qwen3-235B-A22B模型0.58秒的首字响应,在本次评测中斩获最佳延迟表现,领先于移动云、华为云,进一步印证其在大模型推理优化领域的领先水平。

同时,在模型吞吐性能维度,蓝耘在DeepSeek-R1-0528(44.20 Tokens/s)、DeepSeek-V3.1(63.54 Tokens/s)、Qwen3-235B-A22B(61.29 Tokens/s)模型的吞吐量测试中,均稳居前三,展现出其在高并发场景下的优异处理效能。

蓝耘元生代MaaS平台致力于为企业开发者、创业者及非技术用户提供开箱即用的热门AI模型服务,平台支持零代码便捷体验、API快速集成、私有化部署等多种使用方式,可满足不同用户在数据安全、特定应用场景方面的个性化需求。

让算力更高效,让AI更普惠。从底层算力支撑到AI模型应用,蓝耘始终致力于为企业开发者、创业者与科研机构提供高性能、低延迟、高可用的智算基础设施服务,高效承载多种主流大模型在复杂场景下的推理任务,以开放兼容的元生代MaaS服务底座,为大模型技术的广泛普及与高效应用提供有力支撑。

                                                       

                                 

                                                                       扫码体验