演讲者:一锤(周克勇)| EMR Serverless Spark 技术负责人
2025年9月,阿里云EMR Serverless Spark 以QphDS超6568万分的性能结果成功登顶TPC-DS 100T榜单,这是全球大数据领域最具权威性和挑战性的性能测试基准。
阿里云EMR Serverless Spark TPC-DS 100T 性能测试结果
TPC-DS Benchmark是数据仓库领域最新和最复杂的权威测试标准,被工业界和学术界广泛认可,也是数据仓库选型的重要参考指标。TPC-DS包含99个查询,从简单的全局聚合到复杂的20以上多表连接,体现了真实分析场景日益增长的复杂度。其中,100T是TPC-DS提供的最大测试数据集,最大表有288,017,344,252(2880亿)条数据,迄今为止只有阿里云EMR和Databricks成功通过了该榜单的官方评审。
阿里云 EMR Serverless Spark实现了 性能提升100%、性价比提升500% 的突破,证明了EMR Serverless Spark 在 OpenLake湖仓底座架构下,超大规模、超高复杂度的数据分析、数据更新、数据处理的市场领先能力。
本文将深入剖析支撑这一成绩背后的技术内核,从产品定位、架构设计到核心优化策略,全面解读 EMR Serverless Spark 如何实现“高性能、低成本、高弹性、强兼容”的统一。
产品定位与核心场景
EMR Serverless Spark 定位为新一代 Lakehouse(湖仓一体)平台,旨在融合传统数据仓库的极致查询性能与数据湖的低成本、开放性优势。
其核心聚焦三大场景:
-
湖仓分析场景:以高度优化的 Spark 替代 Hive 执行 ETL/ELT 任务,替代 Trino/Presto 提供高性价比交互式分析。支持 SQL、DataFrame、Pandas、RDD 等多种接口,并全面兼容 Paimon、Iceberg、Delta、Hudi 等主流湖表格式。
-
机器学习场景:作为成熟的分布式 ML 框架,Spark 支持从数据清洗、特征工程到模型训练与批量推理的全流程。内置 MLlib,集成 XGBoost、LightGBM、scikit-learn 等生态工具,并提供 GPU 加速能力,实现 Data + AI 一体化。
-
多模态数据处理场景:随着大模型兴起,PySpark 成为处理文本、图像、视频等非结构化数据的理想选择。产品推出的 AI Function 功能,允许用户在 Spark 作业中直接调用大模型。针对基模训练数据预处理做了专门优化,在文本去重任务中实现 5倍性能提升。
产品架构与极致弹性
EMR Serverless Spark 采用标准 Lakehouse 架构:
-
存储层:基于阿里云 OSS 对象存储与 OSS-HDFS 接口,提供高吞吐、低成本的持久化能力;
-
元数据层:兼容 Hive Metastore(HMS)与 Data Lake Formation(DLF),支持 ACID 事务;
-
资源层:依托阿里云全 Region 的 ECS 资源池,实现近乎无限的弹性供给;
-
引擎层:核心创新包括 Fusion 向量化执行引擎 与 Celeborn Remote Shuffle Service;
-
产品层:提供认证鉴权、开发 IDE、资源监控、智能诊断等企业级功能。
极致弹性 是其关键竞争力:
-
支持 进程级弹性,最小资源单位低至 1 Core;
-
容器启动时间 <15 秒,会话模式、Standalone模式下实现“零冷启”;
-
采用 Workspace + 队列的双层 Quota 机制,满足多租户资源隔离需求;
-
实际客户案例显示,资源使用波动可从数万核骤降至零,Serverless 架构帮助客户 节省40%资源成本。
此外,系统默认提供 跨可用区高可用 能力,Spark 控制面与 Celeborn 服务均多 AZ 部署,作业自动故障迁移,SLA 达 99.9%,且无额外费用。
EMR Serverless Spark 产品架构
全方位生态兼容
EMR Serverless Spark 坚持 开放生态优先 的设计理念:
-
接口兼容:完整支持 spark-submit、spark-sql、beeline、JDBC 等经典方式,也集成 Kyuubi(含 HA)、Livy 等交互式查询服务;
-
工具链集成:无缝对接 Jupyter、Zeppelin、Superset、DBT 等主流开发分析工具;
-
调度系统:深度适配 Airflow、DolphinScheduler,并在阿里云生态内与 DataWorks 原生集成——作为DataWorks“一等公民”,支持 SQL 节点、Notebook、工作流编排、统一权限与数据血缘等;
-
安全与元数据:支持 Kerberos、LDAP、Ranger;
-
湖格式:湖格式覆盖 Paimon/Delta/Hudi/Iceberg;
-
外部数据源:连接 StarRocks、Doris、Hologres、HBase、Elasticsearch、MongoDB、MaxCompute、MySQL 、Postgres等数十种系统。
这种广泛的兼容性极大降低了用户迁移和集成成本,真正实现“开箱即用”。
TPC-DS 100T 背后的四大核心技术
官方TPC-DS 100T 测试包含数据生成、导入、Power Test(单并发99查询)、Throughput Test(4并发396查询)、Maintenance Test(Upsert 操作)等环节,最终通过 QphDS 分数衡量综合性能。
阿里云的突破源于以下四大技术创新:
1. Fusion 向量化执行引擎
自2019年起研发,Fusion 将 Spark 从行式计算升级为 列式向量化执行:
-
利用 SIMD 指令并行处理多列数据;
-
连续内存布局显著提升 CPU Cache 命中率;
-
异步 IO 与 IO 合并优化读取效率;
-
关键算子(Sort/Window/Join)优化,性能提升达 300%。
在 TPC-DS 场景中,Fusion 还引入 Subplan Reuse、Broadcast Join Reuse、Semi Join 哈希表去重等优化,大幅减少重复计算与内存占用。
2. 与 Paimon 深度协同
Fusion 与阿里自研湖表格式 Paimon 深度整合:
-
向量化读写使读性能提升 70%,写性能提升 30%;
-
Variant 类型相比原始 JSON 提升 178%;
-
Shredding 技术进一步加速JSON解析,性能再提升 364%。
3. Celeborn Remote Shuffle Service
作为 Apache 顶级项目,Celeborn 采用 推送式 Shuffle 架构:
-
在大规模作业中提供更高吞吐与更低延迟;
-
支持副本容错与Stage重算,保障作业稳定性;
-
大规模生产验证,成为业界事实标准。
4. DLF 3.0 与优化器增强
基于 Paimon 的 DLF 3.0 提供高性能 ACID 能力,满足 TPC-DS Maintenance 测试要求;同时优化器在 Join 顺序选择、代价模型等方面持续迭代,提升复杂查询效率。
最终成果:在仅使用一半内存的情况下,QphDS 性能翻倍,性价比提升5倍,所有结果均通过 TPC 官方严格审计。
AI 时代的新功能:让 Spark 成为 AI 基础设施
面对 AI 浪潮,EMR Serverless Spark 推出多项创新功能:
-
AI Function:内置
ai_query、ai_sentiment、ai_classify、ai_embedding等函数,用户可在 SQL 中直接调用大模型,如同使用内置 UDF。支持接入百炼、OpenAI、PAI EAS 或本地 GPU 模型。 -
Spark on GPU:提供弹性 GPU 实例,按需配置 CPU/GPU 混合机型,避免固定集群成本。支持:
-
AI Function 本地 GPU 推理;
-
Spark ML(XGBoost/LightGBM)GPU 加速;
-
Spark SQL 向量化 GPU 计算。
-
-
即将上线功能:
-
Spark + Ray 双引擎融合:满足 Python 分布式与异构计算需求;
-
DuckDB 集成:针对中小数据分析,在 Notebook 中已内置,未来支持直连 DLF 3.0;
-
文本去重加速:在 FineWeb-edu(8TB、30亿文档)上,800 核仅需 72 分钟,提速 5 倍。
-
携手客户共同成长
EMR Serverless Spark 已在多家金融、互联网、智能硬件及零售企业的生产环境中稳定运行,广泛应用于数据仓库加速、实时风控、向量检索、机器学习等核心场景。
同时,Celeborn 社区也在多个头部互联网平台和科技企业中落地,支撑高并发、大规模的数据计算需求。
阿里云 EMR Serverless Spark 的 TPC-DS 登顶,不仅体现了优异性能,更体现了架构理念、工程能力和生态战略。在 Data + AI 融合的新时代,它正成为企业构建下一代智能数据基础设施的核心引擎。