NoETL 指标平台落地周期与人力测算:一个数据开发的硬核拆解

0 阅读9分钟

最近在评估一个指标平台项目,接触到了Aloudata CAN。这玩意儿号称“NoETL”,核心卖点是“定义即开发”。作为一个常年被ETL折磨的老兵,我的第一反应是:“这又是哪个新瓶装旧酒的营销概念?”

但仔细研究了一下他们的技术白皮书和几个公开的客户案例(比如平安证券、麦当劳中国),发现逻辑上有点意思。它不是在忽悠你“不用写代码”,而是把写代码的范式给彻底换了。今天不聊虚的,就从我们一线开发最关心的两个问题入手,硬核拆解一下:

  1. 这玩意儿从部署到让业务用起来,到底要多久?会不会又是个“半年起跳”的坑?
  2. 人力投入结构会变成什么样?是不是又要我们开发去学一堆新配置,然后继续当“表哥”?

一、 落地周期:一个可量化的四阶段模型

传统数据项目最大的不确定性就是周期。“需求评审-开发-测试-上线”这套流程,每个环节都可能因为口径扯皮、资源冲突、技术债爆发而无限延期。

Aloudata CAN的落地路径,给我的感觉更像是在部署和配置一套**“数据服务中间件”**,而不是开发一个应用。他们总结了一个四阶段模型,我结合自己的理解翻译一下:

阶段一:环境部署与核心模型声明 (1-2周)

  • 核心动作:不是写ETL,而是“声明”。把现有的DWD层表挂载到平台,然后用类似CREATE LOGICAL VIEW的方式,声明业务事实表(比如订单表)和维度表(用户表商品表)之间的逻辑关联关系。
  • 技术本质:这是在构建一个虚拟的、逻辑层面的“语义层”。相当于在物理表之上,用声明式的方式定义了一个全局的、统一的业务模型视图。这一步不需要移动或加工数据。
  • 人力:1-2个数据架构师/资深开发主导,配合厂商的解决方案工程师。重点是理解业务模型,而不是写加工代码。

阶段二:价值验证与指标敏捷开发 (1-2个月)

  • 核心动作:选一个最痛、最典型的业务场景(比如“每日销售战报”),开始在上面“定义”指标。比如,定义一个名为GMV的原子指标:SUM(订单金额) WHERE 订单状态 = '已完成'

  • 骚操作来了:定义完这个指标,业务分析师就可以在BI工具里,直接拖拽GMV,然后按日期地区渠道等任意已关联的维度进行自由组合、下钻分析。后台没有为这个组合提前生成物理宽表。

  • 技术本质:平台内置的语义解析引擎在背后工作。当用户发起一个“GMV按渠道下钻”的查询时,引擎会:

    1. 解析出GMV的逻辑定义。
    2. 根据之前声明的逻辑关联,自动将GMV渠道维度关联起来。
    3. 生成最优的物理SQL,并可能通过智能物化引擎路由到已预计算好的物化视图上执行。
    4. 将结果返回给BI工具。
  • 人力:形成“136”模式。10%的科技人员(数据架构师)负责定义和维护最核心的原子指标和模型关联;30%的业务分析师成为“配置师”,基于原子指标组合出各种派生指标(如“渠道A的GMV占比”);60%的业务用户直接使用。数据开发基本从这个阶段开始退居二线,负责底层数据质量和技术运维。

阶段三 & 四:推广与深化 (3-6个月及以后)
就是复制第二阶段成功模式的过程。当业务方发现“改个维度不用等排期了”,推广的阻力会小很多。后期重点是和AI平台、业务系统集成,把指标服务通过API喂给它们。

二、 人力投入:从“人海ETL”到“精英治理+业务自助”

这才是对我们团队影响最大的部分。传统模式下,人力瓶颈在数据开发。需求井喷,我们就得堆人,成本高、管理难、员工还累。

NoETL模式下,人力结构发生了根本转变:

  • 初期 (1-2个月):需要一个“联合特遣队”。

    • 平台专家 (1人):来自厂商或内部快速学习后的架构师,负责技术攻坚和赋能。
    • 数据架构师 (1人):这是核心角色。他不再设计物理表,而是设计逻辑语义模型。他的产出物是“业务实体关系图”和“原子指标定义文档”,而不是DDL和Spark脚本。要求对业务有很深的理解。
    • 种子业务分析师 (1-2人):来自业务部门的“数据达人”,他们将成为第一批“吃螃蟹”并推广的人。
  • 常态化运营期 (3个月后):

    • 平台管理员 (0.5人):兼职即可,负责监控、权限管理和资源调配。
    • 数据治理专员 (0.5-1人):新出现的核心角色。负责制定指标命名规范、口径审核流程、管理指标资产目录。相当于“数据宪法”的维护者。
    • 各业务线分析师 (N人):他们成了真正的“开发者”。基于数据架构师搭建好的“乐高底座”(原子指标和模型),他们可以自主拼装出各种分析报表,无需提交工单。数据开发团队从“需求实现方”转变为**“能力提供方和底座维护方”**。

对我们数据开发的影响:短期看,需要转型学习语义建模和平台原理;长期看,可以从繁琐的、重复的ETL开发中解放出来,去搞更底层的性能优化、数据质量体系建设和更复杂的数据产品开发。是挑战,也是职业进阶的机会。

三、 TCO(总拥有成本)账本:算一笔实在账

公司采购,最终要算ROI。除了软件license,更要看隐性成本的变化。

  • 显性成本:软件采购费 + 初期实施费。这是固定的。

  • 隐性成本节约(重点):

    1. 开发人力节约:如果原来50%的开发人力在堆砌宽表,那么这部分理论上可以大幅减少。客户案例中有提到开发工作量减少50%+。这部分节约的人力成本,可以折算成钱。
    2. 计算/存储节约:这是智能物化加速引擎的功劳。传统模式,为了应对各种维度组合,我们需要预计算N个宽表,数据冗余严重。NoETL模式下,物化引擎会根据查询Pattern,智能地、增量地物化最热、收益最高的数据集,用20%的存储空间可能就能覆盖80%的查询。客户案例有提到基础设施成本节约30%-50%。云上,这就是真金白银。
    3. 决策延迟成本降低:业务等数据的时间从周级降到分钟级,能更快抓住商机或发现问题。这个价值很难量化,但老板们最认这个。
    4. 风险成本规避:口径100%统一,从此告别“数据打架”和由此引发的会议扯皮与决策失误。自研失败的风险也转移给了成熟的厂商。

四、 几个关键的技术疑问(FAQ硬核版)

Q1:百亿数据量,查询真的能秒级?是不是吹牛?

核心在于智能物化。它不是不用物化,而是更聪明地物化。你可以声明一个物化策略,比如“按天、按渠道聚合GMV”。引擎会自动化这个物化表的创建和维护。查询时,语义引擎会进行SQL重写,自动将查询路由到已有的物化表上。如果查询模式变了(比如突然都查“按小时”),引擎会感知到,并可能自动建议或创建新的物化策略。这是一种动态的、查询驱动的物化,比我们人肉预测业务方要查什么、然后建一堆可能用不到的宽表,要高效得多。

Q2:和我们现有的数仓、BI工具怎么兼容?

架构上是Headless的。你可以把它理解成一个指标服务层,夹在DWD层和BI工具之间。现有BI工具(FineBI, Quick BI, Tableau)通过标准JDBC/ODBC连接它,把它当作一个特殊的“数据库”来查。原有的报表可以逐步迁移,把数据源从原来的物理宽表,改成指向这个指标服务层。数仓DWD层以下,完全不用动。

Q3:这算“真NoETL”还是“伪NoETL”?

我认为是 “真NoETL”,但需要正确理解。它消灭的不是所有的数据处理,而是消灭了为了响应业务灵活查询而进行的、重复的、烟囱式的ETL宽表开发。底层的、稳定的数据清洗、整合(ODS->DWD)依然需要。它把易变的、业务逻辑相关的部分(指标口径、维度组合)上浮到了可配置的语义层,实现了逻辑与物理的解耦。这和我们过去“一个需求,一套ETL,一张表”的强耦合模式有本质区别。

目前从逻辑和公开案例看,这套“定义即开发+智能物化”的架构是能跑通的,尤其适合业务变化快、分析师群体大、数据开发资源被重复需求压得喘不过气的公司。不过,我比较好奇它的上限在哪。比如,面对超复杂的多事实关联、实时数据与历史数据的混合查询,或者数据量冲到PB级以后,它的语义解析和物化策略优化还能不能这么丝滑。有条件的团队,真可以找个复杂场景压测一下,看看这个“引擎”的极限在哪儿。如果扛得住,那数据开发的活儿,可能真要变天了。