星链引擎技术实践:企业级多租户素材管理系统的架构设计与落地

0 阅读26分钟

在全域营销 SaaS 系统的技术体系中,素材管理是连接内容生产、分发、运营全链路的核心基础设施。对于星链引擎而言,我们服务的 500 + 企业客户,每天都会产生海量的视频、图片、音频、文案等营销素材,单文件大小从几 KB 的文案到几十 GB 的高清视频不等,同时需要满足企业级的多租户数据隔离、细粒度权限管控、跨端数据同步、智能检索复用、合规审计等核心需求。

传统的开源对象存储方案、网盘系统,要么没有原生的多租户隔离能力,要么无法和营销内容生产链路深度打通,更难以适配企业级的权限与合规要求。基于此,我们从零到一设计并落地了一套面向营销场景的企业级多租户素材管理系统,本文将完整拆解这套系统的业务痛点、架构设计、核心模块实现、线上踩坑复盘与落地效果,为同类 SaaS 系统的研发提供可复用的实践经验。

image.png

一、业务场景与核心技术挑战

星链引擎作为全域智能营销自动化系统,其素材管理场景和通用的企业网盘、对象存储服务有着本质区别,具备极强的业务属性,也带来了更严苛的技术挑战,这也是我们选择自研的核心原因。

1. 核心业务场景特性

  • 强多租户属性:服务企业级客户,每个客户的素材都是核心商业资产,租户之间必须实现严格的数据隔离,杜绝跨租户数据泄露风险;同时租户内部需要支持多部门、多角色的协同管理。
  • 非结构化数据为主:素材以高清视频、图片、音频为主,单文件体积跨度极大(KB 级到数十 GB 级),需要同时满足小文件的低延迟访问和大文件的稳定上传下载。
  • 全链路业务打通:素材管理不是独立的存储系统,需要和星链引擎的 AI 文案生成、AI 视频混剪、定时发布、数据复盘等核心模块深度打通,素材可直接被业务模块调用,实现从素材到内容的全链路闭环。
  • 多端协同需求:系统需要支持 Windows 客户端、Android 客户端、H5 网页端、OpenAPI 等多端接入,用户在不同端的素材操作需要实时同步,保障数据一致性。
  • 合规与审计要求:作为商业化 SaaS 系统,需要严格遵循《数据安全法》《个人信息保护法》,所有素材操作必须全链路可审计,同时需要内置内容安全审核能力,杜绝违规素材上传。

2. 核心技术挑战

基于上述业务特性,我们在系统研发初期,就明确了必须解决的 5 大核心技术挑战:

  1. 多租户隔离的架构设计难题:如何在保障租户数据绝对隔离的同时,兼顾系统的可扩展性、运维成本与资源利用率,平衡隔离粒度与资源效率。
  2. 海量大文件的存储与性能优化:如何支撑数十 GB 级大文件的稳定上传下载,解决高并发场景下的上传中断、内存溢出、带宽占用过高等问题,同时平衡存储性能与成本。
  3. 企业级细粒度权限管控:如何实现租户内的精细化权限管理,满足不同部门、不同角色、不同成员的差异化权限需求,做到最小权限原则,同时保障权限校验的性能。
  4. 智能检索与素材复用难题:如何解决海量素材下 “找素材难” 的问题,实现自动化智能打标,支持自然语言语义检索,提升素材复用率,降低重复制作成本。
  5. 多端数据一致性保障:如何实现多端操作的实时同步,解决弱网、离线场景下的操作不丢失、数据不冲突问题,保障多端数据的最终一致性。

二、系统整体架构设计

针对上述核心挑战,我们采用云原生架构,设计了一套「存储与计算分离、租户间物理隔离、租户内逻辑隔离」的分层架构,从底层就适配多租户企业级需求,而非在通用存储方案上做上层补丁。

整体架构分层

整套系统从上到下分为 5 层,各层完全解耦,可独立扩缩容,同时保障全链路的安全性与可观测性。

架构层级核心组件核心职责
多端接入层API 网关、统一鉴权中心、多端适配 SDK负责多端接入的统一收口,完成请求鉴权、流量控制、协议转换、日志记录,屏蔽底层差异,向上提供标准化的接入能力
应用服务层素材管理核心微服务集群(租户权限服务、上传下载服务、元数据管理服务、标签管理服务、检索服务、生命周期管理服务、跨端同步服务)系统的业务逻辑核心,负责素材全生命周期的业务处理,微服务化设计支持按需扩缩容,适配业务峰值
核心能力层AI 智能打标引擎、音视频转码引擎、权限管控引擎、数据同步引擎、内容安全审核模块系统的差异化能力核心,提供业务层依赖的通用原子能力,可独立迭代优化
存储层结构化存储(MySQL、Redis、Elasticsearch)、非结构化存储(MinIO 分布式对象存储)结构化存储负责租户信息、元数据、权限数据、检索索引、审计日志的存储;非结构化存储负责素材源文件的存储,实现存储与计算完全分离
基础设施层Kubernetes 容器编排、Prometheus 监控告警、ELK 日志收集、SkyWalking 链路追踪、安全审计体系提供系统运行的底层基础设施支撑,保障系统的可观测性、高可用性与可运维性

核心架构设计原则

  1. 多租户优先:从架构底层设计多租户隔离能力,租户间物理隔离,从根本上杜绝跨租户数据泄露风险,满足企业级数据安全要求。
  2. 存储与计算完全分离:素材源文件存储与业务计算逻辑完全解耦,存储层可独立扩缩容,计算层无状态化,可根据业务峰值弹性扩缩容。
  3. 最小权限原则:基于 RBAC+ABAC 双模型设计权限体系,从租户、部门、角色、用户、素材多个维度实现细粒度权限管控,做到 “非必要不授权”。
  4. 冷热分离与成本优化:从底层设计冷热分层存储架构,基于素材访问频率自动实现数据分层,平衡访问性能与存储成本。
  5. 全链路可观测与合规:所有操作全链路留痕,审计日志永久留存,支持合规追溯,同时内置内容安全审核能力,保障平台与租户的双合规。

三、核心技术模块的落地实现

基于上述架构,我们针对业务核心痛点,完成了 5 大核心模块的工程化落地,以下是各模块的详细设计与实现细节。

1. 多租户隔离体系的实现

多租户隔离是这套系统的核心基石,我们放弃了行业通用的「单 Bucket+tenant_id 逻辑隔离」方案,采用了 「租户间物理隔离,租户内逻辑隔离」 的双层隔离方案,从存储底层保障数据安全。

(1)租户间物理隔离实现

每个企业租户在 MinIO 对象存储中对应一个独立的私有 Bucket,Bucket 名称通过租户唯一 ID 的不可逆哈希值生成,不可枚举;同时为每个租户生成独立的 AccessKey/SecretKey,该密钥仅拥有对应 Bucket 的操作权限,无法访问其他租户的 Bucket,从存储底层实现了租户间的物理隔离。

这种方案的核心优势在于:

  • 从根本上杜绝了因代码 bug、权限配置错误导致的跨租户数据泄露风险,满足金融、品牌大客户的极致安全要求;
  • 支持租户级的存储配额、带宽限制、生命周期策略自定义,适配不同规模租户的需求;
  • 支持租户数据的一键导出、一键归档、一键销毁,满足合规要求,同时大幅降低运维成本。

(2)租户内逻辑隔离实现

在租户内部,我们基于「部门 - 项目 - 用户」三级维度,通过对象存储的路径前缀实现逻辑隔离,标准路径格式为:/{部门ID}/{项目ID}/{用户ID}/{文件名称}

同时,基于路径前缀实现租户内的权限隔离,不同部门、不同项目的成员,默认只能访问对应路径下的素材,授权后才可跨部门、跨项目访问,既保障了数据安全,又满足了团队协同的需求。

(3)细粒度权限管控引擎

我们采用 RBAC(基于角色的访问控制)+ ABAC(基于属性的访问控制) 双模型,实现了极致的细粒度权限管控,兼顾易用性与灵活性。

  • RBAC 模型:预设管理员、运营、设计师、访客等标准角色,每个角色对应固定的操作权限集(上传、下载、预览、编辑、删除、分享、归档),租户管理员可一键为成员分配角色,降低配置成本。
  • ABAC 模型:支持基于用户属性、部门属性、素材属性、时间属性、设备属性等多维度设置权限规则,例如 “仅允许设计师在工作时间内上传视频素材”“普通成员只能访问自己上传的素材”,满足复杂的企业权限管控需求。

权限校验采用 AOP 切面实现,所有素材操作请求都会经过三层校验:租户合法性校验 → 角色权限校验 → 数据权限校验,全部通过才允许执行操作,核心校验逻辑示例如下:

java

运行

/**
 * 素材操作权限校验切面
 */
@Around("execution(* com.xinglian.material.service.*.*(..)) && @annotation(permissionCheck)")
public Object permissionCheck(ProceedingJoinPoint joinPoint, PermissionCheck permissionCheck) throws Throwable {
    // 1. 获取请求上下文信息
    MaterialRequest request = getRequest(joinPoint);
    String tenantId = request.getTenantId();
    String userId = request.getUserId();
    String materialPath = request.getMaterialPath();
    OperationType operationType = permissionCheck.operationType();

    // 2. 租户合法性校验
    if (!tenantService.isTenantValid(tenantId)) {
        throw new PermissionException("租户不存在或已过期");
    }

    // 3. 角色权限校验:校验用户是否拥有当前操作的权限
    if (!permissionService.hasRolePermission(tenantId, userId, operationType)) {
        throw new PermissionException("您没有当前操作的权限");
    }

    // 4. 数据权限校验:校验用户是否拥有当前素材的访问权限
    if (!permissionService.hasDataPermission(tenantId, userId, materialPath, operationType)) {
        throw new PermissionException("您没有该素材的访问权限");
    }

    // 5. 记录审计日志
    auditLogService.recordLog(tenantId, userId, operationType, materialPath, request.getIp(), request.getDeviceInfo());

    // 6. 执行原方法
    return joinPoint.proceed();
}

2. 分布式对象存储与冷热分离架构实现

针对营销场景大文件多、存储量大、访问频率差异大的特点,我们基于 MinIO 搭建了分布式对象存储集群,同时设计了冷热分层存储架构,平衡访问性能与存储成本。

(1)MinIO 分布式集群部署

我们采用 4 节点分布式集群部署,每节点配置 16 块 8T 企业级硬盘,纠删码策略根据数据冷热程度动态配置,保障数据可用性的同时优化存储成本。集群兼容 S3 协议,可无缝适配各类客户端与 SDK,同时支持私有化部署,满足大客户的本地化部署需求。

核心部署策略:

  • 纠删码设置:热数据采用 EC:4(4 个数据块 + 4 个校验块),可容忍 4 个节点同时故障,数据可用性达 99.99%;温冷数据采用 EC:6(6 个数据块 + 2 个校验块),冗余度仅 33%,大幅降低存储成本。
  • 网络架构:采用万兆内网集群通信,千兆外网接入,同时配置带宽限流策略,避免大文件下载占用过多带宽,影响核心业务。
  • 高可用设计:集群采用多活架构,无单点故障,任意节点宕机不影响集群整体可用性,同时支持数据自动修复,故障恢复后自动补齐缺失的数据块。

(2)冷热分层存储与生命周期管理

我们将素材分为热、温、冷三层,基于访问频率自动实现数据分层迁移,对用户完全透明,在保障热数据低延迟访问的同时,大幅降低整体存储成本。

数据层级定义存储介质生命周期策略
热数据最近 30 天内有访问的素材SSD 标准存储永久保留,低延迟访问,无访问限制
温数据30-180 天无访问的素材SATA 低频访问存储自动从热层迁移,访问前无需解冻,访问成本略高于热层
冷数据180 天以上无访问的素材归档存储自动从温层迁移,访问前需提前解冻,存储成本仅为热层的 10%

生命周期管理基于 MinIO 的原生生命周期策略 + 访问日志分析实现:系统每天定时分析全量素材的访问日志,更新素材的冷热标签,自动触发迁移规则;当用户访问冷数据时,系统自动触发解冻流程,解冻完成后通知用户,整个过程对业务层完全透明。

(3)大文件上传优化方案

针对营销场景数十 GB 级视频文件的上传需求,我们实现了分片上传 + 断点续传 + 秒传三位一体的优化方案,彻底解决大文件上传中断、成功率低、内存占用高的问题。

  • 分片上传:客户端将大文件拆分为 4MB 的固定分片,并行上传多个分片,服务端接收完成后在 MinIO 中合并为完整文件,避免单连接上传中断导致全文件重传。
  • 断点续传:上传中断后,客户端会查询服务端已成功上传的分片列表,仅上传未完成的分片,无需重新上传全文件,大幅提升弱网环境下的上传成功率。
  • 秒传:客户端上传前计算文件的 MD5 哈希值,服务端校验该租户内是否已存在相同哈希值的文件,若存在则直接创建文件引用,无需重复上传,节省存储资源与上传带宽,实测可使重复素材的上传耗时从小时级降至毫秒级。

3. AI 驱动的标签化智能检索系统实现

针对海量素材下 “找素材难” 的痛点,我们设计了全文检索 + 向量语义检索的双引擎检索架构,结合 AI 智能打标能力,实现了素材的自动化分类与精准检索,让用户在千万级素材中也能秒级找到目标内容。

(1)AI 智能打标引擎

用户上传素材后,系统会自动触发 AI 智能打标流程,无需用户手动操作,即可完成素材的全维度标签化:

  • 图片 / 视频素材:基于多模态大模型 CLIP 进行场景识别、主体提取、内容分类、OCR 文字识别,自动生成场景、主体、文案、格式、时长等维度的标签;
  • 音频素材:通过 ASR 语音识别将音频转写为文字,再通过关键词提取模型生成标签;
  • 文案素材:基于 TF-IDF 算法 + 大模型,提取核心关键词、行业标签、内容类型标签。

所有生成的标签会同步写入素材元数据库与 Elasticsearch 检索引擎,同时支持用户手动修改、添加自定义标签,适配行业个性化需求。

(2)双引擎检索架构

我们采用 Elasticsearch 作为统一检索底座,同时实现了全文检索与向量语义检索双引擎,兼顾精准匹配与模糊语义匹配。

  • 全文检索引擎:基于 ES 倒排索引实现,支持按文件名、标签、上传人、文件格式、上传时间、文件大小等多维度组合检索,同时支持模糊匹配、精准匹配、范围查询,满足常规检索需求。
  • 向量语义检索引擎:基于 ES 的向量检索功能实现,我们将素材的标签、描述、内容特征转换为 768 维的特征向量,存入 ES 的向量字段;用户输入自然语言查询语句时,系统先将查询语句转换为向量,再通过余弦相似度匹配,找到最相关的素材,即使没有完全匹配的标签,也能实现精准的语义检索,例如用户输入 “双 11 产品宣传口播视频”,即可匹配到对应的素材。

(3)检索性能优化

为了支撑千万级素材的秒级检索,我们做了三个核心优化:

  1. 租户路由分片:ES 索引按租户 ID 进行分片路由,同一个租户的素材全部写入同一个分片,检索时必须携带租户 ID,仅扫描对应分片,无需全索引扫描,检索性能提升 10 倍以上。
  2. 时间分表策略:索引按月度分表,默认仅检索最近 3 个月的热数据索引,用户指定时间范围后再扫描对应索引,进一步减少扫描的数据量。
  3. 冷热节点分离:ES 集群分为热节点与冷节点,最近 3 个月的索引存储在热节点(SSD),更早的索引存储在冷节点(SATA),平衡检索性能与硬件成本。

4. 跨端数据同步与一致性保障

针对多端协同的需求,我们设计了事件驱动的增量同步架构,实现了 Windows、Android、H5 多端的数据实时同步,同时解决了弱网、离线场景下的数据一致性问题。

(1)增量同步核心架构

整体采用「服务端为唯一数据源,端侧本地缓存,增量事件同步」的架构,服务端是素材元数据的唯一可信源,各端仅缓存用户常用的元数据与素材文件,通过增量事件实现数据同步,避免全量同步带来的带宽与性能损耗。

核心同步流程:

  1. 素材的上传、修改、删除、标签更新、权限变更等所有操作,都会生成一个带有全局唯一版本号的增量事件,写入 RocketMQ 消息队列;
  2. 事件分发服务消费事件,通过 WebSocket 长连接推送给对应租户的在线端侧设备;
  3. 端侧收到事件后,对比事件版本号与本地最新版本号,若事件版本更新,则拉取增量数据,更新本地缓存,保障数据与服务端一致;
  4. 离线设备重新上线后,会上传本地最新版本号,服务端返回该版本之后的所有增量事件,端侧批量拉取更新,实现离线数据补齐。

(2)弱网与离线操作支持

为了保障弱网、离线环境下的用户操作体验,我们在端侧实现了本地操作队列 + 乐观锁冲突校验机制:

  • 弱网 / 离线环境下,用户的操作先写入端侧本地操作队列,同时更新本地缓存,立即给用户操作反馈,无需等待服务端响应;
  • 网络恢复后,端侧按顺序将本地队列中的操作提交到服务端,服务端通过乐观锁机制进行冲突校验;
  • 每个素材元数据都带有全局版本号,端侧提交操作时必须携带当前版本号,服务端校验版本号与当前最新版本一致,才允许执行操作;若版本不一致,说明该素材已被其他端修改,服务端返回冲突信息,端侧拉取最新数据后,由用户选择是否覆盖修改,保障数据不丢失、不冲突。

5. 素材全生命周期管理与合规体系

作为企业级系统,我们设计了完整的素材全生命周期管理流程,同时搭建了全链路合规审计体系,满足企业级合规要求。

(1)素材全生命周期管理

素材从上传到销毁,分为 5 个阶段,每个阶段都有对应的自动化规则与管控流程:

  1. 上传阶段:用户上传素材,系统完成分片接收、哈希校验、格式校验,同时生成元数据。
  2. 审核阶段:自动触发内容安全审核,对素材进行涉黄、涉暴、涉政、侵权检测,审核通过进入可用状态,审核不通过则禁止访问,同时通知用户。
  3. 可用阶段:素材可被检索、预览、下载、编辑,可被星链引擎的 AI 混剪、发布模块调用,同时系统自动统计素材的访问次数、使用次数、复用率。
  4. 归档阶段:超过 180 天无访问的素材,自动进入归档状态,迁移至冷存储,降低存储成本,用户可随时申请解冻恢复可用状态。
  5. 销毁阶段:超过保留期限的素材,系统自动触发删除提醒,用户确认后,彻底删除素材源文件与元数据,同时记录销毁日志,满足合规要求。

(2)全链路合规审计体系

我们搭建了完整的合规审计体系,满足《数据安全法》的相关要求:

  • 全操作审计日志:所有用户的所有素材操作,都会记录完整的审计日志,包括租户 ID、用户 ID、操作类型、素材信息、操作时间、IP 地址、设备信息、操作结果,日志永久留存,支持全维度检索与合规审计。
  • 内容安全合规:内置多层内容安全审核机制,自动拦截违规素材,杜绝违规内容传播,保障平台与租户的双合规。
  • 数据主权合规:租户拥有素材的完整数据主权,支持一键导出租户全量素材数据,一键销毁所有数据,满足数据合规要求。

四、线上踩坑复盘与优化方案

在系统上线与迭代的过程中,我们遇到了多个典型的线上问题,这里做完整的复盘与解决方案分享,帮助同类研发场景避坑。

坑 1:大文件分片上传导致的服务端 OOM 故障

问题现象:大促期间,大量用户同时上传 GB 级视频文件,素材上传服务的 Pod 频繁出现 OOM 被 K8s 重启,上传服务大面积不可用。根因分析:最初的分片上传实现中,我们将客户端上传的分片临时存储在 JVM 内存中,等待全部分片上传完成后再合并写入 MinIO。高并发大文件上传场景下,大量分片数据堆积在 JVM 内存中,导致内存占用飙升,最终触发 OOM。解决方案

  1. 重构分片上传流程,分片不再经过服务端内存中转,客户端直接通过预签名 URL 将分片上传至 MinIO 的临时目录,服务端仅负责分片的校验与合并指令下发,内存占用几乎为 0。
  2. 限制单用户的并发上传数,最多同时支持 3 个大文件上传,超出的请求进入排队队列,避免并发过高导致的带宽与资源占用过载。
  3. 优化 JVM 配置,采用 G1 垃圾回收器,调整新生代与老年代比例,设置大对象直接进入老年代,减少 Full GC 的频率与 STW 时间。优化效果:优化后,上传服务的内存占用下降了 95%,峰值并发场景下无 OOM 故障,服务可用性稳定在 99.99%。

坑 2:全索引扫描导致的检索性能抖动

问题现象:随着租户数量增长到 500+,素材总量突破千万级,部分用户的检索请求耗时超过 5 秒,甚至出现超时,ES 节点 CPU 占用率持续飙升至 100%。根因分析:最初的 ES 索引设计中,所有租户的素材数据都存在同一个全局索引中,检索时未做租户路由限制,每次检索都会扫描全索引的全部分片,千万级数据下,扫描耗时极高,并发检索时直接打满 ES 节点 CPU。解决方案

  1. 重构 ES 索引设计,新增租户路由字段,写入时按租户 ID 进行分片路由,同一个租户的素材全部写入同一个分片;检索时必须携带租户 ID,仅扫描对应分片,数据扫描量下降了数百倍。
  2. 实施月度分表策略,按自然月拆分索引,默认仅检索最近 3 个月的热数据索引,大幅减少扫描的数据量。
  3. 优化检索语句,给常用检索字段添加合适的索引,禁用通配符前缀查询等慢查询操作,同时配置 ES 慢查询监控,及时优化异常检索语句。优化效果:优化后,平均检索耗时从 2s 下降至 50ms 以内,99 分位耗时低于 200ms,ES 节点 CPU 占用率下降了 80%,无性能抖动问题。

坑 3:纠删码配置不合理导致的存储成本超支

问题现象:系统上线初期,存储成本远超预期,1TB 的实际素材文件,占用了近 2TB 的存储空间,存储成本翻倍。根因分析:最初为了保障极致的数据可用性,我们给全量数据都设置了 EC:8 的纠删码策略(8 个数据块 + 8 个校验块),冗余度 100%,虽然可用性极高,但存储成本也直接翻倍。而营销场景中,大部分素材属于可复现的运营数据,无需如此高的冗余度。解决方案

  1. 分层调整纠删码策略:热数据保留 EC:4 策略,保障高可用与访问性能;温冷数据调整为 EC:6 策略(6 个数据块 + 2 个校验块),冗余度降至 33%,大幅降低存储成本。
  2. 支持租户级自定义纠删码策略,针对金融、政府等对可用性要求极高的大客户,可自定义更高的冗余度,满足个性化需求。
  3. 开启重复数据删除功能,基于文件哈希值,对租户内的重复文件进行引用合并,避免重复存储,进一步节省存储空间。优化效果:优化后,整体存储成本下降了 40%,同时数据可用性依然满足 99.99% 的 SLA 要求。

五、性能测试与落地效果

核心性能测试结果

这套系统目前已在星链引擎中全量上线,经过压测与线上真实场景验证,核心性能指标如下:

测试指标测试结果
单集群最大支持租户数10000+
单租户最大支持素材数量100W+
单文件最大支持大小50GB
分片上传最大并发支持1000+ 并发 / 秒
素材检索平均耗时<50ms
对象存储数据可用性99.99%
全年服务可用性99.95%

业务落地效果

  1. 系统已稳定服务星链引擎 500 + 企业客户,管理超 5000 万条营销素材,总存储量突破 10PB,上线 2 年无重大故障,无跨租户数据泄露事件,全面满足企业级数据安全与合规要求。
  2. 为客户带来了显著的效率提升:素材检索耗时从原来的数分钟降至 50ms 以内,素材管理效率提升 300%,素材复用率提升 200%,整体存储成本下降 40%。
  3. 与星链引擎的 AI 视频混剪、文案生成、定时发布等核心模块深度打通,实现了从素材管理到内容生产、分发的全链路闭环,帮助客户的内容生产效率提升 250%,真正实现了营销全流程的自动化。

六、总结与未来规划

企业级多租户素材管理系统,是营销 SaaS 的核心基础设施,其架构设计的核心,是在数据安全、性能、成本、用户体验、合规要求之间找到最佳平衡。我们在星链引擎的研发过程中,没有盲目采用通用开源方案,而是基于真实的业务场景,从底层设计了这套多租户素材管理架构,解决了企业级场景下的核心痛点,同时经过了大规模线上场景的验证。

这套架构设计与实现方案,不仅适用于营销 SaaS 场景,也可以复用到在线教育、企业网盘、内容平台、直播电商等各类需要多租户素材管理的业务场景中,具备极强的通用性与可扩展性。

未来,我们会持续迭代优化这套系统,核心聚焦于四个方向:

  1. 升级多模态检索能力,基于更大的多模态大模型,实现以图搜图、以视频搜视频,进一步提升素材检索的精准度与易用性。
  2. 新增素材在线协同能力,支持素材在线编辑、多人协同、版本管理,实现素材从生产、管理到使用的全链路闭环。
  3. 实现存储的 Serverless 化,基于对象存储 Serverless 架构,实现资源的按需扩缩容,进一步降低存储成本。
  4. 优化 AI 智能打标能力,支持用户自定义行业标签体系,实现更贴合细分行业场景的智能打标与分类。