稀土掘金 稀土掘金
    • 首页
    • AI Coding NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • AI刷题
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
    • vip
      会员
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
  • 全部
  • 后端
  • Java
  • 面试
  • Go
  • Python
  • 架构
  • 前端
  • GitHub
  • MySQL
  • 展开
  • 全部
  • 后端
  • Java
  • 面试
  • Go
  • Python
  • 架构
  • 前端
  • GitHub
  • MySQL
  • 数据库
  • Spring Boot
  • 大数据
  • Linux
  • AI编程
  • C++
  • 暂无数据
    • 推荐
    • 最新
  • 大数据-122 - Flink Watermark 全面解析:事件时间窗口、乱序处理与迟到数据完整指南
    Flink 的 Watermark(水印)机制 是事件时间窗口计算中最核心的概念之一,用于处理 乱序事件(Out-of-Order Events) 并确保窗口准确触发。它通过定义系统认为“之前事件
    • 武子康
    • 11
    • 点赞
    后端 大数据 Flink
    大数据-122 - Flink Watermark 全面解析:事件时间窗口、乱序处理与迟到数据完整指南
  • SQL中的四大核心语言:DQL、DML、DDL、DCL
    SQL四大核心语言: 1. DQL(数据查询语言):用SELECT等检索数据,只读不修改,支持条件、分组、多表关联,用于数据分析。 2. DML(数据操作语言):通过INSERT/UPDATE
    • 玄妙尽在颠倒间
    • 42
    • 2
    数据库 大数据
    SQL中的四大核心语言:DQL、DML、DDL、DCL
  • 大数据-121 - Flink 时间语义详解:EventTime、ProcessingTime、IngestionTime 与 Watermark机制全解析
    Watermark 是一个特殊的标志,它用于告诉 Flink 数据流中事件的进展情况。简单来说,Watermark 是 Flink 中估计的“当前时间”,表示所有早于该时间戳的事件都已经到达。
    • 武子康
    • 15
    • 1
    后端 大数据 Flink
    大数据-121 - Flink 时间语义详解:EventTime、ProcessingTime、IngestionTime 与 Watermark机制全解析
  • HBase高级特性、rowkey设计以及热点问题处理
    更多干货抢先看:大数据技术干货合集 在阐述HBase高级特性和热点问题处理前,首先回顾一下HBase的特点:分布式、列存储、支持实时读写、存储的数据类型都是字节数组byte[],主要用来处理结构化和半
    • 智海观潮
    • 21
    • 点赞
    大数据 Hadoop HBase
  • 大数据-120 - Flink滑动窗口(Sliding Window)详解:原理、应用场景与实现示例 基于时间驱动&基于事件驱动
    滑动窗口(Sliding Window)是Apache Flink流处理中的核心机制之一,比固定窗口更灵活,广泛应用于实时监控、异常检测、趋势分析和用户行为统计等场景。滑动窗口由两个关键参数组成
    • 武子康
    • 45
    • 2
    后端 大数据 Flink
    大数据-120 - Flink滑动窗口(Sliding Window)详解:原理、应用场景与实现示例 基于时间驱动&基于事件驱动
  • 大数据-118 - Flink 批处理 DataSet API 全面解析:应用场景、代码示例与优化机制
    Flink 的 DataSet API 是批处理的核心编程接口,专为处理静态、有限数据集设计,支持 TB 级甚至 PB 级大数据分析。相比 DataStream API 的流处理
    • 武子康
    • 58
    • 4
    后端 大数据 Flink
    大数据-118 - Flink 批处理 DataSet API 全面解析:应用场景、代码示例与优化机制
  • 大数据-117 - Flink JDBC Sink 详细解析:MySQL 实时写入、批处理优化与最佳实践 写出Kafka
    JDBC Sink 是最常用的数据输出组件之一,常用于将流处理与批处理结果写入 MySQL、PostgreSQL、Oracle 等关系型数据库。通过 JdbcSink.sink() 方法,开发者
    • 武子康
    • 84
    • 3
    后端 大数据 Flink
    大数据-117 - Flink JDBC Sink 详细解析:MySQL 实时写入、批处理优化与最佳实践 写出Kafka
  • 大数据-116 - Flink Sink 使用指南:类型、容错语义与应用场景 多种输出方式与落地实践
    Flink 的 Sink 是数据流处理的最终输出端,用于将处理结果写入外部系统或存储介质。它是流式应用的终点,决定数据如何被保存、传输或消费。Sink 具备 数据输出、容错性和可扩展性 等特点
    • 武子康
    • 60
    • 2
    后端 大数据 Flink
    大数据-116 - Flink Sink 使用指南:类型、容错语义与应用场景 多种输出方式与落地实践
  • 大数据-115 - Flink DataStream Transformation Map、FlatMap、Filter 到 Window 的全面讲解
    Flink 针对 DataStream 提供了丰富的算子,支持数据流在不同场景下的灵活处理。常见的算子包括 Map、FlatMap 和 Filter,用于元素转换、拆分与条件筛选;KeyBy
    • 武子康
    • 56
    • 1
    后端 大数据 Flink
    大数据-115 - Flink DataStream Transformation Map、FlatMap、Filter 到 Window 的全面讲解
  • 大数据-106 Spark Graph X案例:1图计算、2连通图算法、3寻找相同用户 高效分区、负载均衡与迭代优化
    合理选择分区策略可显著降低网络通信开销、避免数据倾斜,并提升迭代计算效率。GraphX 提供了多种分区方式:边分区(默认,简单但可能产生倾斜)、顶点分区(适合顶点度不均匀的图)、以及 2D 分区(能有
    • 武子康
    • 314
    • 1
    后端 大数据 Spark
    大数据-106 Spark Graph X案例:1图计算、2连通图算法、3寻找相同用户 高效分区、负载均衡与迭代优化
  • 大数据-113 Flink 源算子详解:非并行源(Non-Parallel Source)的原理与应用场景
    非并行源(Non-Parallel Source)**是一种特殊的数据源操作,其并行度始终固定为 1。无论集群规模如何,它都只能在单一实例中运行,确保任务按顺序处理。非并行源的主要特点包括:单线程执行
    • 武子康
    • 93
    • 1
    后端 大数据 Flink
    大数据-113 Flink 源算子详解:非并行源(Non-Parallel Source)的原理与应用场景
  • 货拉拉离线大数据跨云迁移 - 数据迁移篇
    本文介绍了公司在离线大数据跨云迁移战略下,团队基于自研 Kirk 数据迁移服务进行功能升级与优化的过程,详述其高性能、可扩展的功能模块及迁移实施步骤,助力高并发、多样化数据高效迁移。
    • 货拉拉技术
    • 167
    • 2
    云原生 大数据
  • 大数据-114 Flink DataStreamAPI 从 SourceFunction 到 RichSourceFunction 源函数的增强与实战
    RichSourceFunction 和 RichParallelSourceFunction 是功能增强型的源函数,适用于需要复杂逻辑和资源管理的场景。相比基础的 SourceFunction
    • 武子康
    • 30
    • 1
    后端 大数据 Flink
    大数据-114 Flink DataStreamAPI 从 SourceFunction 到 RichSourceFunction 源函数的增强与实战
  • 大数据-109 Flink 架构深度解析:JobManager、TaskManager 与核心角色全景图
    Flink 的运行架构采用典型的 Master/Slave 模式,各核心组件分工明确。JobManager 作为 Master,负责作业的解析、调度、检查点协调以及故障恢复,同时支持高可用设计和多种作
    • 武子康
    • 124
    • 2
    后端 大数据 Flink
    大数据-109 Flink 架构深度解析:JobManager、TaskManager 与核心角色全景图
  • 货拉拉离线大数据跨云迁移-综述篇
    本文介绍了完整的大数据跨云迁移方案设计与实施全流程,希望能为行业内同类大数据迁移实践提供可借鉴的经验与思路
    • 货拉拉技术
    • 244
    • 1
    大数据 云原生
  • 大数据-112 Flink DataStream API :数据源、转换与输出 文件、Socket 到 Kafka 的完整流程
    DataSource、Transformation 和 Sink。DataSource 提供多样化的数据输入方式,包括文件系统、消息队列、数据库及自定义数据源;Transformation
    • 武子康
    • 49
    • 1
    后端 Flink 大数据
    大数据-112 Flink DataStream API :数据源、转换与输出 文件、Socket 到 Kafka 的完整流程
  • 大数据存储域——HBase数据库
    本文介绍了 HBase 数据库,包括其特点、组件、数据模型、数据写入与读取流程等基础知识,并分享了 HBase 实战经验总结,如性能指标、使用场景、与 HDFS 的关系、WAL 机制、数据删除原理
    • 庄小焱
    • 148
    • 1
    大数据
    大数据存储域——HBase数据库
  • 大数据-119 - Flink Flink 窗口(Window)全解析:Tumbling、Sliding、Session 应用场景 使用详解 最佳实践
    Flink 的 Window 窗口机制 是流处理与批处理统一架构的核心桥梁。Flink 将批处理视为流处理的特例,通过 时间窗口(Tumbling、Sliding、Session) 和 计数窗口
    • 武子康
    • 27
    • 1
    后端 大数据 Flink
    大数据-119 - Flink Flink 窗口(Window)全解析:Tumbling、Sliding、Session 应用场景 使用详解 最佳实践
  • Kafka 入门不踩坑!从概念到搭环境,后端 er 看完就能用
    本文专为后端er打造Kafka入门指南,用“快递站” analogy拆解Topic、分区等核心概念,对比其高吞吐等优势,详解核心特性与日志收集等场景及架构原理。
    • AAA专业写后端刘哥
    • 292
    • 3
    后端 Kafka 大数据
    Kafka 入门不踩坑!从概念到搭环境,后端 er 看完就能用
  • 大数据-108 Flink 流批一体化入门:概念解析与WordCount代码实践 批数据+流数据
    Apache Flink 既支持流处理(Stream Processing),也支持批处理(Batch Processing)。流处理适用于实时数据,如传感器、日志或交易流,特点是处理无界数据流、支持
    • 武子康
    • 63
    • 1
    后端 大数据 Flink
    大数据-108 Flink 流批一体化入门:概念解析与WordCount代码实践 批数据+流数据
  • 晚上好!
    点亮在社区的每一天

    推荐话题 换一换

    #挑战每日一条沸点#
    #挑战每日一条沸点#

    20.4m

    #金石焕新程#

    5.6m

    #每日快讯#

    9.2m

    #MCP 怎么玩#

    724k

    #每天一个知识点#

    41.9m

    #新人报道#

    35.3m

    #工作中做得最正确的一件事#
    #工作中做得最正确的一件事#

    351k

    #金石计划征文活动#
    #金石计划征文活动#

    36.6m

    #掘金一周#

    926k

    #我的技术写作成长之路#
    #我的技术写作成长之路#

    8.4m

    查看更多
    • 用户协议
    • 营业执照
    • 隐私政策
    • 关于我们
    • 使用指南
    • 友情链接
    • 更多后端文章
    • 举报邮箱: feedback@xitu.io
    • 座机电话: 010-83434395
    • 京ICP备:18012699号-3
    • 京ICP证:京B2-20191272
    • police 京公网安备11010802026719号
    • ©2025 稀土掘金