首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
关注
综合
后端
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
排行榜
综合
后端
排行榜
前端
Android
iOS
人工智能
开发工具
代码人生
阅读
全部
后端
Java
面试
Go
Python
架构
前端
GitHub
MySQL
展开
全部
后端
Java
面试
Go
Python
架构
前端
GitHub
MySQL
数据库
Spring Boot
大数据
Linux
AI编程
C++
暂无数据
推荐
最新
大数据-122 - Flink Watermark 全面解析:事件时间窗口、乱序处理与迟到数据完整指南
Flink 的 Watermark(水印)机制 是事件时间窗口计算中最核心的概念之一,用于处理 乱序事件(Out-of-Order Events) 并确保窗口准确触发。它通过定义系统认为“之前事件
SQL中的四大核心语言:DQL、DML、DDL、DCL
SQL四大核心语言: 1. DQL(数据查询语言):用SELECT等检索数据,只读不修改,支持条件、分组、多表关联,用于数据分析。 2. DML(数据操作语言):通过INSERT/UPDATE
大数据-121 - Flink 时间语义详解:EventTime、ProcessingTime、IngestionTime 与 Watermark机制全解析
Watermark 是一个特殊的标志,它用于告诉 Flink 数据流中事件的进展情况。简单来说,Watermark 是 Flink 中估计的“当前时间”,表示所有早于该时间戳的事件都已经到达。
HBase高级特性、rowkey设计以及热点问题处理
更多干货抢先看:大数据技术干货合集 在阐述HBase高级特性和热点问题处理前,首先回顾一下HBase的特点:分布式、列存储、支持实时读写、存储的数据类型都是字节数组byte[],主要用来处理结构化和半
大数据-120 - Flink滑动窗口(Sliding Window)详解:原理、应用场景与实现示例 基于时间驱动&基于事件驱动
滑动窗口(Sliding Window)是Apache Flink流处理中的核心机制之一,比固定窗口更灵活,广泛应用于实时监控、异常检测、趋势分析和用户行为统计等场景。滑动窗口由两个关键参数组成
大数据-118 - Flink 批处理 DataSet API 全面解析:应用场景、代码示例与优化机制
Flink 的 DataSet API 是批处理的核心编程接口,专为处理静态、有限数据集设计,支持 TB 级甚至 PB 级大数据分析。相比 DataStream API 的流处理
大数据-117 - Flink JDBC Sink 详细解析:MySQL 实时写入、批处理优化与最佳实践 写出Kafka
JDBC Sink 是最常用的数据输出组件之一,常用于将流处理与批处理结果写入 MySQL、PostgreSQL、Oracle 等关系型数据库。通过 JdbcSink.sink() 方法,开发者
大数据-116 - Flink Sink 使用指南:类型、容错语义与应用场景 多种输出方式与落地实践
Flink 的 Sink 是数据流处理的最终输出端,用于将处理结果写入外部系统或存储介质。它是流式应用的终点,决定数据如何被保存、传输或消费。Sink 具备 数据输出、容错性和可扩展性 等特点
大数据-115 - Flink DataStream Transformation Map、FlatMap、Filter 到 Window 的全面讲解
Flink 针对 DataStream 提供了丰富的算子,支持数据流在不同场景下的灵活处理。常见的算子包括 Map、FlatMap 和 Filter,用于元素转换、拆分与条件筛选;KeyBy
大数据-106 Spark Graph X案例:1图计算、2连通图算法、3寻找相同用户 高效分区、负载均衡与迭代优化
合理选择分区策略可显著降低网络通信开销、避免数据倾斜,并提升迭代计算效率。GraphX 提供了多种分区方式:边分区(默认,简单但可能产生倾斜)、顶点分区(适合顶点度不均匀的图)、以及 2D 分区(能有
大数据-113 Flink 源算子详解:非并行源(Non-Parallel Source)的原理与应用场景
非并行源(Non-Parallel Source)**是一种特殊的数据源操作,其并行度始终固定为 1。无论集群规模如何,它都只能在单一实例中运行,确保任务按顺序处理。非并行源的主要特点包括:单线程执行
货拉拉离线大数据跨云迁移 - 数据迁移篇
本文介绍了公司在离线大数据跨云迁移战略下,团队基于自研 Kirk 数据迁移服务进行功能升级与优化的过程,详述其高性能、可扩展的功能模块及迁移实施步骤,助力高并发、多样化数据高效迁移。
大数据-114 Flink DataStreamAPI 从 SourceFunction 到 RichSourceFunction 源函数的增强与实战
RichSourceFunction 和 RichParallelSourceFunction 是功能增强型的源函数,适用于需要复杂逻辑和资源管理的场景。相比基础的 SourceFunction
大数据-109 Flink 架构深度解析:JobManager、TaskManager 与核心角色全景图
Flink 的运行架构采用典型的 Master/Slave 模式,各核心组件分工明确。JobManager 作为 Master,负责作业的解析、调度、检查点协调以及故障恢复,同时支持高可用设计和多种作
货拉拉离线大数据跨云迁移-综述篇
本文介绍了完整的大数据跨云迁移方案设计与实施全流程,希望能为行业内同类大数据迁移实践提供可借鉴的经验与思路
大数据-112 Flink DataStream API :数据源、转换与输出 文件、Socket 到 Kafka 的完整流程
DataSource、Transformation 和 Sink。DataSource 提供多样化的数据输入方式,包括文件系统、消息队列、数据库及自定义数据源;Transformation
大数据存储域——HBase数据库
本文介绍了 HBase 数据库,包括其特点、组件、数据模型、数据写入与读取流程等基础知识,并分享了 HBase 实战经验总结,如性能指标、使用场景、与 HDFS 的关系、WAL 机制、数据删除原理
大数据-119 - Flink Flink 窗口(Window)全解析:Tumbling、Sliding、Session 应用场景 使用详解 最佳实践
Flink 的 Window 窗口机制 是流处理与批处理统一架构的核心桥梁。Flink 将批处理视为流处理的特例,通过 时间窗口(Tumbling、Sliding、Session) 和 计数窗口
Kafka 入门不踩坑!从概念到搭环境,后端 er 看完就能用
本文专为后端er打造Kafka入门指南,用“快递站” analogy拆解Topic、分区等核心概念,对比其高吞吐等优势,详解核心特性与日志收集等场景及架构原理。
大数据-108 Flink 流批一体化入门:概念解析与WordCount代码实践 批数据+流数据
Apache Flink 既支持流处理(Stream Processing),也支持批处理(Batch Processing)。流处理适用于实时数据,如传感器、日志或交易流,特点是处理无界数据流、支持