首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
二十六画生的博客
掘友等级
大数据研发工程师
|
某头部大厂
技术、旅行、低调
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
47
文章 47
沸点 0
赞
47
返回
|
搜索文章
赞
文章( 47 )
沸点( 0 )
Leetcode 22. Generate Parentheses - 生成指定数量的有效圆括号,比如输入2,输出()()、(())
Leetcode 22. Generate Parentheses - 生成指定数量的有效圆括号,比如输入2,输出()()、(())
Leetcode 412. Fizz Buzz-蜂鸣器
Given an integer n, return a string array answer (1-indexed) where : answer[i] == "FizzBuzz" if i is
关于maven依赖中的<scope>provided</scope>使用
今天开发web的时候,需要用到servlet-api,于是在pom.xml中添加依赖 通过插件启动tomcat的时候,报错,里面有一段是这样的: 产生的原因是:tomcat中也有servlet-api
Mysql表到多大数据量才开始分库分表?垂直切分/水平切分
关系型数据库本身比较容易成为系统瓶颈,单机存储容量、连接数、处理能力都有限。当单表的数据量达到 1000W 或 100G 以后,由于查询维度较多,即使添加从库、优化索引,做很多操作时性能仍下降严重。此
Spark 解决倾斜
1 提前过滤异常值 2 增大shuffle并行度 3 两阶段聚合(局部聚合+全局聚合)【仅仅适用于聚合类的shuffle操作,适用范围相对较窄】 4 异常值 join ...... on -rand(
Java cas 与 synchronized 的区别
1、对于资源竞争较少的情况:性能cas>synchronized,使用synchronized同步锁进行线程阻塞和唤醒切换以及用户态内核态间的切换操作额外浪费消耗cpu资源;而CAS基于硬件实现,不需
Spark distinct去重原理 (distinct会导致shuffle)
distinct算子原理: 含有reduceByKey则会有shuffle 贴上spark源码: 示例代码: end
Flink Event Time / Processing Time / Ingestion Time (事件时间/处理时间/摄取时间)
概念 Flink supports different notions of time in streaming programs. flink支持不同的 time 流媒体的概念。 处理时间: 处理时
Kafka 消息队列如何保证顺序性?
主要思路:相同key值的消息写入同一个partition(partition内的消息是有序的),一个partition的消息只会被一个消费者消费。 如果一个消费者是多个线程消费,则需要把pull来的消
Flink On Yarn 架构/Job启动流程/部署模式
Flink On Yarn 架构 主要启动流程 1. 启动进程 首先我们通过下面的命令行启动flink on yarn的集群 bin/yarn-session.sh -n 3 -jm 1024 -nm
下一页
个人成就
文章被点赞
103
文章被阅读
56,952
掘力值
1,556
关注了
0
关注者
9
收藏集
0
关注标签
2
加入于
2021-06-18