首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
zhyy
掘友等级
人工智能大数据
|
互联网
业精于勤荒于嬉,行成于思毁于随
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
19
文章 19
沸点 0
赞
19
返回
|
搜索文章
最新
热门
Leetcode55 & 45 跳跃游戏
方法一:递归+记忆集,思考起来比较简单,但是因为有循环递归,非常耗时; 方法二:直接用贪心算法的思想,每次取最远的地方跳过去
Leetcode62 & 63不同路径
这是一道典型的动态规划问题,状态转移方程也比较直接,以下列出三种优化方式,优化空间复杂度 1.状态转移方程 令dp[i][j] 是到达 i, j 最多路径 这道题我们从终点[m-1][n-1]这个ta
Leecode 451字符串频率
这道题很简单,秒选哈希表(虽然时间复杂度比较高,这个之后讲),但是写的时候才想起来HashMap只能对Key进行排序,算是借着这个小题提醒下自己。可以先把Map专成List,然后就能用Collecti
本地虚拟机集群数仓搭建实践
@TOC 本文参考尚硅谷的视频配置,组件较多,可根据需要酌情配置 一. 环境准备 内存4G,硬盘50G (根据自己的电脑配置酌情决定,内存最好4G起步) 安装好linux /boot 200M /sw
Apache Griffin+Flink+Kafka数据质量监控实践
一. 组件及版本 本文用的组件包括以下几个,是参考了官方案例,版本可以参考github以及里面的pom文件。本文假定以下环境均已安装好。 JDK (1.8) MySQL(version 5.6) Ha
Apache Griffin调试过程bug记录
1、数据库报错 Table 'quartz.DATACONNECTOR' doesn't exist 这个问题要具体看具体分析,不过大概率是因为要插入的字段太长,超出数据库限制长度造成JPA创建表失败
数据分区方法总结
数据分区与数据复制 分区通常与复制结合使用,即每个分区在多个节点都存有副本。这意味着某条记录属于特定分区 ,而同样的内容会保存在不同的节点上以提高系统的容错性。 一个节点上可能存储了多个分区。每个分区
五. Apache Griffin UI界面化操作
1. Apache Griffin 用户界面操作 Apache Griffin 是一种开源数据质量解决方案,适用于流式或批处理数据上下文中任何规模的分布式数据系统。 而且他还提供了基于Angular的
四.Apache Griffin基于Hive batch批数据的质量监控实战
数据集 此案例适用于基于hive,HDFS等批数据作为数据源进行数据质量监控。 假设我们有一个数据集(demo_src),按小时划分,我们想知道每个小时的数据是什么样的。 为简单起见,假设两个数据集都
三. Apache Griffin基于Spark Streaming流数据质量监控实战
数据集 假设我们在不同的 kafka 主题(源、目标)中有两个流数据集,我们需要根据源数据集知道目标数据集的数据质量如何。 为简单起见,假设两个主题的数据都是 json 字符串,如下所示 环境准备 为
下一页
个人成就
文章被点赞
42
文章被阅读
32,318
掘力值
875
关注了
2
关注者
12
收藏集
0
关注标签
0
加入于
2021-06-18