首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
踩到棉花咯
掘友等级
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
15
文章 2
沸点 13
赞
15
返回
|
搜索文章
最新
热门
spark-standalone模式
一、Spark-Standalone 模式的特点 独立运行 Spark-Standalone 模式是 Spark 自带的集群管理方式,不需要依赖其他外部资源管理器。它通过自身的调度机制来管理集群资源和
hadoop的序列化和反序列化
1. Hadoop 序列化 (1)定义 序列化是指将对象转换为字节序列的过程。在 Hadoop 中,序列化是将数据对象转换为字节流,以便存储到文件系统(如 HDFS)中,或者通过网络传输到其他节点。
spark-配置yarn模式
环境准备 确保已正确安装并配置好 Hadoop 和 YARN。 确保已安装 Spark。 配置文件修改 修改 spark-env.sh 文件 复制模板文件:cp spark-env.sh.templa
打包spark代码在集群中运行
. 代码打包 (1)使用 Maven 打包(适用于 Java/Scala 项目) 确保项目中有一个 pom.xml 文件,定义项目的依赖关系和构建配置。 在 pom.xml 文件中添加 Spark 相
mysql数据库创建新数据库和数据表
一、创建新数据库 登录MySQL服务器 打开终端或命令行工具,使用以下命令登录MySQL服务器: bash 复制 将username替换为你的MySQL用户名,然后输入密码。 创建数据库 登录后,使用
mysql数据库配置
1. 安装MySQL 下载与安装:从MySQL官网下载适合你操作系统的安装包,并按照安装向导进行安装。 初始化数据库:在安装过程中,MySQL通常会自动初始化数据库,包括创建默认用户(如root)和必
sparkSQL基本使用
1. 环境准备 在使用 SparkSQL 之前,需要确保已经安装了 Apache Spark,并且配置了 Spark 环境。可以通过以下命令启动 Spark Shell 来进行交互式操作: bash
RDD-自定义分区器
. 什么是分区器(Partitioner)? 分区器的作用是将键值对RDD中的数据根据键(key)进行分区。分区器决定了每个键值对应该被分配到哪个分区中。Spark默认提供了几种分区器,例如HashP
sparkSQL基本使用
1. 启动 Spark Shell Spark Shell 是一个交互式的 Scala 命令行工具,可以用来快速测试 Spark SQL 的功能。启动方法如下: bash 复制 2. 创建 Spark
sparkSQL读入csv文件写入mysql
1. 环境准备 确保你已经安装了以下组件: Apache Spark MySQL 数据库 MySQL JDBC 驱动(确保 Spark 能够连接 MySQL 数据库) 2. 代码实现 以下是一个完整的
下一页
个人成就
文章被点赞
3
文章被阅读
3,505
掘力值
140
关注了
0
关注者
4
收藏集
0
关注标签
2
加入于
2024-09-04