本文已参与「新人创作礼」活动,一起开启掘金创作之路。
PySpark - DataFrame的基本操作
- 连接spark
- 1、添加数据
- 2、修改数据
- 3、查询数据
-
- 3.1、行数据查询操作
-
- 3.1.1、show函数内可用int类型指定要打印的行数:.show()
- 3.1.2、以树的形式打印概要: .printSchema()
- 3.1.3、获取头几行到本地: head()
- 3.1.4、查询总行数: count()
- 3.1.5、取别名: dataframe.column.alias('new_col_name')
- 3.1.6、查询数据框中某列为null的行
- 3.1.7、输出list类型,list中每个元素是Row类:
- 3.1.8、查看数据框中数值型列的统计情况(stddev是标准差的意思)
- 3.1.9、去重操作 : .distinct() 和 dropDuplicates()
- 3.1.10、随机抽样
- 3.2、列元素操作
- 4、提取数据
- 5、删除数据
- 6、合并数据
- 7、统计数据
- 8、格式转换
- 9、SQL操作
- 10、读写数据
连接spark
ps:我使用的是单机版spark3.0版本
import socket
from pyspark import SparkContext, SparkConf
from pyspark.sql import SparkSession
from pyspark.sql import SQLContext
import pandas as pd
localIpAddress = socket.gethostbyname(socket.gethostname())
# 创建Spark配置
sparkConf = SparkConf()
# 初始化我们的Spark集群,这实际上会生成工作节点。
spark = SparkSession.builder.config(conf=sparkConf).getOrCreate()
sc = spark.sparkContext
sqlContext = SQLContext(sc)
spark
1、添加数据
创建spark的数据框有这么两种常规的新建数据方式:
①.createDataFrame ()
②.toDF()
1.1、createDataFrame: 创建空dataframe
from pyspark.sql.types import *
schema = StructType([
StructField("user_id", StringType(), True),
StructField("name", StringType(), True),
StructField("age", IntegerType(), True),
StructField("score", FloatType(), True)
])
empty_dataframes = spark.createDataFrame(spark.sparkContext.emptyRDD(), schema)
1.2、createDataFrame : 创建一个spark数据框
sdf = sqlContext.createDataFrame([("a1", "小明", 12, 56.5), ("a2", "小红", 15, 23.0),\
("a3", "小强", 23, 84.0), ("a3","小小",9,93.5)],\
("user_id", "name", "age", "score"))
1.3、.toDF() : 创建一个spark数据框
from pyspark.sql import Row
row = Row("user_id","name","age","score")
row_user_id = ['a1','a2','a3','a4']
row_name = ['小明','小红','小强','小小']
row_age = [12,15,23,9]
row_score = [56.5,23.0,84.0,93.5]
sdf1 = sc.parallelize([row(row_user_id[i],row_name[i],row_age[i],row_score[i]) for i in range(len(row))]).toDF()
1.4、新增数据列 :withColumn
withColumn是通过添加或替换与现有列有相同的名字的列,返回一个新的DataFrame
sdf2 = sdf1.withColumn('score_new',sdf1.score/2.0)
如果不想在原有列的基础上添加新的列,而是添加一列全新的,不同于原有数据框的列,可以考虑join()函数
import numpy as np
sdf3 = sqlContext.createDataFrame([("a1",3.0), ("a2",3.0), ("a3",np.nan)], ("user_id_class", "class"))
sdf4 = sdf2.join(sdf3,sdf2.user_id==sdf3.user_id_class,'left').drop('user_id_class')
2、修改数据
2.1、修改原有数据框中某一列的值(统一修改)
sdf5 = sdf4.withColumn('score_new',sdf4.score_new/2)
2.2、修改列的类型(类型投射):.cast()
sdf6 = sdf4.withColumn('score_new',sdf4.score_new.cast("Int"))
2.3、修改列名 : withColumnRenamed
sdf6 = sdf6.withColumnRenamed("score_new","new_score")
2.4、过滤数据 : filter和where方法的效果相同
sdf7 = sdf6.filter(sdf6.age>10)
sdf7 = sdf6.where(sdf6.age>9).where(sdf6.age<23)
2.5、对null或者NaN数据进行过滤
from pyspark.sql.functions import isnan, isnull
sdf9 = sdf6.filter(isnull("class")) # 把a列里面数据为null的筛选出来(代表python的None类型)
sdf10 = sdf6.filter(isnan("class")) # 把a列里面数据为nan的筛选出来(Not a Number,非数字数据)
2.6、填充NA : fillna
sdf6.fillna(-1)
3、查询数据
3.1、行数据查询操作
3.1.1、show函数内可用int类型指定要打印的行数:.show()
sdf.show(5)
3.1.2、以树的形式打印概要: .printSchema()
sdf.printSchema()
3.1.3、获取头几行到本地: head()
list = sdf.head(3)
3.1.4、查询总行数: count()
sdf_num = sdf.count()
3.1.5、取别名: dataframe.column.alias(‘new_col_name’)
# 给age列取别名
sdf.select('user_id',sdf.age.alias('age_value'),'name').show()
3.1.6、查询数据框中某列为null的行
from pyspark.sql.functions import isnull
# 查询class列中含有空数据的那一行
sdf11 = sdf4.filter(isnull("class"))
3.1.7、输出list类型,list中每个元素是Row类:
list = sdf.collect()
3.1.8、查看数据框中数值型列的统计情况(stddev是标准差的意思)
sdf.describe()
3.1.9、去重操作 : .distinct() 和 dropDuplicates()
sdf.select(['user_id','name','age','score']).distinct()
sdf.select(['user_id','name','age','score']).dropDuplicates()
3.1.10、随机抽样
sample = sdf.sample(False,0.5,2) # 随机选择50%的行,取其中两个
3.2、列元素操作
3.2.1、获取数据框的所有列名
sdf.columns
3.2.2、选择一列或多列:select
sdf['age']
sdf.age
sdf.select('age').show() #选择sdf数据框中age列
sdf.select(sdf.user_id,sdf.age,sdf.name).show() #选择sdf数据框中user_id列,age列,name列
3.2.3、排序 : orderBy
sdf.orderBy(sdf.age).show() # 根据age列升序排序
sdf.orderBy(sdf.age.desc()).show() # 根据age列降序排序
4、提取数据
4.1、将dataframe转为字典
dict_sdf = sdf.rdd.map(lambda x: x.asDict(True)).collect()
4.2、将dataframe的某一列转化为list
list_name = sdf.select('name').collect()
list = [row[0] for row in list_name]
5、删除数据
5.1、删除某一列 : drop()
sdf12 = sdf.drop('age')
sdf13 = sdf.drop(sdf.age)
5.2、删除任何包含na的行
sdf14 = sdf5.na.drop()
# 扔掉user_id或class中任一一列包含na的行
sdf15 = sdf5.dropna(subset=['user_id','class'])
6、合并数据
6.1、横向拼接 : union()
sdf_union = sdf.union(sdf1)
6.2、纵向拼接:join()
sdf16 = sdf5.join(sdf14, sdf5.user_id == sdf14.user_id,'inner')
PS:其中,方法可以为:inner, outer, left_outer, right_outer, leftsemi。
6.3、求差集 : subtract()
sdf17 = sdf5.subtract(sdf14)
6.4、求交集 : intersect()
sdf18 = sdf5.intersect(sdf14)
6.5、求并集 : union()
# 求并集然后去重
sdf19 = sdf5.union(sdf14).distinct()
7、统计数据
7.1、交叉统计 : crosstab()
# 分析关于name列在class列中各个不同的值的数量
sdf19.crosstab('name','class')
7.2、分组统计 : groupBy()
先创建一个案例数据框
from pyspark.sql import Row
row = Row("user_id","product_id","name","money")
row_user_id = ['a1','a2','a3','a3','a1','a2']
row_product_id = ['b1','b2','b3','b1','b2','b3']
row_name = ['小明','小红','小强','小强','小明','小红']
row_money = [56.5, 23.0, 84.0, 93.5, 12.7, 43.5, 86.1]
sdf_gb = sc.parallelize([row(row_user_id[i],row_product_id[i],row_name[i],row_money[i]) for i in range(len(row_user_id))]).toDF()
# 分组统计不同名字的人的平均消费水平
sdf_gb.groupby('name').agg({'money':'mean'})
# 分组统计不同名字的人最大的一笔消费
sdf_gb.groupby('name').agg({'money':'max'})
# 分组统计不同名字的人最小的一笔消费
sdf_gb.groupby('name').agg({'money':'min'})
# 分组统计不同名字的人的消费总和
sdf_gb.groupby('name').agg({'money':'sum'})
# 分组统计不同名字的人一共有多少笔消费
sdf_gb.groupby('name').count()
7.3、应用于多个函数
PS:整合后GroupedData类型可用的方法(均返回DataFrame类型):
- avg(*cols) —— 计算每组中一列或多列的平均值
- count() —— 计算每组中一共有多少行,返回
- DataFrame有2列,一列为分组的组名,另一列为行总数
- max(*cols) —— 计算每组中一列或多列的最大值
- mean(*cols) —— 计算每组中一列或多列的平均值
- min(*cols) —— 计算每组中一列或多列的最小值
- sum(*cols) —— 计算每组中一列或多列的总和
from pyspark.sql import functions
sdf_gb.groupby('name').agg(functions.avg('money'),functions.min('money'),functions.max('money'),functions.sum('money'),functions.count('money')).show()
8、格式转换
8.1、pandas.DtataFrame 与 Spark.DataFrame两者互相转换
pandas_df = sdf.toPandas()
spark_df = spark.createDataFrame(pandas_df)
8.2、Spark.DataFrame与Koalas.DataFrame两者互相转换
import databricks.koalas as ks
koalas_df = spark_df.to_koalas()
spark_df = koalas_df.to_spark()
8.3、spark.DataFrame与RDD两者相互转换
rdd_df = spark_df.rdd
rdd_df.collect()
saprk_df = rdd_df.toDF()
9、SQL操作
9.1、创建视图
为spark.DataFrame创建一张能进行SQL操作的表:
sdf.createOrReplaceTempView("sdf_SQL")
9.2、正常的查询语句
将spark.DataFrame注册成相关名字的SQL表之后:就可以进行SQL查询了(返回DataFrame):
select_sql = "select * from sdf_SQL where name like '%{}%' and score>{}".format('小',60)
Spark_dataframe = spark.sql(select_sql)
9.3、转换某一列的时间格式
sdf_date = sqlContext.createDataFrame([("a1", "小明","2020-09-01 23:00:00"),\
("a2", "小红","2020-09-02 13:00:00"),\
("a3", "小强", "2020-09-03 03:00:00"),\
("a4","小小","2020-09-04 23:00:00")],\
("user_id", "name","date_time"))
将date_time这一列的时间从精确到秒修改为精确到日:
import pyspark.sql.functions as F
sdf_date1 = sdf_date.select('user_id','name',F.date_format('date_time','yyyy-MM-dd')).withColumnRenamed('date_format(date_time, yyyy-MM-dd)','date_time')
同理,也可以将精确到日修改为精确到秒(默认为凌晨12点整):
sdf_date2 = sdf_date1.select('user_id','name',F.date_format('date_time','yyyy-MM-dd HH:mm:ss')).withColumnRenamed('date_format(date_time, yyyy-MM-dd HH:mm:ss)','date_time')
10、读写数据
10.1、spark.DataFrame与csv文件的相互转换
# 将spark.dataframe保存为csv文件
sdf.write.csv("sdf.csv",header=True,sep=",",mode='overwrite')
# 读取csv文件为spark.dataframe
sdf_spark = spark.read.csv("sdf.csv",header=True, inferSchema=True)
其中,sdf.csv文件是存储在当前目录的,如果想指定目录,把指定的路径也写上去就行。
10.2、spark.DataFrame与parquet文件的相互转换
# 将spark.dataframe保存为parquet文件
sdf.write.parquet("sdf.parquet",mode='overwrite')
# 读取parquet文件为spark.dataframe
sdf_spark = spark.read.parquet("sdf.parquet")
最后,如果大家不再进行任何操作的话,记得把spark停掉!!!
spark.stop()