1.1python数据分析简介
1.1.1 python做数据分析的优势
- 可以独立完成数据分析的各种任务
- 功能强大,有海量的开源包(pandas,numpy...)
- 处理海量数据效率高
- 开源免费
1.1.2 常用python数据分析开源库
-
numpy:用于数组计算
-
pandas:分析结构化数据的工具集
- series:类似一维数组的对象(一行数据或者一列数据)
- dataframe:表格型数据结构(有行有列的数据)
-
matplotlib,seaborn:可视化开源库
-
scikit-learn:基于python语言的机器学习开源库
-
jupyter notebook:不是开源库,是数据分析的首选开发环境,类似于pycharm
1.2 python数据分析环境搭建
1.2.1 anaconda简介
-
是数据分析平台
-
可以管理安装包和虚拟环境
-
概念:是一个包含了特定 Python 解析器以及一些软件包的自包含目录
-
作用
- 隔离不同python版本或者相同开源库的不同版本
- 能够让不同版本的代码在不同的虚拟环境中运行
-
虚拟环境常用终端行命令
# 创建虚拟环境 python=3.8 指定python版
conda create -n 虚拟环境名称 python=3.8
# 进入虚拟环境
conda activate 虚拟环境名称
# 退出虚拟环境
conda deactivate
# 删除虚拟环境
conda remove -n 虚拟环境名称 --all
# 查看已创建的虚拟环境
conda env list
1.2.3 anaconda的包管理功能
# 安装python的第三方包
pip install 包名
# 卸载python的第三方包
pip uninstall 包名
# 安装其他包速度慢可以指定国内镜像
# 阿里云:https://mirrors.aliyun.com/pypi/simple/
# 豆瓣:https://pypi.douban.com/simple/
# 清华大学:https://pypi.tuna.tsinghua.edu.cn/simple/
# 中国科学技术大学 http://pypi.mirrors.ustc.edu.cn/simple/
pip install 包名 -i https://mirrors.aliyun.com/pypi/simple/ #通过阿里云镜像安装
1.2.4 jupyter notebook的使用
-
终端启动
这种方式先启动cmd,通过切换虚拟环境和磁盘位置,再启动Jupyter notebook
# 可选操作,切换虚拟环境,使用不同的python解释器和包,默认使用base环境
conda activate 虚拟环境名字
# 切换磁盘位置,到指定目录下启动
cd d:/test
# 启动jupyter notebook
jupyter notebook
# 将终端网址复制到浏览器
# http://127.0.0.1:8888/?token=b37f5e4da9892205efd9d87db55260054232ddc0ebb25e78
-
常用快捷键【知道】
-
Jupyter Notebook中分为两种模式:命令模式和编辑模式
-
两种模式通用快捷键
Shift+Enter,执行本单元代码,并跳转到下一单元Ctrl+Enter,执行本单元代码,留在本单元
-
按ESC进入命令模式
Y,cell切换到Code模式M,cell切换到Markdown模式A,在当前cell的上面添加cellB,在当前cell的下面添加cell双击D:删除当前cell
-
编辑模式:按Enter进入,或鼠标点击代码编辑框体的输入区域
- 回退:
Ctrl+Z(Mac:CMD+Z) - 补全代码:变量、方法后跟
Tab键 - 为一行或多行代码添加/取消注释:
Ctrl+/(Mac:CMD+/)
- 回退:
-
-
使用markdown
- 在命令模式(ESC)中,按M即可进入到Markdown编辑模式
- markdown基本语法:标题和缩进
# 一级标题
## 二级标题
### 三级标题
- 一级缩进
- 二级缩进
- 三级缩进
1.3 pandas dataframe入门
1.3.1导包并加载数据
import pandas as pd
df = pd.read_csv('.../xxx.csv')
df = pd.read_csv('.../xxx.tsv',sep='\t')
...
-
csv和tsv文件的区别
- csv是以逗号作为行内数据的分隔符
- tsv是以\t(table)作为行内数据的分隔符
- 二者都是以换行符\n为行与行之间的分割
-
Pandas导出导入数据
pd.read_xxx()读取(导入)数据注意是pandas.read_xxxdf.to_xxx('.../xxx.xxx')保存(导出)数据注意是dataframe.to_xxx
1.3.2 查看部分数据
-
加载列数据
# 加载一列数据
df['列名']
# 加载多列数据
df[['列名1','列名2','列名3'...]]
- 加载行数据或者行列部分数据
# 通过行索引序号加载前五条数据,head(n=),默认n=5,可以手动传入想查看的行数
df.head()
# # 通过行索引序号加载后五条数据,tail(n=),默认n=5,可以手动传入想查看的行数
df.tail()
- loc:根据行索引标签/值加载行数据,还可以通过切片方法获取数据,左闭右闭
# 加载一行数据
df.loc['行索引值']
# 加载多行数据
df.loc[['行索引值1','行索引值2','行索引值3'...]]
df.loc['行索引值1':'行索引值2']
# 加载某行某列数据
df.loc[['行索引值'],['列索引值']]
# 加载多行多列
df.loc[['行索引值1','行索引值2'...],['列索引值1','列索引值2'...]]
df.loc['行索引值1':'行索引值2','列索引值1':'列索引值2']
- iloc:根据行索引序号加载行数据,还可以通过切片方法获取数据,左闭右开
# 加载一行数据
df.iloc['行索引序号']
# 加载多行数据
df.iloc[['行索引序号1','行索引序号2','行索引序号3'...]]
df.iloc['行索引序号1':'行索引序号2']
# 加载某行某列数据
df.iloc[['行索引序号'],['列索引序号']]
# 加载多行多列
df.iloc[['行索引序号1','行索引序号2'...],['列索引序号1','列索引序号2'...]]
df.iloc['行索引序号1':'行索引序号2','列索引序号1':'列索引序号2']
1.3.3 分组聚合
- 分组聚合表达式
# 对一列分组一列聚合
df.groupby('分组的列名')['聚合的列名'].聚合函数()
# 对多列分组多列聚合 注意多列分组聚合时,聚合部分为两个列表,否则报错
df.groupby(['分组的列名1','分组的列名2'...])[['聚合的列名1','聚合的列名2'...]].聚合函数()
- 常用的聚合函数
sum() # 求和
mean() # 求平均
std() # 标准差
max() # 最大值
min() # 最小值
count() # 非空值个数
nunique() # 唯一值个数
1.4 pandas数据结构
1.4.1 Series常用操作
-
Series创建:传入一个Python列表
- 如果传入的数据类型是统一的数字,那么最终的dtype类型是int64
- 如果传入的数据类型是统一的字符串,那么最终的dtype类型是object
- 如果传入的数据类型是多种类型,那么最终的dtype类型也是object
# data=,传入要python列表;index=指定行索引,不传的话行索引默认为0,1,2...
pd.Series(data=,index=)
# 例子1
s = pd.Series(['banana', 42])
# 输出结果如下
0 banana
1 42
dtype: object
#例子2
s = pd.Series(['Wes McKinney','Male'],index = ['Name','Gender'])
# 输出结果如下
Name Wes McKinney
Gender Male
dtype: object
- Series常用属性
s.index # 获取行索引,属性
s.keys() # 获取行索引,方法
# 属性后面不加(),方法后面加()
s.values # 获取值
- Series常用方法
s.mean() # 平均值
s.max() # 最大值
s.min() # 最小值
s.std() # 标准差
s.value_counts() # 不同值(不同类别)的条目数量
s.count() # 非空值个数
s.describe()
# 输出数值列统计描述:①count非空值个数,②mean平均值,③std标准差,④max最小值,⑤25%四分之一分位值,⑥50%二分之一分位值,⑦75%四分之三分位值,⑧最大值
# 输出非数值列统计描述:①count非空值个数,②unique唯一值个数,③top出现次数最多的值,④freq出现最多值的次数
- 通过布尔值列表获取Series部分数据
s[[True,False,True,False]]
# 返回为True的值,最后返回两个值
-
Series运算
-
series和数值型变量计算
- 变量和series中的每个元素逐一进行计算
-
两个Series之间计算
- 根据索引匹配规则进行计算,相同的索引进行计算,不同的索引无法计算,用NaN填充
-
1.4.2 DataFrame常用操作
- 常用属性和方法
df.shape # 查看行数,列数
df.size # 查看数据个数
len(df) # 查看数据行数
df.count() # 查看各列非空值个数
df.max() # 查看各列最大值,数值列返回最大值,非数值列返回出现次数最多的值
df.min()
df.describe() # 返回数值列统计描述
-
DataFrame的布尔索引
- 同Series一样,DataFrame也可以使用布尔索引获取数据子集
# 获取前5行数据中的第1、2、4个
movie.head()[[True,True,False,True,False]]
-
dataframe的运算
- 当DataFrame和数值进行运算时,DataFrame中的每一个元素会分别和数值进行运算
- 两个DataFrame之间进行计算,和series一样会根据索引的值进行对应计算
- 当两个DataFrame索引值不能对应时,不匹配的会返回NaN
- DataFrame中如果有非数值列,只能进行相加或者相乘的操作,对非数值列进行复制,其他计算会发生报错
-
指定某列为DataFrame索引
df.set_index('列名') # 括号里列为指定索引列
pd.read_csv('path',index_col='列名') # 加载数据时通过index_col指定某列为df的索引
df.reset_index() # 重置索引,变为0,1,2,3...
- 修改行名列名
# 方法一
df.rename(index={'原行名1':'新行名1','原行名2':'新行名2'...},columns={'原列名1':'新列名1','原列名2':'新列名2'...},inplace=True)
# index=,columns= 后跟要修改的行列名字典
# inplace=True 在源数据上修改,默认False,在内存或者副本上修改,源数据并没有修改
# 涉及到df修改删除操作,不指定inplace=True,默认源数据不会进行修改,或者将修改的数据重新保存为一个变量名
# 方法二
将df.index 和 df.columns属性提取出来,修改之后,再赋值回去
-
添加列
- 通过
dataframe['列名']添加新列,添加至最后
- 通过
df['新列名'] = 常数
df['新列名'] = df['列名1'] + df['列名2'] # 数值列加减乘除都可以,一行一行计算
- 删除列
df.drop('列名',axis='columns',inplace=True) # inplace=True源数据上删除,axis='columns',默认按行删除,axis='index'
- 插入列
df.insert(loc=列下标数字, column='列名', value=该列所有的值)
# loc= 插入列的位置,按列索引序号
# column= 新插入列的名字
# value= 新插入列的值,可以是常用,也可以是计算完的结果
1.4.3 导出导入数据
- 导入加载数据
pd.read_xxx('文件路径')
# 常用方法 read_csv(),read_excel()
# 加载mysql数据库数据
# 方法一:用DBAPI构建数据库链接engine
import pandas as pd
import pymysql
conn = pymysql.connect(host='localhost',
user='root',
password='',
database='database_name')
df = pd.read_sql("select * from table_name",con=conn)
# 方法二:用sqlalchemy构建数据库链接engine
import sqlalchemy
from sqlalchemy import create_engine
#connect_info = 'mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8'.format(DB_USER, DB_PASS, DB_HOST, DB_PORT, DATABASE)
connect_info = 'mysql+pymysql://{}:{}@{}:{}/{}'.format('root',
'',
'localhost',
3306,
'nowcoderdb')
engine=create_engine(connect_info)
df=pd.read_sql("select * from table_name",con=engine)
- 导出数据
pd.to_xxx('文件路径')
# 常用方法 to_csv(),to_excel()
# 导出数据到msyql数据库
import sqlalchemy
from sqlalchemy import create_engine
#connect_info = 'mysql+pymysql://{}:{}@{}:{}/{}?charset=utf8'.format(DB_USER, DB_PASS, DB_HOST, DB_PORT, DATABASE)
connect_info = 'mysql+pymysql://{}:{}@{}:{}/{}'.format('root',
'',
'localhost',
3306,
'nowcoderdb')
engine=create_engine(connect_info)
df.to_sql('表名',engine,if_exists='')
# if_exists='',replace:删除表,重新创建保存数据(覆盖数据),append:向表中追加数据
1.5 Pandas数据分析入门
- describe()
- 默认打印数据值列统计描述
- 打印非数值列统计描述
import numpy as np
df.describe(include=[np.object, pd.Categorical])
# np.object 字符串类型
# pd.Categorical dataframe特有的类别类型
-
info()
- 返回所有字段的条目数量、数据类型、是否缺失,及当前数据集整体的内存占用情况
-
常用排序方法
- nlargest()
df.nlargest(n,columns)
# 根据指定列的值由大到小排列,返回n行数据
-
- nsmallest()
df.nsmallest(n,columns)
# 根据指定列的值由小到大排列,返回n行数据
-
- sort_values()
# 对一列进行排序 ascending默认升序True,False为降序
df.sort_values(by='列名',ascending='')
# 对多列进行排序
# 多列排序时,ascending 参数传入一个列表,排序参数也是一个列表,并且一一对应
df.sort_values(by=['列名1','列名2'...],ascending='')
df.sort_values(by=['列名1','列名2'...],ascending=[True,False...])
- 去重
# 删除列名1,列名2...相同的数据,默认保留第一条数据
df.drop_duplicates(subset=['列名1','列名2'...])