11招对比Pandas双列求和

1,259 阅读4分钟

公众号:尤而小屋
作者:Peter
编辑:Peter

大家好,我是Peter~

本文介绍的是通过11种方法来对比Pandas中DataFrame两列的求和

  • direct_add
  • for_iloc
  • iloc_sum
  • iat
  • apply(指定字段)
  • apply(针对整个DataFrame)
  • numpy_array
  • iterrows
  • zip
  • assign
  • sum

数据模拟

为了效果明显,模拟了一份5万条的数据,4个字段:

import pandas as pd
import numpy as np

data = pd.DataFrame({
    "A":np.random.uniform(1,1000,50000), 
    "B":np.random.uniform(1,1000,50000),
    "C":np.random.uniform(1,1000,50000),
    "D":np.random.uniform(1,1000,50000)
})

data

11种函数

下面是通过11种不同的函数来实现A、C两列的数据相加求和E列

方法1:直接相加

把df的两列直接相加

In [3]:

def fun1(df):
    df["E"] = df["A"] + df["C"]

方法2:for+iloc定位

for语句 + iloc方法的遍历循环

In [4]:

def fun2(df):
    for i in range(len(df)):  
        df["E"] = df.iloc[i,0] + df.iloc[i, 2]  # iloc[i,0]定位A列的数据

方法3:iloc + sum

iloc方法针对全部行指定列的求和:

  • 0:第一列A
  • 2:第三列C

In [5]:

def fun3(df):
    df["E"] = df.iloc[:,[0,2]].sum(axis=1)  # axis=1表示在列上操作

方法3:iat定位

for语句 + iat定位,类比于for + iloc

In [6]:

def fun4(df):
    for i in range(len(df)):
        df["E"] = df.iat[i,0] + df.iat[i, 2]

apply函数(只读两列)

apply方法 ,仅仅取出AC两列

In [7]:

def fun5(df):
    df["E"] = df[["A","C"]].apply(lambda x: x["A"] + x["C"], axis=1)

apply函数(全部df)

针对前部的DataFrame使用apply方法

In [8]:

def fun6(df):
    df["E"] = df.apply(lambda x: x["A"] + x["C"], axis=1)

numpy数组

使用numpy数组解决

In [9]:

def fun7(df):
    df["E"] = df["A"].values + df["C"].values

iterrows迭代

iterrows()迭代每行的数据

In [10]:

def fun8(df):
    for _, rows in df.iterrows():
        rows["E"] = rows["A"] + rows["C"]

zip函数

通过zip函数现将AC两列的数据进行压缩

In [11]:

def fun9(df):
    df["E"] = [i+j for i,j in zip(df["A"], df["C"])]

assign函数

通过派生函数assign生成新的字段E

In [12]:

def fun10(df):
    df.assign(E = df["A"] + df["C"])

sum函数

在指定的A、C两列上使用sum函数

In [13]:

def fun11(df):
    df["E"] = df[["A","C"]].sum(axis=1)

结果

调用11种函数,比较它们的速度:

统计每种方法下的均值,并整理成相同的us:

方法结果统一(us)
直接相加626us626
for + iloc9.61s9610000
iloc + sum1.42ms1420
iat9.2s9200000
apply(只取指定列)666ms666000
apply(全部列)697ms697000
numpy216us216
iterrows3.29s3290000
zip17.9ms17900
assign888us888
sum(axis=1)1.33ms1330
result = pd.DataFrame({"methods":["direct_add","for_iloc","iloc_sum","iat","apply_part","apply_all",
                                  "numpy_arry","iterrows","zip","assign","sum"],
                      "time":[626,9610000,1420,9200000,666000,697000,216,3290000,17900,888,1330]})
result

进行降序后的可视化:

result.sort_values("time",ascending=False,inplace=True)

import plotly_express as px

fig = px.bar(result, x="methods", y="time", color="time")
fig.show()

从结果中能够看到:

  • for循环是最耗时的,使用numpy数组最省时间,相差4万多倍;主要是因为Numpy数组使用的向量化操作
  • sum函数(指定轴axis=1)对效果的提升很明显

总结:循环能省则省,尽可能用Pandas或者numpy的内置函数来解决。

周末送书

书籍特点

周末福利又来了,送书3本:《Python商业数据挖掘》,感谢清华大学出版社的赞助👍

本书特点:本书除了介绍用于统计和机器学习等领域的预测、分类、可视化、降维、推荐系统、聚类、文本挖掘、网络分析等方法之外,内容还包括:

  1. 新亮点:首次讨论数据挖掘中的伦理问题。
  2. 反馈更新:作为第六版,本书根据教师和学生的反馈意见对内容做了更新。
  3. 案例实战:作者通过多个案例来展示数据挖掘技术的实际应用场景。
  4. 配套练习题:每章后面的习题有助于读者评估和加深对该章内容的理解。
  5. 在线资源:本书提供丰富的在线数据集、习题答案、PPT教案和案例解决方案等

赠送规则

  1. 留言 + 点赞的方式送书,留言最多的前2位读者 + 一位走心的读者;留言和数据挖掘相关
  2. 之前中奖的小伙伴暂时不参加本次活动,给其他人留点机会~
  3. 开奖时间:6月22日22点,准时开奖
  4. 注意事项:中奖者请24小时内联系小编;逾期不候。请勿刷赞,如若发现取消中奖资格,进入黑名单

没有中奖的小伙伴,不要气馁,欢迎点击购买: