前不久在咱们技术交换群有群友提到最近他面试 阿里 70 万总包 的数据岗位,对方问 Pandas
的5
种 数据合并 的函数,后果他只答出了 2
个。
那么,到底是哪五个呢?明天,咱们就来带大家理解一下!
目录:
-
- concat
-
- append
-
- merge
-
- join
-
- combine
- 总结
1. concat
concat
是 pandas
中专门用于数据连贯合并的函数,性能十分弱小,反对 纵向合并 和横向合并,默认状况下是纵向合并,具体能够通过参数进行设置。
pd.concat(objs: 'Iterable[NDFrame] | Mapping[Hashable, NDFrame]',
axis=0,
join='outer',
ignore_index: 'bool' = False,
keys=None,
levels=None,
names=None,
verify_integrity: 'bool' = False,
sort: 'bool' = False,
copy: 'bool' = True,
) -> 'FrameOrSeriesUnion'
在函数办法中,各参数含意如下:
objs
: 用于连贯的数据,能够是DataFrame
或Series
组成的列表
axis=0
: 连贯的形式,默认为 0 也就是纵向连贯,可选 1 为横向连贯
join='outer'
:合并形式,默认为inner
也就是交加,可选outer
为并集
ignore_index
: 是否保留原有的索引
keys=None
:连贯关系,应用传递的值作为一级索引
levels=None
:用于结构多级索引
names=None
:索引的名称
verify_integrity
: 检测索引是否反复,如果为 True 则有反复索引会报错
sort
: 并汇合并形式下,对 columns 排序
copy
: 是否深度拷贝
接下来,咱们就对该函数性能进行演示
根底连贯
In [1]: import pandas as pd
In [2]: s1 = pd.Series(['a', 'b'])
In [3]: s2 = pd.Series(['c', 'd'])
In [4]: s1
Out[4]:
0 a
1 b
dtype: object
In [5]: s2
Out[5]:
0 c
1 d
dtype: object
In [6]: pd.concat([s1, s2])
Out[6]:
0 a
1 b
0 c
1 d
dtype: object
In [7]: df1 = pd.DataFrame([['a', 1], ['b', 2]],
...: columns=['letter', 'number'])
In [8]: df2 = pd.DataFrame([['c', 3], ['d', 4]],
...: columns=['letter', 'number'])
In [9]: pd.concat([df1, df2])
Out[9]:
letter number
0 a 1
1 b 2
0 c 3
1 d 4
横向连贯
In [10]: pd.concat([df1, df2], axis=1)
Out[10]:
letter number letter number
0 a 1 c 3
1 b 2 d 4
默认状况下,concat
是取并集,如果两个数据中有个数据没有对应行或列,则会填充为空值NaN
。
合并交加
In [11]: df3 = pd.DataFrame([['c', 3, 'cat'], ['d', 4, 'dog']],
...: columns=['letter', 'number', 'animal'])
In [12]: df1
Out[12]:
letter number
0 a 1
1 b 2
In [13]: df3
Out[13]:
letter number animal
0 c 3 cat
1 d 4 dog
In [14]: pd.concat([df1, df3], join='inner')
Out[14]:
letter number
0 a 1
1 b 2
0 c 3
1 d 4
索引重置(不保留原有索引)
In [15]: pd.concat([df1, df3], join='inner', ignore_index=True)
Out[15]:
letter number
0 a 1
1 b 2
2 c 3
3 d 4
# 以下形式和上述的输入后果等价
In [16]: pd.concat([df1, df3], join='inner').reset_index(drop=True)
Out[16]:
letter number
0 a 1
1 b 2
2 c 3
3 d 4
指定索引
In [17]: pd.concat([df1, df3], keys=['df1','df3'])
Out[17]:
letter number animal
df1 0 a 1 NaN
1 b 2 NaN
df3 0 c 3 cat
1 d 4 dog
In [18]: pd.concat([df1, df3], keys=['df1','df3'], names=['df 名称','行 ID'])
Out[18]:
letter number animal
df 名称 行 ID
df1 0 a 1 NaN
1 b 2 NaN
df3 0 c 3 cat
1 d 4 dog
检测反复
如果索引呈现反复,则无奈通过检测,会报错
In [19]: pd.concat([df1, df3], verify_integrity=True)
Traceback (most recent call last):
...
ValueError: Indexes have overlapping values: Int64Index([0, 1], dtype='int64')
合并并集下 columns 排序
In [21]: pd.concat([df1, df3], sort=True)
Out[21]:
animal letter number
0 NaN a 1
1 NaN b 2
0 cat c 3
1 dog d 4
DataFrame 与 Series 合并
In [22]: pd.concat([df1, s1])
Out[22]:
letter number 0
0 a 1.0 NaN
1 b 2.0 NaN
0 NaN NaN a
1 NaN NaN b
In [23]: pd.concat([df1, s1], axis=1)
Out[23]:
letter number 0
0 a 1 a
1 b 2 b
# 新增列个别可选以下两种形式
In [24]: df1.assign(新增列 =s1)
Out[24]:
letter number 新增列
0 a 1 a
1 b 2 b
In [25]: df1['新增列'] = s1
In [26]: df1
Out[26]:
letter number 新增列
0 a 1 a
1 b 2 b
以上就 concat
函数办法的一些性能,相比之下,另外一个函数 append
也能够用于 数据追加(纵向合并)
2. append
append
次要用于 追加数据,是比较简单间接的数据合并形式。
df.append(
other,
ignore_index: 'bool' = False,
verify_integrity: 'bool' = False,
sort: 'bool' = False,
) -> 'DataFrame'
在函数办法中,各参数含意如下:
other
: 用于追加的数据,能够是DataFrame
或Series
或组成的列表
ignore_index
: 是否保留原有的索引
verify_integrity
: 检测索引是否反复,如果为 True 则有反复索引会报错
sort
: 并汇合并形式下,对 columns 排序
接下来,咱们就对该函数性能进行演示
根底追加
In [41]: df1.append(df2)
Out[41]:
letter number
0 a 1
1 b 2
0 c 3
1 d 4
In [42]: df1.append([df1,df2,df3])
Out[42]:
letter number animal
0 a 1 NaN
1 b 2 NaN
0 a 1 NaN
1 b 2 NaN
0 c 3 NaN
1 d 4 NaN
0 c 3 cat
1 d 4 dog
columns 重置(不保留原有索引)
In [43]: df1.append([df1,df2,df3], ignore_index=True)
Out[43]:
letter number animal
0 a 1 NaN
1 b 2 NaN
2 a 1 NaN
3 b 2 NaN
4 c 3 NaN
5 d 4 NaN
6 c 3 cat
7 d 4 dog
检测反复
如果索引呈现反复,则无奈通过检测,会报错
In [44]: df1.append([df1,df2], verify_integrity=True)
Traceback (most recent call last):
...
ValueError: Indexes have overlapping values: Int64Index([0, 1], dtype='int64')
索引排序
In [46]: df1.append([df1,df2,df3], sort=True)
Out[46]:
animal letter number
0 NaN a 1
1 NaN b 2
0 NaN a 1
1 NaN b 2
0 NaN c 3
1 NaN d 4
0 cat c 3
1 dog d 4
追加 Series
In [49]: s = pd.Series({'letter':'s1','number':9})
In [50]: s
Out[50]:
letter s1
number 9
dtype: object
In [51]: df1.append(s)
Traceback (most recent call last):
...
TypeError: Can only append a Series if ignore_index=True or if the Series has a name
In [53]: df1.append(s, ignore_index=True)
Out[53]:
letter number
0 a 1
1 b 2
2 s1 9
追加字典
这个在爬虫的时候比拟好使 ,每爬取一条数据就合并到DataFrame
相似数据中存储起来
In [54]: dic = {'letter':'s1','number':9}
In [55]: df1.append(dic, ignore_index=True)
Out[55]:
letter number
0 a 1
1 b 2
2 s1 9
3. merge
merge
函数办法相似 SQL
里的 join
,能够是pd.merge
或者df.merge
,区别就在于后者待合并的数据是
pd.merge(
left: 'DataFrame | Series',
right: 'DataFrame | Series',
how: 'str' = 'inner',
on: 'IndexLabel | None' = None,
left_on: 'IndexLabel | None' = None,
right_on: 'IndexLabel | None' = None,
left_index: 'bool' = False,
right_index: 'bool' = False,
sort: 'bool' = False,
suffixes: 'Suffixes' = ('_x', '_y'),
copy: 'bool' = True,
indicator: 'bool' = False,
validate: 'str | None' = None,
) -> 'DataFrame'
在函数办法中,要害参数含意如下:
left
: 用于连贯的左侧数据
right
: 用于连贯的右侧数据
how
: 数据连贯形式,默认为 inner,可选 outer、left 和 right
on
: 连贯关键字段,左右侧数据中须要都存在,否则就用 left_on 和 right_on
left_on
: 左侧数据用于连贯的关键字段
right_on
: 右侧数据用于连贯的关键字段
left_index
: True 示意左侧索引为连贯关键字段
right_index
: True 示意右侧索引为连贯关键字段
suffixes
: ‘Suffixes’ = (‘_x’, ‘_y’), 能够自在指定,就是同列名合并后列名显示后缀
indicator
: 是否显示合并后某行数据的归属起源
接下来,咱们就对该函数性能进行演示
根底合并
In [55]: df1 = pd.DataFrame({'key': ['foo', 'bar', 'bal'],
...: 'value2': [1, 2, 3]})
In [56]: df2 = pd.DataFrame({'key': ['foo', 'bar', 'baz'],
...: 'value1': [5, 6, 7]})
In [57]: df1.merge(df2)
Out[57]:
key value2 value1
0 foo 1 5
1 bar 2 6
其余连贯形式
In [58]: df1.merge(df2, how='left')
Out[58]:
key value2 value1
0 foo 1 5.0
1 bar 2 6.0
2 bal 3 NaN
In [59]: df1.merge(df2, how='right')
Out[59]:
key value2 value1
0 foo 1.0 5
1 bar 2.0 6
2 baz NaN 7
In [60]: df1.merge(df2, how='outer')
Out[60]:
key value2 value1
0 foo 1.0 5.0
1 bar 2.0 6.0
2 bal 3.0 NaN
3 baz NaN 7.0
In [61]: df1.merge(df2, how='cross')
Out[61]:
key_x value2 key_y value1
0 foo 1 foo 5
1 foo 1 bar 6
2 foo 1 baz 7
3 bar 2 foo 5
4 bar 2 bar 6
5 bar 2 baz 7
6 bal 3 foo 5
7 bal 3 bar 6
8 bal 3 baz 7
指定连贯键
能够指定单个连贯键,也能够指定多个连贯键
In [62]: df1 = pd.DataFrame({'lkey1': ['foo', 'bar', 'bal'],
...: 'lkey2': ['a', 'b', 'c'],
...: 'value2': [1, 2, 3]})
In [63]: df2 = pd.DataFrame({'rkey1': ['foo', 'bar', 'baz'],
...: 'rkey2': ['a', 'b', 'c'],
...: 'value2': [5, 6, 7]})
In [64]: df1
Out[64]:
lkey1 lkey2 value2
0 foo a 1
1 bar b 2
2 bal c 3
In [65]: df2
Out[65]:
rkey1 rkey2 value2
0 foo a 5
1 bar b 6
2 baz c 7
In [66]: df1.merge(df2, left_on='lkey1', right_on='rkey1')
Out[66]:
lkey1 lkey2 value2_x rkey1 rkey2 value2_y
0 foo a 1 foo a 5
1 bar b 2 bar b 6
In [67]: df1.merge(df2, left_on=['lkey1','lkey2'], right_on=['rkey1','rkey2'])
Out[67]:
lkey1 lkey2 value2_x rkey1 rkey2 value2_y
0 foo a 1 foo a 5
1 bar b 2 bar b 6
指定索引为键
Out[68]: df1.merge(df2, left_index=True, right_index=True)
Out[68]:
lkey1 lkey2 value2_x rkey1 rkey2 value2_y
0 foo a 1 foo a 5
1 bar b 2 bar b 6
2 bal c 3 baz c 7
设置反复列后缀
In [69]: df1.merge(df2, left_on='lkey1', right_on='rkey1', suffixes=['左','右'])
Out[69]:
lkey1 lkey2 value2 左 rkey1 rkey2 value2 右
0 foo a 1 foo a 5
1 bar b 2 bar b 6
连贯批示
新增一列用于显示数据起源
In [70]: df1.merge(df2, left_on='lkey1', right_on='rkey1', suffixes=['左','右'], how='outer',
...: indicator=True
...: )
Out[70]:
lkey1 lkey2 value2 左 rkey1 rkey2 value2 右 _merge
0 foo a 1.0 foo a 5.0 both
1 bar b 2.0 bar b 6.0 both
2 bal c 3.0 NaN NaN NaN left_only
3 NaN NaN NaN baz c 7.0 right_only
4. join
join
就有点想 append
之于concat
,用于数据合并
df.join(
other: 'FrameOrSeriesUnion',
on: 'IndexLabel | None' = None,
how: 'str' = 'left',
lsuffix: 'str' = '',
rsuffix: 'str' = '',
sort: 'bool' = False,
) -> 'DataFrame'
在函数办法中,要害参数含意如下:
other
: 用于合并的右侧数据
on
: 连贯关键字段,左右侧数据中须要都存在,否则就用 left_on 和 right_on
how
: 数据连贯形式,默认为 inner,可选 outer、left 和 right
lsuffix
: 左侧同名列后缀
rsuffix
:右侧同名列后缀
接下来,咱们就对该函数性能进行演示
In [71]: df = pd.DataFrame({'key': ['K0', 'K1', 'K2', 'K3', 'K4', 'K5'],
...: 'A': ['A0', 'A1', 'A2', 'A3', 'A4', 'A5']})
In [72]: other = pd.DataFrame({'key': ['K0', 'K1', 'K2'],
...: 'B': ['B0', 'B1', 'B2']})
In [73]: df
Out[73]:
key A
0 K0 A0
1 K1 A1
2 K2 A2
3 K3 A3
4 K4 A4
5 K5 A5
In [74]: other
Out[74]:
key B
0 K0 B0
1 K1 B1
2 K2 B2
In [75]: df.join(other, on='key')
Traceback (most recent call last):
...
ValueError: You are trying to merge on object and int64 columns. If you wish to proceed you should use pd.concat
如果想用 key 关键字,则须要 key 是索引。。。
指定 key
In [76]: df.set_index('key').join(other.set_index('key'))
Out[76]:
A B
key
K0 A0 B0
K1 A1 B1
K2 A2 B2
K3 A3 NaN
K4 A4 NaN
K5 A5 NaN
In [77]: df.join(other.set_index('key'), on='key')
Out[77]:
key A B
0 K0 A0 B0
1 K1 A1 B1
2 K2 A2 B2
3 K3 A3 NaN
4 K4 A4 NaN
5 K5 A5 NaN
指定反复列后缀
In [78]: df.join(other, lsuffix='_左', rsuffix='右')
Out[78]:
key_左 A key 右 B
0 K0 A0 K0 B0
1 K1 A1 K1 B1
2 K2 A2 K2 B2
3 K3 A3 NaN NaN
4 K4 A4 NaN NaN
5 K5 A5 NaN NaN
其余参数就不多做介绍了,和 merge
根本一样。
5. combine
在数据合并的过程中,咱们可能须要对对应地位的值进行肯定的计算,pandas
提供了 combine
和combine_first
函数办法来进行这方面的单干操作。
df.combine(
other: 'DataFrame',
func,
fill_value=None,
overwrite: 'bool' = True,
) -> 'DataFrame'
比方,数据合并的时候取单元格最小的值
In [79]: df1 = pd.DataFrame({'A': [0, 0], 'B': [4, 4]})
In [80]: df2 = pd.DataFrame({'A': [1, 1], 'B': [3, 3]})
In [81]: df1
Out[81]:
A B
0 0 4
1 0 4
In [82]: df2
Out[82]:
A B
0 1 3
1 1 3
In [83]: take_smaller = lambda s1, s2: s1 if s1.sum() < s2.sum() else s2
In [84]: df1.combine(df2, take_smaller)
Out[84]:
A B
0 0 3
1 0 3
# 也能够调用 numpy 的函数
In [85]: import numpy as np
In [86]: df1.combine(df2, np.minimum)
Out[86]:
A B
0 0 3
1 0 3
fill_value 填充缺失值
In [87]: df1 = pd.DataFrame({'A': [0, 0], 'B': [None, 4]})
In [87]: df2 = pd.DataFrame({'A': [1, 1], 'B': [3, 3]})
In [88]: df1
Out[88]:
A B
0 0 NaN
1 0 4.0
In [89]: df2
Out[89]:
A B
0 1 3
1 1 3
In [90]: df1.combine(df2, take_smaller, fill_value=-88)
Out[90]:
A B
0 0 -88.0
1 0 4.0
overwrite=False 保留
In [91]: df1 = pd.DataFrame({'A': [0, 0], 'B': [4, 4]})
In [92]: df2 = pd.DataFrame({'B': [3, 3], 'C': [-10, 1], }, index=[1, 2])
In [93]: df1
Out[93]:
A B
0 0 4
1 0 4
In [94]: df2
Out[94]:
B C
1 3 -10
2 3 1
In [95]: df1.combine(df2, take_smaller)
Out[95]:
A B C
0 NaN NaN NaN
1 NaN 3.0 -10.0
2 NaN 3.0 1.0
# 保留 A 列原有的值
In [96]: df1.combine(df2, take_smaller, overwrite=False)
Out[96]:
A B C
0 0.0 NaN NaN
1 0.0 3.0 -10.0
2 NaN 3.0 1.0
另外一个 combine_first
df.combine_first(other: 'DataFrame') -> 'DataFrame'
当 df 中元素为空采纳 other 里的进行替换,后果为 并汇合并
In [97]: df1 = pd.DataFrame({'A': [None, 0], 'B': [None, 4]})
In [98]: df2 = pd.DataFrame({'A': [1, 1], 'B': [3, 3]})
In [99]: df1
Out[99]:
A B
0 NaN NaN
1 0.0 4.0
In [100]: df2
Out[100]:
A B
0 1 3
1 1 3
In [101]: df1.combine_first(df2)
Out[101]:
A B
0 1.0 3.0
1 0.0 4.0
In [102]: df1 = pd.DataFrame({'A': [None, 0], 'B': [4, None]})
In [103]: df2 = pd.DataFrame({'B': [3, 3], 'C': [1, 1]}, index=[1, 2])
In [104]: df1
Out[104]:
A B
0 NaN 4.0
1 0.0 NaN
In [105]: df2
Out[105]:
B C
1 3 1
2 3 1
In [106]: df1.combine_first(df2)
Out[106]:
A B C
0 NaN 4.0 NaN
1 0.0 3.0 1.0
2 NaN 3.0 1.0
总结
以上就本次介绍的对于 Pandas
数据合并的全部内容,相比之下咱们能够发现:
append
次要用于纵向追加数据,比较简单间接;concat
性能最弱小,不仅能够纵向合并数据还能够横向合并数据而且反对很多其余条件设置;merge
则次要用于横向合并数据,相似 SQL 里的 join 连贯;join
则比较简单,用于横向合并数据,条件绝对刻薄;combine
更像是依照元素进行合并,依据肯定的条件(函数规定)来进行数据合并。
以上就是本次全部内容,大家感兴趣能够本人试试感受一下。
如果你感觉文章还不错,欢送关注公众号:Python 编程学习圈,每日干货分享,发送“J”还可支付大量学习材料。或是返回编程学习网,理解更多编程技术常识。