Python数据清洗一类型转换和冗余数据删除

50次阅读

共计 2654 个字符,预计需要花费 7 分钟才能阅读完成。

作者 | 刘顺祥
来源 | 数据分析 1480

数据分析过程中最头疼也是工作量最大的部分算是探索和清洗了——探索的目的是了解数据,了解数据背后隐藏的规律;洗的目的则是为了让干净的数据进入分析或建模的下一个环节。小编将通过三篇文章,详细讲解工作中常规的数据清洗方法,包括数据类型的转换,重复数据的处理,缺失值的处理以及异常数据的识别和处理 。这是 Python 数据清洗系列的第一篇文章,主要分享的内容包括—— 数据类型的转换 and 冗余数据的识别和处理

数据类型的判断和转换

如下表所示,为某公司用户的个人信息和交易数据,涉及的字段为用户 id、性别、年龄、受教育水平、交易金额和交易日期。从表面上看,似乎没有看出数据背后可能存在的问题,那接下来就将其读入到 Python 中,并通过探索的方式发现数据中的问题。

读取数据,以及查看数据规模、查看数据中各变量的数据类型的代码如下:

# 导入第三方包
import pandas as pd

# 读入外部数据
data3 = pd.read_excel(io=r'C:\Users\Administrator\Desktop\datas\data3.xlsx')
# 查看数据的规模
data3.shape
out:
(3000, 6)

# 查看表中各变量的数据类型
# data3.dtypes
out:

表中各变量的数据类型如表下表所示:

上述代码利用 shape“方法” 返回了数据集的规模,即该数据包含 3000 行 6 列;通过 dtypes“方法” 则返回了数据集中各变量的数据类型——除 id 变量和 age 变量为数值型,其余变量均为字符型。直观上能够感受到一点问题,即数据类型不对,例如用户 id 应该为字符型,消费金额 custom_amt 为数值型,订单日期为日期型。如果发现数据类型不对,如何借助于 Python 工具实现数据类型的转换呢?可参照如下代码的实现。

# 数值型转字符型
data3['id'] = data3['id'].astype(str)
# 字符型转数值型
data3['custom_amt'] = data3['custom_amt'].str[1:].astype(float)
# 字符型转日期型
data3['order_date'] = pd.to_datetime(data3['order_date'], format = '%Y 年 %m 月 %d 日')

# 重新查看数据集的各变量类型
data3.dtypes
out:

这些数据经过处理后,各个字段的数据类型如下表所示:

如上结果所示,三个变量全都转换成了各自所期望的数据类型。astype“方法”用于数据类型的强制转换,可选择的常用转换类型包括 str(表示字符型)、float(表示浮点型)和 int(表示整型)。由于消费金额 custom_amt 变量中的值 包含人民币符号“¥”,所以在数据类型转换之前必须将其删除(通过字符串的切片方法删除,[1:]表示从字符串的第二个元素开始截断)。对于字符转日期问题,推荐使用更加灵活的 to_datetime 函数,因为它在 format 参数的调节下,可以识别任意格式的字符型日期值。

需要注意的是,Python 中的函数有两种表现形式,一种是常规理解下的 函数(语法为 func(parameters),如 to_datetime 函数),另一种则是“方法”(语法为 obj.func(parameters),如 dtypes 和 astype“方法”)。两者的区别在于“方法”是针对特定对象的函数(即该“方法”只能用在某个固定类型的对象上),而函数并没有这方面的限制。

基于如上类型的转换结果,最后浏览一下数据的展现形式:

# 预览数据的前 5 行
data3.head()

冗余数据的判断和处理

如上过程是对数据中各变量类型的判断和转换,除此还需要监控表中是否存在“脏”数据,如冗余的重复观测和缺失值等。可以通过 duplicated“方法” 进行“脏”数据的识别和处理。仍然对上边的 data3 数据为例进行操作,具体代码如下所示。

# 判断数据中是否存在重复观测
data3.duplicated().any()

out:
False

如上结果返回的是 False,说明该数据集中并不存在重复观测。假如读者利用如上的代码在数据集中发现了重复观测,可以使用 drop_duplicates“方法”将冗余信息删除。

需要说明的是 ,在使用 duplicated“方法”对数据行作重复性判断时,会返回一个与原数据行数相同的序列(如果数据行没有重复,则对应 False,否则对应 True),为了得到最终的判断结果,需要 再使用 any“方法”(即序列中只要存在一个 True,则返回 True)。

duplicated“方法”和 drop_duplicates“方法”都有一个非常重要的参数,就是 subset。默认情况下不设置该参数时,表示对数据的所有列进行重复性判断;如果需要按指定的变量做数据的重复性判断时,就可以使用该参数指定具体的变量列表。举例如下:

# 构造数据
df = pd.DataFrame(dict(name = ['张三','李四','王二','张三','赵五','丁一','王二'],
                      gender = ['男','男','女','男','女','女','男'],
                      age = [29,25,27,29,21,22,27],
                      income = [15600,14000,18500,15600,10500,18000,13000],
                      edu = ['本科','本科','硕士','本科','大专','本科','硕士']))
# 查看数据
df

目测有两条数据完全一样,就是用户张三,如果直接使用 drop_duplicates“方法”,而不做任何参数的修改时,将会删除第二次出现的用户张三。代码如下:

# 默认情况下,对数据的所有变量进行判断
df.drop_duplicates()

假设在数据清洗中,用户的姓名和年龄相同就认为是重复数据,那么该如何基于这两个变量进行重复值的删除呢?此时就需要使用 subset 参数了,代码如下:

df.drop_duplicates(subset=['name','age'])

需要注意的是 ,使用 drop_duplicates“方法”删除重复数据,并不能直接影响到原始数据,即原始数据中还是存在重复观测的。如需使 drop_duplicates“方法”的删除功能作用在原始数据中, 必须将 inplace 参数设置为 True

本期的内容就介绍到这里,下一篇将分享缺失值的识别和处理技术。

扫码进入 CDA 官方小程序,解锁更多新鲜资讯和优质内容,还有免费试听课程,不要错过哟!

正文完
 0