共计 1750 个字符,预计需要花费 5 分钟才能阅读完成。
本文为 CDA 数据分析研究院原创作品, 转载需授权
1. 为什么选择 Python 进行数据分析?
Python 是一门动态的、面向对象的脚本语言,同时也是一门简约,通俗易懂的编程语言。Python 入门简单,代码可读性强,一段好的 Python 代码,阅读起来像是在读一篇外语文章。Python 这种特性称为“伪代码”,它可以使你只关心完成什么样的工作任务,而不是纠结于 Python 的语法。
另外,Python 是开源的,它拥有非常多优秀的库,可以用于数据分析及其他领域。更重要的是,Python 与最受欢迎的开源大数据平台 Hadoop 具有很好的兼容性。因此,学习 Python 对于有志于向大数据分析岗位发展的数据分析师来说,是一件非常节省学习成本的事。
Python 的众多优点让它成为最受欢迎的程序设计语言之一,国内外许多公司也已经在使用 Python,例 YouTube,Google,阿里云等等。
2. 编程基础
要学习如何用 Python 进行数据分析,CDA 数据分析师建议第一步是要了解一些 Python 的编程基础,知道 Python 的数据结构,什么是向量、列表、数组、字典等等;了解 Python 的各种函数及模块。下图整理了这一阶段要掌握的知识点:
3. 数据分析流程
Python 是数据分析利器,掌握了 Python 的编程基础后,就可以逐渐进入数据分析的奇妙世界。CDA 数据分析师认为一个完整的数据分析项目大致可分为以下五个流程:
1) 数据获取
一般有数据分析师岗位需求的公司都会有自己的数据库,数据分析师可以通过 SQL 查询语句来获取数据库中想要数据。Python 已经具有连接 sql server、mysql、orcale 等主流数据库的接口包,比如 pymssql、pymysql、cx_Oracle 等。
而获取外部数据主要有两种获取方式,一种是获取国内一些网站上公开的数据资料,例如国家统计局;一种是通过编写爬虫代码自动爬取数据。如果希望使用 Python 爬虫来获取数据,我们可以使用以下 Python 工具:
Requests- 主要用于爬取数据时发出请求操作。
BeautifulSoup- 用于爬取数据时读取 XML 和 HTML 类型的数据,解析为对象进而处理。
Scapy- 一个处理交互式数据的包,可以解码大部分网络协议的数据包
2) 数据存储
对于数据量不大的项目,可以使用 excel 来进行存储和处理,但对于数据量过万的项目,使用数据库来存储与管理会更高效便捷。
3) 数据预处理
数据预处理也称数据清洗。大多数情况下,我们拿到手的数据是格式不一致,存在异常值、缺失值等问题的,而不同项目数据预处理步骤的方法也不一样。CDA 数据分析师认为数据分析有 80% 的工作都在处理数据。如果选择 Python 作为数据清洗的工具的话,我们可以使用 Numpy 和 Pandas 这两个工具库:
Numpy – 用于 Python 中的科学计算。它非常适用于与线性代数,傅里叶变换和随机数相关的运算。它可以很好地处理多维数据,并兼容各种数据库。
Pandas –Pandas 是基于 Numpy 扩展而来的,可以提供一系列函数来处理数据结构和运算,如时间序列等。
4) 建模与分析
这一阶段首先要清楚数据的结构,结合项目需求来选取模型。
常见的数据挖掘模型有:
在这一阶段,Python 也具有很好的工具库支持我们的建模工作:
scikit-learn- 适用 Python 实现的机器学习算法库。scikit-learn 可以实现数据预处理、分类、回归、降维、模型选择等常用的机器学习算法。
Tensorflow- 适用于深度学习且数据处理需求不高的项目。这类项目往往数据量较大,且最终需要的精度更高。
5) 可视化分析
数据分析最后一步是撰写数据分析报告,这也是数据可视化的一个过程。在数据可视化方面,Python 目前主流的可视化工具有:
Matplotlib- 主要用于二维绘图,它能让使用者很轻松地将数据图形化,并且提供多样化的输出格式。
Seaborn- 是基于 matplotlib 产生的一个模块,专攻于统计可视化,可以和 Pandas 进行无缝链接。
按照这个流程,每个阶段所涉及的知识点可以细分如下:
从上图我们也可以得知,在整个数据分析流程,无论是数据提取、数据预处理、数据建模和分析,还是数据可视化,Python 目前已经可以很好地支持我们的数据分析工作。