关于机器学习:统计学小抄常用术语和基本概念小结

7次阅读

共计 2726 个字符,预计需要花费 7 分钟才能阅读完成。

统计学是波及数据的收集,组织,剖析,解释和出现的学科。

统计的类型

1) 描述性统计

描述性统计是以数字和图表的模式来了解、剖析和总结数据。对不同类型的数据 (数值的和分类的) 应用不同的图形和图表来剖析数据,如条形图、饼图、散点图、直方图等。所有的解释和可视化都是描述性统计的一部分。重要的是要记住,描述性统计能够在样本和总体数据上执行,但并不会应用总体数据。

2) 推论统计

从总体数据中提取一些数据样本,而后从这些数据样本中,推断一些货色(论断)。数据样本被用作对该总图作出论断的根底。这能够通过各种技术来实现,比方数据可视化和操作。

数据的类型

1、数字数字

数字数据就是指数字或数值型的数据。数值数据又分为离散和间断两类数值变量。

I) 离散数值变量——离散变量的概念是指具备无限取值范畴的变量,例如教室中的排名、系中传授的数量等。

II) 间断数值变量——连续变量的值能够是有限的,可能是范畴内的任意数值,例如员工的工资。

2、分类数据 -

分类数据类型是数据的字符类型示意,例如名称和色彩。一般来说,这些也有两种类型。

I) 序数变量—序数分类变量,其值能够在一系列值中排序,例如学生的年级(a、B、C),或高、中、低。

II) 名义变量——这些变量没有排名,只是蕴含名称或一些类别,如色彩名称、主题等。

集中趋势量数的度量

集中趋势的度量给出了数据中心的概念,即数据的核心是什么。其中有几个术语,如平均值、中位数和众数。

一个特定数值变量的平均值是其中所有数值的平均值。当数据蕴含异样值时,不倡议找出平均值并将其用于任何类型的操作,因为单个异样值会重大影响平均值。

中值是对所有数字排序后的核心值。如果总数是偶数,那么它就是核心 2 值的平均值。它不依赖或影响异样值,除非一半的数据是异样值(这样的话就不是异样值了)。

众数是察看后果中呈现最多的数值。Numpy 没有提供查找众数的函数,然而 Scipy 有。

在应用的时候,不要只应用他们三个的一个,能够试着全副应用这三种办法,这样就能够了解数据的实质。

数据分布度的度量

散布度度量形容了特定变量(数据项)的察看值集的相似性或变动水平。散布度的度量包含范畴,四分位数和四分位数范畴,方差和标准差。

1、范畴

通过比拟数据的最大和最小值(最大值)来定义范畴。

2、四分位数

四分位数是按数字列表分为四分之一的值。找到四分位数的步骤是。

  • 按顺序排列数字
  • 将列表切成 4 个相等的局部
  • 4 分的切分点就是 4 分位数的值

能够通过描述 25、50、75 和 100 的百分位数来找到 4 个四分位数。其中 Q2 也被称为中位数。

它通过形容与平均值的相对偏差来形容数据的变动,也称为均匀相对偏差(MAD)。

3、四分位数范畴(IQR)

四分位间范畴(IQR)是前 75 个和后部 25 个百分位数之间扩散体的量度。它经常出现在异样值检测和解决的状况下。

4、均匀相对偏差

它通过形容与平均值的相对偏差来形容数据的变动,也称为均匀相对偏差(MAD)。简略地说,它通知汇合中每个点与均匀相对间隔。

5、差方

方差掂量的是数据点离均值的间隔。要计算方差,须要找出每个数据点与平均值的差值,而后平方,求和,而后取平均值。能够间接用 numpy 计算方差。

方差的问题在于:因为是平方,它与原始数据不在同一个计量单位内。因为它不是直观的,所以大多数人更喜爱标准差。

6、标准差

方差的平方根是标准差,因为咱们对原始单位平方,所以咱们再次失去雷同测量的标准差。应用 Numpy,能够间接计算这个。

正态分布

正态分布是钟形曲线模式的散布,机器学习中的大多数数据集遵循正态分布,如果不是正态分布,个别会尝试将其转换为正态分布,许多机器学习算法在此散布上会有很好的成果,因为在事实中,世界情景也许多用例也遵循此调配。

如果任何数据遵循正态分布或高斯分布,那么它也遵循三个条件,称为教训公式

P[mean - std_dev <= mean + std_dev] = 68%

P[mean - 2*std_dev <= mean + 2*std_dev] = 95%

P[mean - 3*std_dev <= mean + 3*std_dev] = 99.7%

在进行探索性数据分析的同时也能够将任何变量散布转化为规范正态分布。

偏态

偏度是对散布对称性的一种度量,能够用直方图 (KDE) 来绘制,它在数据众数方面有一个顶峰。偏度个别分为左偏数据和右偏数据两种。有些人也把它了解为三种类型,第三种是对称散布,即正态分布。

一、数据右偏(正偏散布)

右偏态散布是指数据有一个向右的长尾(正轴)。右偏的一个经典例子是财产调配,很少人领有很高的财产大多数人处于中等范畴。

二、数据左偏(负偏散布)

左偏态散布是指数据有一个长尾朝向左侧(负轴)。一个例子能够是学生的问题,将会有更少的学生失去更少的问题,最大的学生将会在及格类别。

核心极限定理

核心极限定理:剖析任意总体的样本数据做一些统计测量后,标准差的均值和样本均值会近似相等。这只是核心极限定理。

概率密度函数(PDF)

如果你晓得直方图,而后你把数据进行分箱,就能够对数据进行可视化的剖析。然而如果咱们想对数值数据进行多类剖析,那么很难应用直方图进行操作。这是就须要应用概率密度函数。概率密度函数是仅应用 KDE(内核密度估计)在直方图内绘制的线。

在下面的图中,编写 3 个辨别分类 3 个类的条件该怎么做?应用直方图和 PDF 能够轻松的看到区别。

从上方直方图中能够看出,如果值小于 2,则是 setosa。如果大于 2 且小于 4.5,那么它是 versicolor。从 5 到 7 都是 virginica。然而 4.5 之后的重叠区域会对判断进行烦扰,在这里 PDF 能够为咱们提供更多的实践反对。

累积散布函数(CDF)

CDF 能够通知咱们有多少百分比的数据小于某个特定的数字。找到 CDF 的过程是,将在指定点之前的所有的直方图相加。另一种办法是应用微积分,应用曲线下面积,找到想要 CDF 的点,画出直线,而后求出外部面积。能够对 PDF 进行积分失去 CDF,对 CDF 求导失去 PDF。

如何计算 PDF 和 CDF

咱们将计算 setosa 的 PDF 和 CDF。咱们将花瓣长度转换为 10 个分箱,并提取每个箱的样本数和边缘值,这些边缘示意容器的终点和起点。为了计算 PDF,咱们将每个频率计数值除以总和,咱们失去概率密度函数,找到 PDF,就能够持续计算失去 CDF。

ounts, bin_edges = np.histogram(iris_setosa[‘PL’], bins=10)
pdf = counts / sum(counts)
cdf = np.cumsum(pdf)
print(pdf)
print(cdf)

https://avoid.overfit.cn/post/77b3cb6cf95c4e46b3342f7af40b6451

作者:Anjali Dharmik

正文完
 0