上一篇文章咱们介绍了应用逻辑回归来解决分类问题,本文咱们讲一个更弱小的分类模型。本文仍旧偏重代码实际,你会发现咱们解决问题的伎俩越来越丰盛,问题解决起来越来越简略。

反对向量机(Support Vector Machine, SVM)是最受欢迎的机器学习模型之一。它特地适宜解决中小型简单数据集的分类工作。

一、什么是反对向量机

SMV在泛滥实例中寻找一个最优的决策边界,这个边界上的实例叫做反对向量,它们“反对”(撑持)分来到超平面,所以它叫反对向量机。

那么咱们如何保障咱们失去的决策边界是最优的呢?

如上图,三条彩色直线都能够完满宰割数据集。由此可知,咱们仅用繁多直线能够失去无数个解。那么,其中怎么的直线是最优的呢?

如上图,咱们计算直线到宰割实例的间隔,使得咱们的直线与数据集的间隔尽可能的远,那么咱们就能够失去惟一的解。最大化上图虚线之间的间隔就是咱们的指标。而上图中重点圈出的实例就叫做反对向量。

这就是反对向量机。

二、从代码中映射实践

2.1 导入数据集

增加援用:

import numpy as npimport pandas as pdimport seaborn as snsimport matplotlib.pyplot as plt

导入数据集(大家不必在意这个域名):

df = pd.read_csv('https://blog.caiyongji.com/assets/mouse_viral_study.csv')df.head()
Med_1_mLMed_2_mLVirus Present
06.508238.582530
14.126123.073461
26.427876.369760
33.672954.905221
41.580322.440561

该数据集模仿了一项医学钻研,对感化病毒的小白鼠应用不同剂量的两种药物,察看两周后小白鼠是否感化病毒。

  • 特色: 1. 药物Med_1_mL 药物Med_2_mL
  • 标签:是否感化病毒(1感化/0不感化)

2.2 察看数据

sns.scatterplot(x='Med_1_mL',y='Med_2_mL',hue='Virus Present',data=df)

咱们用seaborn绘制两种药物在不同剂量特色对应感化后果的散点图。

sns.pairplot(df,hue='Virus Present')

咱们通过pairplot办法绘制特色两两之间的对应关系。

咱们能够做出大略的判断,当加大药物剂量可使小白鼠防止被感化。

2.3 应用SVM训练数据集

#SVC: Supprt Vector Classifier反对向量分类器from sklearn.svm import SVC#筹备数据y = df['Virus Present']X = df.drop('Virus Present',axis=1) #定义模型model = SVC(kernel='linear', C=1000)#训练模型model.fit(X, y)# 绘制图像# 定义绘制SVM边界办法def plot_svm_boundary(model,X,y):        X = X.values    y = y.values        # Scatter Plot    plt.scatter(X[:, 0], X[:, 1], c=y, s=30,cmap='coolwarm')        # plot the decision function    ax = plt.gca()    xlim = ax.get_xlim()    ylim = ax.get_ylim()    # create grid to evaluate model    xx = np.linspace(xlim[0], xlim[1], 30)    yy = np.linspace(ylim[0], ylim[1], 30)    YY, XX = np.meshgrid(yy, xx)    xy = np.vstack([XX.ravel(), YY.ravel()]).T    Z = model.decision_function(xy).reshape(XX.shape)    # plot decision boundary and margins    ax.contour(XX, YY, Z, colors='k', levels=[-1, 0, 1], alpha=0.5,               linestyles=['--', '-', '--'])    # plot support vectors    ax.scatter(model.support_vectors_[:, 0], model.support_vectors_[:, 1], s=100,               linewidth=1, facecolors='none', edgecolors='k')    plt.show()plot_svm_boundary(model,X,y)

咱们导入sklearn下的SVC(Supprt Vector Classifier)分类器,它是SVM的一种实现。

2.4 SVC参数C

SVC办法参数C代表L2正则化参数,正则化的强度与C的值城正比,即C值越大正则化强度越弱,其必须严格为正。

model = SVC(kernel='linear', C=0.05)model.fit(X, y)plot_svm_boundary(model,X,y)

咱们缩小C的值,能够看到模型拟合数据的水平削弱。

2.5 核技巧

SVC办法的kernel参数可取值{'linear', 'poly', 'rbf', 'sigmoid', 'precomputed'}。像前文中所应用的那样,咱们能够使kernel='linear'进行线性分类。那么如果咱们像进行非线性分类呢?

2.5.1 多项式内核

多项式内核kernel='poly'的原理简略来说就是,用繁多特色生成多特色来拟合曲线。比方咱们拓展X到y的对应关系如下:

XX^2X^3y
06.508236.50823**26.50823**30
14.126124.12612**24.12612**31
26.427876.42787**26.42787**30
33.672953.67295**23.67295**31
41.580321.58032**21.58032**31

这样咱们就能够用曲线来拟合数据集。

model = SVC(kernel='poly', C=0.05,degree=5)model.fit(X, y)plot_svm_boundary(model,X,y)

咱们应用多项式内核,并通过degree=5设置多项式的最高次数为5。咱们能够看出宰割呈现了肯定的弧度。

2.5.2 高斯RBF内核

SVC办法默认内核为高斯RBF,即Radial Basis Function(径向基函数)。这时咱们须要引入gamma参数来管制钟形函数的形态。减少gamma值会使钟形曲线变得更窄,因而每个实例影响的范畴变小,决策边界更不规则。减小gamma值会使钟形曲线变得更宽,因而每个实例的影响范畴变大,决策边界更平坦。

model = SVC(kernel='rbf', C=1,gamma=0.01)model.fit(X, y)plot_svm_boundary(model,X,y)

2.6 调参技巧:网格搜寻

from sklearn.model_selection import GridSearchCVsvm = SVC()param_grid = {'C':[0.01,0.1,1],'kernel':['rbf','poly','linear','sigmoid'],'gamma':[0.01,0.1,1]}grid = GridSearchCV(svm,param_grid)grid.fit(X,y)print("grid.best_params_ = ",grid.best_params_,", grid.best_score_ =" ,grid.best_score_)

咱们能够通过GridSearchCV办法来遍历超参数的各种可能性来寻求最优超参数。这是通过算力碾压的形式暴力调参的伎俩。当然,在剖析问题阶段,咱们必须限定了各参数的可选范畴能力利用此办法。

因为数据集太简略,咱们在遍历第一种可能性时就曾经失去100%的准确率了,输入如下:

grid.best_params_ =  {'C': 0.01, 'gamma': 0.01, 'kernel': 'rbf'} , grid.best_score_ = 1.0

总结

当咱们解决线性可分的数据集时,能够应用SVC(kernel='linear')办法来训练数据,当然咱们也能够应用更快的办法LinearSVC来训练数据,特地是当训练集特地大或特色十分多的时候。
当咱们解决非线性SVM分类时,能够应用高斯RBF内核,多项式内核,sigmoid内核来进行非线性模型的的拟合。当然咱们也能够通过GridSearchCV寻找最优参数。

往期文章:

  • 机器学习(三):了解逻辑回归及二分类、多分类代码实际
  • 机器学习(二):了解线性回归与梯度降落并做简略预测
  • 机器学习(一):5分钟了解机器学习并上手实际
  • 前置机器学习(五):30分钟把握罕用Matplotlib用法
  • 前置机器学习(四):一文把握Pandas用法
  • 前置机器学习(三):30分钟把握罕用NumPy用法
  • 前置机器学习(二):30分钟把握罕用Jupyter Notebook用法
  • 前置机器学习(一):数学符号及希腊字母