反对向量机(Support Vector Machine,SVM)是一种用于分类问题的监督算法。次要用于二分类和多分类问题。其根本思维是找到一个超平面,可能将不同类别的样本点尽可能地离开,并使得离超平面最近的样本点尽可能远离超平面,从而实现较好的分类成果。
SVM 的要害是找到一个最优的超平面,这个超平面能够通过使得最靠近超平面的样本点之间的距离最大化来定义。这些最靠近超平面的样本点被称为反对向量。SVM 的优化指标能够示意为一个凸二次布局问题,能够通过求解对应的拉格朗日函数来失去最优解。
SVM 除了可能解决线性可拆散的问题外,还能够通过核函数的引入解决线性不可分的问题,将样本映射到高维空间,从而使得在高维空间中变得线性可分。SVM 应用铰链损失函数计算教训危险并在求解零碎中退出了正则化项以优化结构危险,是一个具备稠密性和稳健性的分类器。同时,SVM 能够通过核办法进行非线性分类,是常见的核学习办法之一。常见的核函数包含线性核、多项式核、高斯核等。
超平面与最近的类点之间的间隔称为边距。最优超平面具备最大的边界,能够对点进行分类,从而使最近的数据点与这两个类之间的间隔最大化。
例如,H1 没有将这两个类离开。但 H2 有,不过只有很小的边距。而 H3 以最大的边距将它们离开了。
SVM 是一种常见的监督学习算法,具备很好的泛化能力和较高的分类准确率。在理论利用中,SVM 宽泛用于文本分类、图像识别、生物信息学等畛域。
如有疑难,点击链接退出群聊【信创技术交换群】:http://qm.qq.com/cgi-bin/qm/qr?_wv=1027&k=EjDhISXNgJlMMemn85v…