作者|Mandy Gu
编译|Flin
起源|towardsdatascience
Logistic回归,通过预计事件产生的对数概率来对事件产生的概率进行建模。如果咱们假如对数比值和 j 个自变量之间存在线性关系,那么咱们能够将事件产生的概率p建模为:
你可能留神到未指定对数底。对数的底数其实并不重要,回忆一下,如果咱们把两边都乘以logk b,咱们能够把底数b改成任何新的底数k。
这使咱们能够灵便地假如左侧的底数。当然,底数会影响对后果和系数值的解释。
拆散概率
如果咱们有预计系数,就很容易拆散出p。留神,p/(1-p)示意事件产生的概率。
咱们将用另一个例子来解释阐明。房地产经纪人吉姆(Jim)训练了一个逻辑回归模型来预测某人出价买房的可能性。他通过应用两个解释变量来放弃他的模型的简洁性:
- x1:潜在客户访问房子的次数
- 这栋房子的要价是几千美元
在应用程序确定最优系数后,Jim为他的模型推导出这些系数:
Jim的模型通知咱们:
- 潜在买家每多一次访问,均匀概率自然对数减少2
- 屋宇每减少1000美元,均匀概率的自然对数降落0.002
听起来很拗口,而且很难听懂。咱们能够用一个更简略的技巧来解释。
咱们能够计算e的2次方和-0.002次方的值来简化解释。
- 潜在买家均匀每减少一次造访的工夫,他提出报价的概率就会减少约7.39倍
- 屋宇每减少1000美元,均匀出价的概率会受到0.998倍的影响
如果吉姆的客户,Sue,参观了一次房子,房子价值100万美元,那么咱们能够用下面推导出的公式来预计她购买房子的概率。
这表明Sue有大概4%的概率出价买下这所房子。
作为一个分类器
只管logistic回归是一种回归模型,但它常常被用于分类。概率总是在0和1之间。咱们能够设置一个任意的阈值来预测察看到的类别。
咱们还能够将logistic回归扩大为两个以上的分类器,使其成为一个多类分类器。为此,咱们能够采取“ 一对一”的办法,即训练尽可能多的逻辑回归模型(每个模型预测一个类别的对数概率),并采纳产生最高推断概率的类别。
原文链接:https://towardsdatascience.co…
欢送关注磐创AI博客站:
http://panchuang.net/
sklearn机器学习中文官网文档:
http://sklearn123.com/
欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/
发表回复