共计 987 个字符,预计需要花费 3 分钟才能阅读完成。
作者 |Mandy Gu
编译 |Flin
起源 |towardsdatascience
Logistic 回归,通过预计事件产生的对数概率来对事件产生的概率进行建模。如果咱们假如对数比值和 j 个自变量之间存在线性关系,那么咱们能够将事件产生的概率 p 建模为:
你可能留神到未指定对数底。对数的底数其实并不重要,回忆一下,如果咱们把两边都乘以 logk b,咱们能够把底数 b 改成任何新的底数 k。
这使咱们能够灵便地假如左侧的底数。当然,底数会影响对后果和系数值的解释。
拆散概率
如果咱们有预计系数,就很容易拆散出 p。留神,p/(1-p)示意事件产生的概率。
咱们将用另一个例子来解释阐明。房地产经纪人吉姆 (Jim) 训练了一个逻辑回归模型来预测某人出价买房的可能性。他通过应用两个解释变量来放弃他的模型的简洁性:
- x1: 潜在客户访问房子的次数
- 这栋房子的要价是几千美元
在应用程序确定最优系数后,Jim 为他的模型推导出这些系数:
Jim 的模型通知咱们:
- 潜在买家每多一次访问,均匀概率自然对数减少 2
- 屋宇每减少 1000 美元,均匀概率的自然对数降落 0.002
听起来很拗口,而且很难听懂。咱们能够用一个更简略的技巧来解释。
咱们能够计算 e 的 2 次方和 -0.002 次方的值来简化解释。
- 潜在买家均匀每减少一次造访的工夫,他提出报价的概率就会减少约 7.39 倍
- 屋宇每减少 1000 美元,均匀出价的概率会受到 0.998 倍的影响
如果吉姆的客户,Sue,参观了一次房子,房子价值 100 万美元,那么咱们能够用下面推导出的公式来预计她购买房子的概率。
这表明 Sue 有大概 4% 的概率出价买下这所房子。
作为一个分类器
只管 logistic 回归是一种回归模型,但它常常被用于分类。概率总是在 0 和 1 之间。咱们能够设置一个任意的阈值来预测察看到的类别。
咱们还能够将 logistic 回归扩大为两个以上的分类器,使其成为一个多类分类器。为此,咱们能够采取“一对一”的办法,即训练尽可能多的逻辑回归模型(每个模型预测一个类别的对数概率),并采纳产生最高推断概率的类别。
原文链接:https://towardsdatascience.co…
欢送关注磐创 AI 博客站:
http://panchuang.net/
sklearn 机器学习中文官网文档:
http://sklearn123.com/
欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/