关于人工智能:数据科学速成班解释逻辑回归

作者|Mandy Gu
编译|Flin
起源|towardsdatascience

Logistic回归,通过预计事件产生的对数概率来对事件产生的概率进行建模。如果咱们假如对数比值和 j 个自变量之间存在线性关系,那么咱们能够将事件产生的概率p建模为:

你可能留神到未指定对数底。对数的底数其实并不重要,回忆一下,如果咱们把两边都乘以logk b,咱们能够把底数b改成任何新的底数k。

这使咱们能够灵便地假如左侧的底数。当然,底数会影响对后果和系数值的解释。

拆散概率

如果咱们有预计系数,就很容易拆散出p。留神,p/(1-p)示意事件产生的概率。

咱们将用另一个例子来解释阐明。房地产经纪人吉姆(Jim)训练了一个逻辑回归模型来预测某人出价买房的可能性。他通过应用两个解释变量来放弃他的模型的简洁性:

  • x1:潜在客户访问房子的次数
  • 这栋房子的要价是几千美元

在应用程序确定最优系数后,Jim为他的模型推导出这些系数:

Jim的模型通知咱们:

  • 潜在买家每多一次访问,均匀概率自然对数减少2
  • 屋宇每减少1000美元,均匀概率的自然对数降落0.002

听起来很拗口,而且很难听懂。咱们能够用一个更简略的技巧来解释。

咱们能够计算e的2次方和-0.002次方的值来简化解释。

  • 潜在买家均匀每减少一次造访的工夫,他提出报价的概率就会减少约7.39倍
  • 屋宇每减少1000美元,均匀出价的概率会受到0.998倍的影响

如果吉姆的客户,Sue,参观了一次房子,房子价值100万美元,那么咱们能够用下面推导出的公式来预计她购买房子的概率。

这表明Sue有大概4%的概率出价买下这所房子。

作为一个分类器

只管logistic回归是一种回归模型,但它常常被用于分类。概率总是在0和1之间。咱们能够设置一个任意的阈值来预测察看到的类别。

咱们还能够将logistic回归扩大为两个以上的分类器,使其成为一个多类分类器。为此,咱们能够采取“ 一对一”的办法,即训练尽可能多的逻辑回归模型(每个模型预测一个类别的对数概率),并采纳产生最高推断概率的类别。

原文链接:https://towardsdatascience.co…

欢送关注磐创AI博客站:
http://panchuang.net/

sklearn机器学习中文官网文档:
http://sklearn123.com/

欢送关注磐创博客资源汇总站:
http://docs.panchuang.net/

评论

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

这个站点使用 Akismet 来减少垃圾评论。了解你的评论数据如何被处理