当前位置:首页 > 影视动漫 >

lr模型的基本原理(lr测试入门)

来源:原点资讯(www.yd166.com)时间:2023-05-10 23:58:41作者:YD166手机阅读>>

lr模型的基本原理,lr测试入门(1)

逻辑回归是个看似简单又在面试中常常被问到的机器学习算法,虽然表面上看起来很简单,容易掌握,但真正问到细节时卡住,在某些点上还是容易卡住的。

所以,给大家的建议是在面试时,如果面试官让你说一个自己最精通的机器学习算法,那么建议大家不要直接说自己精通逻辑回归,因为十分容易被问到,从而减分。

lr模型的基本原理,lr测试入门(2)

推荐大家将 SVM 算法作为自己的第一个算法去讲解,因为 SVM 没有那么多小细节,只要掌握了就不容易掉坑里。下面总结一下面试中逻辑回归的常见考点。

1、简单介绍一下算法

逻辑回归是在数据服从伯努利分布的假设下,通过极大似然的方法,运用梯度下降法来求解参数,从而达到将数据二分类的目的。

2、逻辑回归目的

将数据进行二分类

3、逻辑回归是如何做分类的

逻辑回归作为一个回归函数,如何用于分类问题。 逻辑回归中,对于每个 x,其条件概率 y 的确是一个连续的变量。而逻辑回归中可以设定一个阈值,y 值大于这个阈值的是一类,y 值小于这个阈值的是另外一类。至于阈值的选择,通常是根据实际情况来确定,一般情况下选取 0.5 作为阈值来划分。

4、假设条件

(1)数据服从伯努利分布。 一个简单的伯努利分布的例子就是抛硬币,假设硬币被抛出正面的概论为 p,被抛出负面的概论为 1-p,则这些硬币抛出的正负两面所代表的随机变量即服从伯努利分布。

(2)假设样本为正的概论 p 为一个 Sigmoid 函数。 为什么要使用 Sigmoid 函数,事实上,设计一个分类模型,首先需要给它设定一个学习目标,即通过优化一个损失函数来求解参数。那么,在逻辑回归中,这个目标就是最大化似然度。

考虑一个二值分类问题,训练数据是一堆(特征,标记)组合,(x1, y1),(x2, y2),... 其中 x 是特征向量,y 是类标记(y = 1 表示正类,y = 0 表示反类)。

LR 首先定义一个条件概率 p(y | x; w)。p(y | x; w) 表示给定特征 x ,类标记 y 的概率分布,其中 w 是 LR 的模型参数(一个超平面)。有了这个条件概率,就可以在训练数据上定义一个似然函数,然后通过最大似然来学习 w,这是 LR 模型的基本原理。

那么如何定义这个条件概率呢,我们知道,对于大多数线性分类器,response value(响应值)<w, x> (w 和 x 的内积) 代表了数据 x 属于正类(y = 1)的 confidence(置信度)。

<w, x> 越大,这个数据属于正类的可能性越大;<w,x> 越小,属于反类的可能性越大。

<w, x> 在整个实数范围内取值。现在我们需要用一个函数把 <w, x> 从实数空间映射到条件概率 p(y = 1 | x, w) 上,并且希望 <w, x> 越大,p(y = 1 | x, w) 越大;<w, x> 越小,p(y = 1 | x, w) 越小,而 Sigmoid 函数恰好能实现这一功能:首先,它的值域是 (0,1),满足概率的要求;其次,它是一个单调上升函数。最终,p(y = 1 | x, w) = Sigmoid(<w, x>)。

5、逻辑回归损失函数

逻辑回归的损失函数是其极大似然函数。

6、逻辑回归中参数求解方法

极大似然函数无法直接求解,一般是通过对该函数进行梯度下降来不断逼近其最优解。这里需要注意的点是要对梯度下降有一定的了解,就梯度下降本身来看的话就有随机梯度下降,批梯度下降,small batch 梯度下降三种方式,面试官可能会问这三种方式的优劣以及如何选择最合适的梯度下降方式。

  • 批梯度下降会获得全局最优解,缺点是在更新每个参数的时候需要遍历所有的数据,计算量会很大,并且会有很多的冗余计算,导致的结果是当数据量大的时候,每个参数的更新都会很慢。
  • 随机梯度下降是以高方差频繁更新,优点是使得 sgd 会跳到新的和潜在更好的局部最优解,缺点是使得收敛到局部最优解的过程更加的复杂。
  • 小批量梯度下降结合了批梯度下降和随机梯度下降的优点,每次更新的时候使用 n 个样本。减少了参数更新的次数,可以达到更加稳定收敛结果,一般在深度学习当中我们采用这种方法。
7、逻辑回归中为什么使用对数损失而不用平方损失

对于逻辑回归,这里所说的对数损失和极大似然是相同的。 不使用平方损失的原因是,在使用 Sigmoid 函数作为正样本的概率时,同时将平方损失作为损失函数,这时所构造出来的损失函数是非凸的,不容易求解,容易得到其局部最优解。 而如果使用极大似然,其目标函数就是对数似然函数,该损失函数是关于未知参数的高阶连续可导的凸函数,便于求其全局最优解。

8、逻辑回归的优缺点

优点:

  • 形式简单,模型的可解释性非常好。从特征的权重可以看到不同的特征对最后结果的影响,某个特征的权重值比较高,那么这个特征最后对结果的影响会比较大。
  • 模型效果不错。在工程上是可以接受的(作为 baseline),如果特征工程做的好,效果不会太差,并且特征工程可以并行开发,大大加快开发的速度。
  • 训练速度较快。分类的时候,计算量仅仅只和特征的数目相关。并且逻辑回归的分布式优化 SGD 发展比较成熟。
  • 方便调整输出结果,通过调整阈值的方式。

缺点:

  • 准确率欠佳。因为形式非常的简单,而现实中的数据非常复杂,因此,很难达到很高的准确性。
  • 很难处理数据不平衡的问题。举个例子:如果我们对于一个正负样本非常不平衡的问题比如正负样本比 10000:1。我们把所有样本都预测为正也能使损失函数的值比较小。但是作为一个分类器,它对正负样本的区分能力不会很好。
  • 无法自动的进行特征筛选。
  • 只能处理二分类问题。
9、LR 和线性回归的区别

损失函数:线性模型是平方损失函数,而逻辑回归则是似然函数。

10、逻辑回归在训练的过程当中,如果有很多的特征高度相关或者说有一个特征重复了很多遍,会造成怎样的影响

如果在损失函数最终收敛的情况下,其实就算有很多特征高度相关也不会影响分类器的效果。 但是对特征本身来说的话,假设只有一个特征,在不考虑采样的情况下,你现在将它重复 N 遍。训练以后完以后,数据还是这么多,但是这个特征本身重复了 N 遍,实质上将原来的特征分成了 N 份,每一个特征都是原来特征权重值的百分之一。

11、为什么还是会在训练的过程当中将高度相关的特征去掉
  1. 去掉高度相关的特征会让模型的可解释性更好;
  2. 可以大大提高训练的速度。

栏目热文

lr模型的优缺点(lr 模型和xgboost 模型对比)

lr模型的优缺点(lr 模型和xgboost 模型对比)

本文约3200字,建议阅读10分钟本篇文章介绍了机器学习算法的应用场景。在学习算法的过程里,难免有疑问:k近邻、贝叶斯、...

2023-05-11 00:31:44查看全文 >>

模糊预测模型怎么弄(几种常见的预测模型软件)

模糊预测模型怎么弄(几种常见的预测模型软件)

欢迎引用[1]刘昕卓,苏成利,施惠元,彭博,李平.时变轨迹下工业过程鲁棒模糊预测控制[J].自动化与仪器仪表,2022,...

2023-05-11 00:24:23查看全文 >>

garch模型预测有什么不足(通俗理解garch模型)

garch模型预测有什么不足(通俗理解garch模型)

开始期货的笔记啦~~~~~期货从业太简单了 不写笔记了,包括证券从业两门也太基础了,所以不写了。基金从业虽然也很简单却也...

2023-05-11 00:10:53查看全文 >>

bilstm模型代码详细解释(bilstm算法的优缺点)

bilstm模型代码详细解释(bilstm算法的优缺点)

一、介绍1.1 文章组织本文简要介绍了BiLSTM的基本原理,并以句子级情感分类任务为例介绍为什么需要使用LSTM或Bi...

2023-05-10 23:58:29查看全文 >>

lr模型计算简单吗(lr分析方法)

lr模型计算简单吗(lr分析方法)

来源:机器学习算法与自然语言处理本文共6600字,建议阅读13分钟。本文为你带来22道机器学习常见的面试问题和回答。1、...

2023-05-11 00:26:08查看全文 >>

模型参数在线辨识(预估模型参数的方法)

模型参数在线辨识(预估模型参数的方法)

在这篇文章中,我们介绍深度学习网络在一个模型系统中的应用。这个模型系统可以是用微分方程进行描述,深度学习网络可以在线对模...

2023-05-11 00:36:22查看全文 >>

模型参数更新周期(模型参数设置详解)

模型参数更新周期(模型参数设置详解)

文 / 交通银行软件开发中心  俞书浩手机银行APP已成为银行客户申购理财、基金、保险等产品的主流销售渠道,因此需要更快...

2023-05-11 00:23:31查看全文 >>

模型预测精度(模型预测结果)

模型预测精度(模型预测结果)

导读:在真实场景中,模型很少能成功地预测所有的内容。我们知道应该使用测试集的数据来评估我们的模型。但是这到底是如何工作的...

2023-05-11 00:25:23查看全文 >>

lr模型是推荐算法吗(lr模型推导公式)

lr模型是推荐算法吗(lr模型推导公式)

1、原理介绍LR(逻辑斯蒂回归)算法的本质是一个线性回归函数,该算法主要用作二分类的场景,例如点击率预估,算法公式如下:...

2023-05-10 23:53:41查看全文 >>

lpm模型的缺点(lpm和probit模型的区别)

lpm模型的缺点(lpm和probit模型的区别)

3d模型中底模和高模有哪些区别?在三维建模法线贴图时,我们经常听到两种不同的说法:底模式和高模式。那么3d模型中底模和高...

2023-05-11 00:39:00查看全文 >>

文档排行