ols最小二乘法推导过程 Logistic回归模型的参数估计为什么不能采用最小二乘法?
Logistic回归模型的参数估计为什么不能采用最小二乘法?
首先,我们确实可以使用普通最小二乘法,也就是OLS,来做y=0/1的回归。但我们通常不使用它。为什么?一般来说,当y为0/1时,我们要得到y=1的概率,并且概率不能小于0或大于1。然而,使用OLS,很容易得到小于0或大于1的概率预测值。这是第一个原因。其次,从稍微定量的角度来看,OLS的关键假设是误差项u与x无关,但当y=0/1时,我们可以想象这个假设是站不住脚的。第三个原因是不仅u与x有关,而且u的方差也与x有关,因此u具有异方差性,这违反了Blue的假设。第四个原因是,从线性投影的角度来看,OLS要求y和其他向量在一个向量空间中,但在像连续X这样的n维向量空间中,只有0/1y不能存在,所以如果y只能取0/1的两个值,问题就会跳出线性模型的范围,变成一个非线性模型。当然,由于这个模型比较简单,所以仍然是在“广义线性模型”的框架内。此外,虽然OLS是不合适的,但并不意味着“最小二乘法”不能使用。一般来说,“最小二乘法”不仅包括普通最小二乘法(OLS),还包括非线性最小二乘法(NLS)、加权最小二乘法(WLS)等,我觉得有些网站的答案已经非常详细了,所以我在这里附上一个链接(仅供参考)https://www.zhihu.com/question/23817253/answer/85072173
最小二乘法ols的得出来的值为什么是平均值?
以单变量线性回归为例,OLS法计算的β0和β1满足两个条件:R 1回归线通过(x均值,y均值),r2β1等于X和Y的协方差除以X的方差上述方差和协方差是样本的参数,而不是总体的参数。也就是说,随机抽样会导致β1的波动,所以即使你手上的参数β1不等于0,你也不容易判断出总体的β1不等于0。普通最小二乘估计就是求参数的估计值,使偏差平方和最小。各平方项的权重相同,这是常用的最小二乘回归参数估计方法。在误差项等方差不相关的条件下,普通最小二乘估计是回归参数的最小方差线性无偏估计。然而,在异方差条件下,每一项在平方和中的地位是不一样的。误差项方差较大的项在残差平方和中取较大值,起较大作用。因此,一般最小二乘估计的回归线会拉到方差大的项目上,方差大的项目拟合度较好,方差小的项目拟合度较差。OLS仍然是无偏估计,但它不再是最小方差线性无偏估计。所以它是:给较大的残差平方赋予较小的权重,给较小的残差平方赋予较大的权重。通过这种方法,对残差提供的信息的重要性进行校正,提高了参数估计的精度。
加权最小二乘法如下
ols最小二乘法推导过程 最小二乘法ols的基本思想 ols最小二乘法的假设
版权声明:本文内容由互联网用户自发贡献,本站不承担相关法律责任.如有侵权/违法内容,本站将立刻删除。