1)用所给样本求出两个相关变量的(算术)平均值:
x_=(x1+x2+x3+...+xn)/n,y_=(y1+y2+y3+...+yn)/n ;
2)分别计算分子和分母:(两个公式任选其一)
分子=(x1y1+x2y2+x3y3+...+xnyn)-nx_Y_
分母=(x1^2+x2^2+x3^2+...+xn^2)-n*x_^2
3)计算b:b=分子 / 分母
扩展资料:
理论模型
给一个随机样本 ,一个线性回归模型假设回归子
和回归量
之间的关系是除了X的影响以外,还有其他的变数存在。我们加入一个误差项
(也是一个随机变量)来捕获除了 之外任何对
的影响。
所以一个多变量线性回归模型表示为以下的形式:
其他的模型可能被认定成非线性模型。一个线性回归模型不需要是自变量的线性函数。线性在这里表示 的条件均值在参数
里是线性的。
例如:模型 在
和
里是线性的,但在
里是非线性的,它是
的非线性函数。
参考资料:线性回归方程_百度百科
本回答被网友采纳1)用所给样本求出两个相关变量的(算术)平均值:
x_=(x1+x2+x3+...+xn)/n
y_=(y1+y2+y3+...+yn)/n ;
2)分别计算分子和分母:(两个公式任选其一)
分子=(x1y1+x2y2+x3y3+...+xnyn)-nx_Y_
分母=(x1^2+x2^2+x3^2+...+xn^2)-n*x_^2
3)计算 b : b=分子 / 分母
扩展资料:
线性回归方程是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的一种统计分析方法之一。线性回归也是回归分析中第一种经过严格研究并在实际应用中广泛使用的类型。按自变量个数可分为一元线性回归分析方程和多元线性回归分析方程。
在统计学中,线性回归方程是利用最小二乘函数对一个或多个自变量和因变量之间关系进行建模的一种回归分析。这种函数是一个或多个称为回归系数的模型参数的线性组合。
只有一个自变量的情况称为简单回归,大于一个自变量情况的叫做多元回归。(这反过来又应当由多个相关的因变量预测的多元线性回归区别,而不是一个单一的标量变量。)
在线性回归中,数据使用线性预测函数来建模,并且未知的模型参数也是通过数据来估计。这些模型被叫做线性模型。最常用的线性回归建模是给定X值的y的条件均值是X的仿射函数。
不太一般的情况,线性回归模型可以是一个中位数或一些其他的给定X的条件下y的条件分布的分位数作为X的线性函数表示。像所有形式的回归分析一样,线性回归也把焦点放在给定X值的y的条件概率分布,而不是X和y的联合概率分布(多元分析领域)。
1.广义最小二乘法
广义最小二乘法可以用在当观测误差具有异方差或者自相关的情况下。
2.总体最小二乘法
总体最小二乘法用于当自变量有误时。
3.广义线性模式
广义线性模式应用在当误差分布函数不是正态分布时。比如指数分布,伽玛分布,逆高斯分布,泊松分布,二项式分布等。
4.稳健回归
稳健回归是将平均绝对误差最小化,不同于在线性回归中是将均方误差最小化。
线性回归有很多实际用途。分为以下两大类:
1 如果目标是预测或者映射,线性回归可以用来对观测数据集的和X的值拟合出一个预测模型。当完成这样一个模型以后,对于一个新增的X值,在没有给定与它相配对的y的情况下,可以用这个拟合过的模型预测出一个y值。
2 给定一个变量y和一些变量X1,...,Xp,这些变量有可能与y相关,线性回归分析可以用来量化y与Xj之间相关性的强度,评估出与y不相关的Xj,并识别出哪些Xj的子集包含了关于y的冗余信息。
参考资料:百度百科-线性回归方程
本回答被网友采纳参考:线性回归--原理