【普通最小二乘法的计算公式】在统计学和回归分析中,普通最小二乘法(Ordinary Least Squares, OLS)是一种广泛使用的参数估计方法。其核心思想是通过最小化观测值与模型预测值之间的平方误差之和,来找到最佳拟合直线或曲线。OLS常用于线性回归模型中,适用于一元线性回归或多变量线性回归。
一、基本原理
普通最小二乘法的基本目标是寻找一组参数,使得模型的预测值与实际观测值之间的差异尽可能小。具体来说,就是使残差平方和(Sum of Squared Residuals)达到最小。
对于一元线性回归模型:
$$
y_i = \beta_0 + \beta_1 x_i + \varepsilon_i
$$
其中:
- $ y_i $ 是因变量;
- $ x_i $ 是自变量;
- $ \beta_0 $ 和 $ \beta_1 $ 是待估计的参数;
- $ \varepsilon_i $ 是误差项。
OLS的目标是求出使以下函数最小化的 $ \beta_0 $ 和 $ \beta_1 $:
$$
\sum_{i=1}^{n}(y_i - \beta_0 - \beta_1 x_i)^2
$$
二、计算公式
1. 参数估计公式
在简单线性回归中,$ \beta_0 $ 和 $ \beta_1 $ 的估计值为:
$$
\hat{\beta}_1 = \frac{\sum_{i=1}^{n}(x_i - \bar{x})(y_i - \bar{y})}{\sum_{i=1}^{n}(x_i - \bar{x})^2}
$$
$$
\hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x}
$$
其中:
- $ \bar{x} = \frac{1}{n}\sum_{i=1}^{n}x_i $
- $ \bar{y} = \frac{1}{n}\sum_{i=1}^{n}y_i $
2. 残差计算公式
残差(Residual)为:
$$
e_i = y_i - \hat{y}_i = y_i - (\hat{\beta}_0 + \hat{\beta}_1 x_i)
$$
3. 残差平方和(SSE)
$$
SSE = \sum_{i=1}^{n} e_i^2
$$
4. 总平方和(SST)
$$
SST = \sum_{i=1}^{n}(y_i - \bar{y})^2
$$
5. 回归平方和(SSR)
$$
SSR = \sum_{i=1}^{n}(\hat{y}_i - \bar{y})^2
$$
三、关键公式总结表
| 公式名称 | 公式表达式 |
| 斜率估计 $ \hat{\beta}_1 $ | $ \hat{\beta}_1 = \frac{\sum (x_i - \bar{x})(y_i - \bar{y})}{\sum (x_i - \bar{x})^2} $ |
| 截距估计 $ \hat{\beta}_0 $ | $ \hat{\beta}_0 = \bar{y} - \hat{\beta}_1 \bar{x} $ |
| 残差 $ e_i $ | $ e_i = y_i - (\hat{\beta}_0 + \hat{\beta}_1 x_i) $ |
| 残差平方和(SSE) | $ SSE = \sum_{i=1}^{n} e_i^2 $ |
| 总平方和(SST) | $ SST = \sum_{i=1}^{n}(y_i - \bar{y})^2 $ |
| 回归平方和(SSR) | $ SSR = \sum_{i=1}^{n}(\hat{y}_i - \bar{y})^2 $ |
四、注意事项
1. 假设条件:OLS要求数据满足线性关系、独立性、同方差性和正态性等基本假设。
2. 适用范围:主要用于线性模型,对于非线性模型需进行变量变换或使用其他方法。
3. 优点:计算简便、解释性强,是大多数回归分析的基础。
4. 局限性:对异常值敏感,且无法处理多重共线性等问题。
通过以上公式和表格,可以清晰地了解普通最小二乘法的计算过程及其核心公式,为后续的建模与数据分析提供理论支持。


