Skip to content

第七章 - 参数估计

约 3083 个字 预计阅读时间 10 分钟

点估计

设总体 \(X\) 的分布函数为 \(F(x; \theta)\)\(\theta\) 是待估函数,\(X_{1}, X_{2}, \cdots, X_{n}\)\(X\) 的一个样本。点估计问题就是要构造一个适当的统计量 \(\hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\),用来估计参数 \(\theta\),此时称 \(\hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\)\(\theta\)点估计量 (point estimator)。如果把其中的样本用用样本值 \(x_{1}, x_{2}, \cdots, x_{n}\) 代替,就称 \(\hat{\theta}(x_{1}, x_{2}, \cdots, x_{n})\)\(\theta\) 的一个估计值。

根据不同的统计思想,可以得到不同的点估计方法。下面将介绍两种常用的点估计方法。

矩法

矩法 (moment method) 的主要理论依据为大数定律,即当样本容量 \(n \to +\infty\) 时,样本矩依概率收敛于相应的总体矩,即

\[A_{k} \stackrel{P}{\longrightarrow} \mu_{k}, B_{k} \stackrel{P}{\longrightarrow} \nu_{k}\]

其中 \(A_{k}, B_{k}\) 分别为样本的 \(k\) 阶原点矩和 \(k\) 阶中心矩,\(\mu_{k}, \nu_{k}\) 分别为总体的 \(k\) 阶原点矩和 \(k\) 阶中心距。因此,我们可以用样本矩作为相应总体矩的估计,用样本矩的函数作为相应总体矩的同意函数的估计。

\(\theta_{1}, \theta_{2}, \cdots, \theta_{m}\) 是总体 \(X\) 的待估函数,并假定 \(X\) 的前 \(m, m \geq 1\) 阶矩存在,下面给出利用矩法来求参数估计量的基本步骤:

  1. 求总体 \(X\) 的前 \(m\) 阶原点矩 \(\mu_{1}, \mu_{2}, \cdots, \mu_{m}\),一般地,这些矩可以写成待估参数 \(\theta_{1}, \theta_{2}, \cdots, \theta_{m}\) 的函数形式,记作

    \[\begin{cases} \mu_{1} = E(X) = g_{1}(\theta_{1}, \theta_{2}, \cdots, \theta_{m}) \\ \mu_{2} = E(X^{2}) = g_{2}(\theta_{1}, \theta_{2}, \cdots, \theta_{m}) \\ \cdots \\ \mu_{m} = E(X^{m}) = g_{m}(\theta_{1}, \theta_{2}, \cdots, \theta_{m}) \end{cases}\]
  2. 由上述方程组,可解出各参数关于前 \(m\) 阶原点矩 \(\mu_{1}, \mu_{2}, \cdots, \mu_{m}\) 的函数表达式,即

    \[\theta_{k} = h_{k}(\mu_{1}, \mu_{2}, \cdots, \mu_{m}), k = 1, 2, \cdots, m\]
  3. 根据矩法思想,用 \(A_{i}\) 代替 \(\mu_{i}, i = 1, 2, \cdots, m\),即可得各参数的估计量为

    \[\hat{\theta}_{k} = h_{k}(A_{1}, A_{2}, \cdots, A_{m}), k = 1, 2, \cdots, m\]

我们称上述求得的 \(\hat{\theta}_{k}\) 为参数 \(\theta_{k}, k = 1, 2, \cdots, m\)矩估计量 (moment estimator)。

同理,我们也可以使用中心矩进行矩法的点估计。只需将上述过程中的 \(\mu_{i}\) 替换为 \(\nu_ {i}\)\(A_{i}\) 替换为 \(B_{i}\) 即可。

极大似然法

极大似然法是在参数分布族的场合下使用的一种应用非常广泛的参数估计方法。其基本思想是:设某事件 \(A\) 发生的概率依赖于待估参数 \(\theta\),如果观察到 \(A\) 已经发生,那么就取使得事件 \(A\) 发生的概率达到最大的 \(\theta\) 的值作为 \(\theta\) 的估计。

\(X\) 为离散型总体,其概率分布律为 \(P \{ X = x \} = p(x; \theta), \theta \in \Theta\) 是未知的待估参数,\(\Theta\) 为参数可取值的范围,即参数空间。\(X_{1}, X_{2}, \cdots, X_{n}\) 是来自总体 \(X\) 的样本,并设 \(x_{1}, x_{2}, \xdots, x_{n}\) 是已经得到的样本值,则样本 \(x_{1}, X_{2}, \cdots, X_{n}\) 取到样本值 \(x_{1}, x_{2}, \xdots, x_{n}\) 的概率为

\[P \{ X_{1} = x_{1}, X_{2} = x_{2}, \cdots, X_{n} = x_{n} \} = \prod_{i = 1}^{n} P \{ X_{i} = x_{i} \} = \prod_{i = 1}^{n} p(x_{i}; \theta)\]

其为参数 \(\theta\) 的函数。对于不同的 \(\theta\),这一概率是不相同的。记

\[L(\theta) = L(\theta; x_{1}, x_{2}, \cdots, x_{n}) = \prod_{i = 1}^{n} p(x_{i}; \theta)\]

则称 \(L(\theta)\)似然函数 (likelihood function)。基于极大似然法的基本思想,我们应选取 \(\theta\) 的估计值 \(\hat{\theta}\),使得 \(L(\theta)\) 取到最大。于是 \(\hat{\theta}\) 需满足

\[L(\hat{\theta}) = L(\hat{\theta}; x_{1}, x_{2}, \cdots, x_{n}) = \max_{\theta \in \Theta} L(\theta; x_{1}, x_{2}, \cdots, x_{n})\]

由此获得的 \(\hat{\theta} = \hat{\theta}(x_{1}, x_{2}, \cdots, x_{n})\) 称作参数 \(\theta\) 的极大似然估计值,相应的统计量 \(\hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\) 称作 \(\theta\)极大似然估计量 (maximum likelihood estimation, MLE)。

\(X\) 为连续型总体时,设其密度函数为 \(f(x; \theta), \theta \in \Theta\) 是未知的待估参数,\(X_{1}, X_{2}, \cdots, X_{n}\) 是来自总体 \(X\) 的样本,并设 \(x_{1}, x_{2}, \cdots, x_{n}\) 是已经得到的样本值。此时,似然函数可定义为

\[L(\theta) = L(\theta; x_{1}, x_{2}, \cdots, x_{n}) = \prod_{i = 1}^{n} f(x_{i}; \theta)\]

其极大似然估计值 \(\hat{\theta}\) 可用相同的方式确定,极大似然估计量为相应的统计量 \(\hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\)

寻求极大似然估计用常用微分法,即求解

\[\left. \frac{\mathrm{d}L(\theta)}{\mathrm{d}\theta} \right|_{\theta = \hat{\theta}} = 0\]

通常称这一方程为似然方程 (likelihood equation)。为计算方便,往往对似然函数求对数,记作

\[l(\theta) = \ln L(\theta)\]

\(l(\theta)\)对数似然函数 (log-likelihood function),则似然方程等价于

\[\left. \frac{\mathrm{d}l(\theta)}{\mathrm{d}\theta} \right|_{\theta = \hat{\theta}} = 0\]

通常称这一方程为对数似然方程 (log-likelihood equation)。

当然,根据极大值的充分条件,往往还需要验证似然函数或对数似然蛤属关于待估参数的二阶导数是否小于零。

当似然方程的解不存在时,我们往往根据似然函数关于待估函数的单调性来求其极大似然估计。

极大似然估计具有不变性,即设参数 \(\theta\) 的极大似然估计为 \(\hat{\theta}, \theta^{*} = g(\theta)\)\(\theta\) 的连续函数,则参数 \(\theta^{*}\) 的极大似然估计为 \(\hat{\theta^{*}} = g(\hat{\theta})\)

估计量的评价准则

从上一节的讨论可知,对总体的同意参数,采用不同的估计方法得到的估计量可能是不一样的,这就意味着需要一个选择「较好」的估计量的准则。本节将讨论四个估计量的评价准则。

无偏性准则

一个自然的评价标准是,要求估计量无系统偏差,即要求在大量重复抽样时,所有估计值的平均应与待估参数的真值相同,这就是无偏性准则。

\(\theta \in \Theta\) 是总体 \(X\) 的待估参数,\(X_{1}, X_{2}, \cdots, X_{n}\) 是来自总体 \(X\) 的样本。若估计量 \(\hat{\theta} = \hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\) 的数学期望存在,且满足

\[E(\hat{\theta}) = \theta, \forall \theta \in \Theta\]

则称 \(\hat{\theta}\)\(\theta\)无偏估计量无偏估计 (unbiased estimator)。

\(E(\hat{\theta}) \neq \theta\),则称 \(E(\hat{\theta}) - \theta\) 为估计量 \(\hat{\theta}\)偏差 (bias)。

\(E(\hat{\theta}) \neq \theta\),但满足 \(\lim_{n \to +\infty} E(\hat{\theta}) = \theta\),则称 \(\hat{\theta}\)\(\theta\)渐进无偏估计 (asymptotic unbiased estimator)。

有效性准则

在有些情况下,同一总体参数的无偏估计量是不唯一的。为比较两个无偏估计量的好坏,我们需进一步考察估计量取值的波动性,即估计量的方差。无偏估计量的方差越小,说明该估计量的取值越集中在参数真值的附近。

\(\hat{\theta}_{1} = \hat{\theta}_{1} (X_{1}, X_{2}, \cdots, X_{n})\)\(\hat{\theta}_{2} = \hat{\theta}_{2} (X_{1}, X_{2}, \cdots, X_{n})\) 都是参数 \(\theta\) 的无偏估计,若 \(\forall \theta \in \Theta, \text{Var}_{\theta}(\hat{\theta}_{1}) \leq \text{Var}_{\theta}(\hat{\theta}_{2})\),且至少有一个 \(\theta \in \Theta\) 使不等号成立,则称 \(\hat{\theta}_{1}\)\(\hat{\theta}_{2}\) 有效。

均方误差准则

\(\hat{\theta} = \hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\) 是总体参数 \(\theta\) 的估计量,称 \(E[(\hat{\theta} - \theta)^{2}]\) 是估计量 \(\hat{\theta}\) 的均方误差,记作 \(\text{Mse}(\hat{\theta})\)

一个常用于计算 \(\text{Mse}(\hat{\theta})\) 的公式为

\[\text{Mse}(\hat{\theta}) = \text{Var}(\hat{\theta}) + [\text{Bias}(\hat{\theta})]^{2}\]
Proof

已知

\[\text{Var}(\hat{\theta}) = E[(\hat{\theta} - E(\hat{\theta}))^{2}], \text{Bias}(\hat{\theta}) = E(\hat{\theta}) - \theta\]

\[\begin{aligned} \text{Mse}(\hat{\theta}) & = E[(\hat{\theta} - \theta)^{2}] \\ & = E[(\hat{\theta} - E(\hat{\theta}) + E(\hat{\theta}) - \theta)^{2}] \\ & = E[(\hat{\theta} - E(\hat{\theta}))^{2}] + 2E[(\hat{\theta} - E(\hat{\theta}))(E(\hat{\theta}) - \theta)] + E[(E(\hat{\theta}) - \theta)^{2}] \end{aligned}\]

其中

\[E[(\hat{\theta} - E(\hat{\theta}))(E(\hat{\theta}) - \theta)] = (E(\hat{\theta}) - \theta) \cdot E[\hat{\theta} - E(\hat{\theta})] = (E(\hat{\theta}) - \theta) \cdot 0 = 0\]

\(E(\hat{\theta}) - \theta\) 为常数。故

\[\begin{aligned} \text{Mse}(\hat{\theta}) & = E[(\hat{\theta} - E(\hat{\theta}))^{2}] + 2E[(\hat{\theta} - E(\hat{\theta}))(E(\hat{\theta}) - \theta)] + E[(E(\hat{\theta}) - \theta)^{2}] \\ & = \text{Var}(\hat{\theta}) + [\text{Bias}(\hat{\theta})]^{2} \end{aligned}\]

\(\hat{\theta}_{1}\)\(\hat{\theta}_{2}\) 都是 \(\theta\) 的估计量,若对于任意 \(\theta \in \Theta, \text{Mse}(\hat{\theta}_{1}) \leq \text{Mse}(\hat{\theta}_{2})\),且至少存在某个 \(\theta\) 使得不等号成立,则称在均方误差准则下,\(\hat{\theta}_{1}\) 优于 \(\hat{\theta}_{2}\)

有定义可知,若 \(\hat{\theta}\) 是参数 \(\theta\) 的无偏估计量,则 \(\text{Mse}(\hat{\theta}) = \text{Var}(\hat{\theta})\)。均方误差准则常用于有偏估计之间,或有偏估计与无偏估计之间的比较。若仅限于无偏估计之间的比较,则等价于有效性准则。

相合性准则

前面三个准则都是在样本容量 \(n\) 固定的情况下讨论的。然而,由于估计量 \(\hat{\theta}\) 依赖于样本容量 \(n\),自然会想到,一个好的估计量,当样本容量 \(n\) 越大时,应该越精确可靠。特别是当 \(n \to +\infty\) 时,估计量的取值与参数真值应几乎完全一致,这就是股价零的相合性,或一致性。相合性的严格定义如下:

\(\hat{\theta}_{n} = \hat{\theta}(X_{1}, X_{2}, \cdots, X_{n})\) 是总体参数 \(\theta\) 的估计量,若对任意 \(\epsilon > 0\),有

\[\lim_{n \to +\infty} P \{ |\hat{\theta}_{n} - \theta| < \epsilon \} = 1\]

\(\hat{\theta}_{n}\) 依概率收敛于 \(\theta\),则称 \(\hat{\theta}_{n}\)\(\theta\)相合统计量 (consistent estimator),并记作 \(\hat{\theta}_{n} \stackrel{P}{\longrightarrow} \theta, n \to +\infty\)

一般地,由矩法求得的参数估计量都满足相合性。对于极大似然估计,在总体分布满足一定的条件下,求得的估计量也是待估参数的相合估计量。

区间估计

人们常常根据点估计对总体参数作出判断,但点估计无法确定这种判断的有效性。为此,我们提出区间估计来解决这一问题。

置信区间的定义

设总体为 \(X, \theta \in \Theta\) 为待估参数,\(X_{1}, X_{2}, \cdots, X_{n}\) 是来自总体 \(X\) 的样本,统计量 \(\hat{\theta}_{L} = \hat{\theta}_{L}(X_{1}, X_{2}, \cdots, X_{n})\)\(\hat{\theta}_{U} = \hat{\theta}_{U}(X_{1}, X_{2}, \cdots, X_{n})\) 满足 \(\hat{\theta}_{L} < \hat{\theta}_{U}\),且对给定的 \(\alpha \in (0, 1)\) 和任意的 \(\theta \in \Theta\),有

\[P \{ \hat{\theta}_{L} < \theta < \hat{\theta}_{U} \} \geq 1 - \alpha\]

则称随机区间 \((\hat{\theta}_{L}, \hat{\theta}_{U})\) 是参数 \(\theta\)置信水平 (confidence level) 为 \(1 - \alpha\)置信区间 (confidence interval),\(\hat{\theta}_{L}\)\(\hat{\theta}_{U}\) 分别称作 \(\theta\) 的置信水平是 \(1 - \alpha\) 的双侧置信下限 (lower confidence limit) 和置信上限 (upper confidence limit)。

称区间的平均长度 \(E(\hat{\theta}_{U} - \hat{\theta}_{L})\) 为置信区间 \((\hat{\theta}_{L}, \hat{\theta}_{U})\) 的精确度,并称区间平均长度的一半 \(\frac{E(\hat{\theta}_{U} - \hat{\theta}_{L})}{2}\) 为置信区间的误差限 (error limit)。

奈曼原则指出,在保证置信水平达到一定的前提下,应当尽可能提高精确度。因此,当总体 \(X\) 是连续型随机变量是,对于给定的置信水平 \(1 - \alpha\),我们应选择使等号刚好成立时,即

\[P \{ \hat{\theta}_{L} < \theta < \hat{\theta}_{U} \} = 1 - \alpha\]

的随机区间 \((\hat{\theta}_{L}, \hat{\theta}_{U})\) 作为参数 \(\theta\) 的置信区间;而当总体 \(X\) 是离散型随机变量时,则应选择使 \(P \{ \hat{\theta}_{L} < \theta < \hat{\theta}_{U} \}\) 尽可能接近 \(1 - \alpha\) 的随机区间 \((\hat{\theta}_{L}, \hat{\theta}_{U})\) 作为参数 \(\theta\) 的置信区间。

在实际应用中,通常取 \(\alpha = 0.1\)\(0.05\)

在一些实际问题中,人们只关注未知参数的置信下限或置信上限。对这些问题,我们只需给出单侧的置信限形式。

对给定的 \(\alpha \in (0, 1)\),如果统计量 \(\hat{\theta}_{L}\)\(\hat{\theta}_{U}\) 满足

\[\begin{aligned} P \{ \hat{\theta}_{L} < \theta \} \geq 1 - \alpha, \theta \in \Theta \\ P \{ \hat{\theta}_{U} > \theta \} \geq 1 - \alpha, \theta \in \Theta \end{aligned}\]

则分别称 \(\hat{\theta}_{L}\)\(\hat{\theta}_{U}\) 是参数 \(\theta\) 的置信水平为 \(1 - \alpha\)单侧置信下限 (one-sided lower confidence limit) 和单侧置信上限 (one-sided upper confidence limit)。

当总体 \(X\) 是连续型随机变量时,应选择 \(\hat{\theta}_{L}\)\(\hat{\theta}_{U}\) 使

\[\begin{aligned} P \{ \hat{\theta}_{L} < \theta \} = 1 - \alpha, \theta \in \Theta \\ P \{ \hat{\theta}_{U} > \theta \} = 1 - \alpha, \theta \in \Theta \end{aligned}\]

根据上述定义,容易得到单侧置信限和置信区间的关系。

设统计量 \(\hat{\theta}_{L}\)\(\hat{\theta}_{U}\) 分别是参数 \(\theta\) 的置信水平为 \(1 - \alpha_{1}\)\(1 - \alpha_{2}\) 的单侧置信下限和单侧置信上限,且 \(\hat{\theta}_{L} < \hat{\theta}_{U}\),则 \((\hat{\theta}_{L}, \hat{\theta}_{U})\)\(\theta\) 的置信水平为 \(1 - \alpha_{1} - \alpha_{2}\) 的置信区间。

枢轴量法

接下来我们介绍置信区间的一种求解方法,即枢轴量法。

设总体 \(X\) 的密度函数为 \(f(x; \theta)\),其中 \(\theta\) 为待估参数,并设 \(X_{1}, X_{2}, \cdots, X_{n}\) 是来自总体 \(X\) 的样本。如果样本和参数 \(\theta\) 的函数 \(G(X_{1}, X_{2}, \cdots, X_{n}; \theta)\) 的分布完全已知,且形式上不依赖于其它位置参数,就称 \(G(X_{1}, X_{2}, \cdots, X_{n}; \theta)\)枢轴量 (pivot)。

我们可以根据下列三个步骤来寻求 \(\theta\) 的置信区间:

  1. 构造一个分布已知的枢轴量 \(G(X_{1}, X_{2}, \cdots, X_{n}; \theta)\)
  2. 当总体 \(X\) 是连续型随机变量时,对给定的置信水平 \(1 - \alpha\),根据枢轴量 \(G(X_{1}, X_{2}, \cdots, X_{n}; \theta)\) 的分布,适当地选择两个常数 \(a\)\(b\),使得

    \[P_{\theta} \{ a < G(X_{1}, X_{2}, \cdots, X_{n}; \theta) < b \} = 1 - \alpha\]
  3. 假如参数 \(\theta\) 可以从 \(G(X_{1}, X_{2}, \cdots, X_{n}; \theta)\) 中分离出来,不等式 \(a < G(X_{1}, X_{2}, \cdots, X_{n}; \theta) < b\) 可以等价地转化为 \(\hat{\theta}_{L} < \theta < \hat{\theta}_{U}\),则对于连续型总体,有

    \[P \{ \hat{\theta}_{L} < \theta < \hat{\theta}_{U} \} = 1 - \alpha\]

此时即求得置信区间。

当总体 \(X\) 是离散型随机变量时,则应选择使 \(P_{\theta} \{ a < G(X_{1}, X_{2}, \cdots, X_{n}; \theta) < b \}\) 尽量接近 \(1 - \alpha\) 的常数 \(a, b\)

一般地,满足条件的 \(a, b\) 不是唯一的,根据奈曼原则,我们应该选择使置信区间 \((\hat{\theta}_{L}, \hat{\theta}_{U})\) 的平均长度达到最短的 \(a\)\(b\),但有时要做到这点并非易事。习惯上,我们取 \(a\)\(b\) 满足

\[P_{\theta} \{ G(X_{1}, X_{2}, \cdots, X_{n}; \theta) \leq a \} = P_{\theta} \{ G(X_{1}, X_{2}, \cdots, X_{n}; \theta) \geq b \} = \frac{\alpha}{2}\]