概率论基础 - 6 - 切比雪夫不等式

本文最后更新于:2022年1月27日 晚上

切比雪夫不等式可以使人们在随机变量X的分布未知的情况下,对事件$|X-\mu|<\varepsilon $ 概率作出估计。

定义

  • 假设随机变量$X$具有期望$E(X)=\mu$, 方差 $Var(X)=\sigma^2$,则对于任意正数$\varepsilon$ ,有不等式成立:
$$ \mathbb P\{|X-\mu| \geq \varepsilon\} \leq \frac{\sigma^{2}}{\varepsilon^{2}} $$

含义

  • 其意义是:对于距离$E(X)$足够远的地方(距离大于等于$\varepsilon$),事件出现的概率是小于等于$\frac{\sigma^{2}}{\varepsilon^{2}}$ 。即事件出现在区间$[\mu-\varepsilon, \mu+\varepsilon]$ 的概率大于$1-\frac{\sigma^2}{\varepsilon^2}$

  • 该不等式给出了随机变量$X$在分布未知的情况下, 事件$|X-\mu| \leq \varepsilon$ 的下限估计

    例如:

    $$
    \mathbb P{|X-\mu|\ < 3 \sigma } \ge 1-\frac{1}{9}=\frac{8}{9}
    $$

  • 切比雪夫不等式刻画了变量偏离均值的程度与发生概率大小之间的关系

  • 在随机变量分布未知的情况下,我们只知道均值和方差,切比雪夫不等式给出了$X$落入以均值为中心的$ε$邻域概率的概率下界

证明

思路1

利用取值范围建立不等式

$$ \begin{aligned} \mathbb P\{|X-\mu| \geq \varepsilon\} &=\int_{|x-\mu| \geq \varepsilon} p(x) d x \\ &\leq \int_{|x-\mu| \geq \varepsilon} \frac{|x-\mu|^{2}}{\varepsilon^{2}} p(x) d x \\ & \leq \frac{1}{\varepsilon^{2}} \int_{-\infty}^{\infty}(x-\mu)^{2} p(x) d x\\ &=\frac{\sigma^{2}}{\varepsilon^{2}} \end{aligned} $$

思路2

利用马尔可夫不等式

$$
\mathbb{P}(X \geq a) \leq \frac{\mathbb{E}(X)}{a}
$$

  • 将$|X-\mu|$作为随机变量带入不等式,有:

$$
\mathbb P(|X-\mu| \ge \varepsilon) \leq \frac{E(|X-\mu|)}{\varepsilon}
$$

  • 其中$\varepsilon > 0$,而:

$$
\mathbb P(|X-\mu| \ge \varepsilon) = \mathbb P(|X-\mu|^2 \ge \varepsilon^2)
$$

  • 再次套用马尔可夫不等式:
$$ \mathbb P(|X-\mu| \ge \varepsilon) =\mathbb P(|X-\mu|^2 \ge \varepsilon^2) \le \frac{E(|X-\mu|^2)}{\varepsilon^2}=\frac{\sigma^2}{\varepsilon^2} $$

推论——切比雪夫定理

  • 对于相互独立具有相同期望和方差的随机变量$X_i$,$\frac{1}{n}\sum\limits_{i = 1}^n $的方差为:
$$ \frac{{Var(X)}}{n}=\frac{{{\sigma ^2}}}{n} $$
  • 那么当 $n \to \infty $时,$\frac{1}{n}\sum\limits_{i = 1}^n $的方差$\to 0 $,对于任意给定的$\varepsilon > 0$,根据切比雪夫不等式有:
$$ \lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^{n} X_{i}-E\left(X_{i}\right)\right|<\varepsilon\right\}=1 $$
  • 即当样本个数趋于无穷时,样本的算数平均值会收敛于理论均值

参考资料


本博客所有文章除特别声明外,均采用 CC BY-SA 4.0 协议 ,转载请注明出处!