本文最后更新于:2024年5月7日 下午

切比雪夫不等式可以使人们在随机变量X的分布未知的情况下,对事件$|X-\mu|<\varepsilon $ 概率作出估计。

定义

  • 假设随机变量$X$具有期望$E(X)=\mu$, 方差 $Var(X)=\sigma^2$,则对于任意正数$\varepsilon$ ,有不等式成立:
$$ \mathbb P\{|X-\mu| \geq \varepsilon\} \leq \frac{\sigma^{2}}{\varepsilon^{2}} $$

含义

  • 其意义是:对于距离$E(X)$足够远的地方(距离大于等于$\varepsilon$),事件出现的概率是小于等于$\frac{\sigma^{2}}{\varepsilon^{2}}$ 。即事件出现在区间$[\mu-\varepsilon, \mu+\varepsilon]$ 的概率大于$1-\frac{\sigma^2}{\varepsilon^2}$

  • 该不等式给出了随机变量$X$在分布未知的情况下, 事件$|X-\mu| \leq \varepsilon$ 的下限估计

    例如:

    $$
    \mathbb P{|X-\mu|\ < 3 \sigma } \ge 1-\frac{1}{9}=\frac{8}{9}
    $$

  • 切比雪夫不等式刻画了变量偏离均值的程度与发生概率大小之间的关系

  • 在随机变量分布未知的情况下,我们只知道均值和方差,切比雪夫不等式给出了$X$落入以均值为中心的$ε$邻域概率的概率下界

证明

思路1

利用取值范围建立不等式

$$ \begin{aligned} \mathbb P\{|X-\mu| \geq \varepsilon\} &=\int_{|x-\mu| \geq \varepsilon} p(x) d x \\ &\leq \int_{|x-\mu| \geq \varepsilon} \frac{|x-\mu|^{2}}{\varepsilon^{2}} p(x) d x \\ & \leq \frac{1}{\varepsilon^{2}} \int_{-\infty}^{\infty}(x-\mu)^{2} p(x) d x\\ &=\frac{\sigma^{2}}{\varepsilon^{2}} \end{aligned} $$

思路2

利用马尔可夫不等式

$$
\mathbb{P}(X \geq a) \leq \frac{\mathbb{E}(X)}{a}
$$

  • 将$|X-\mu|$作为随机变量带入不等式,有:

$$
\mathbb P(|X-\mu| \ge \varepsilon) \leq \frac{E(|X-\mu|)}{\varepsilon}
$$

  • 其中$\varepsilon > 0$,而:

$$
\mathbb P(|X-\mu| \ge \varepsilon) = \mathbb P(|X-\mu|^2 \ge \varepsilon^2)
$$

  • 再次套用马尔可夫不等式:
$$ \mathbb P(|X-\mu| \ge \varepsilon) =\mathbb P(|X-\mu|^2 \ge \varepsilon^2) \le \frac{E(|X-\mu|^2)}{\varepsilon^2}=\frac{\sigma^2}{\varepsilon^2} $$

切比雪夫大数定律

  • 对于相互独立具有相同期望和方差的随机变量$X_i$,$\frac{1}{n}\sum\limits_{i = 1}^n $的方差为:
$$ \frac{{Var(X)}}{n}=\frac{{{\sigma ^2}}}{n} $$
  • 那么当 $n \to \infty $时,$\frac{1}{n}\sum\limits_{i = 1}^n $的方差$\to 0 $,对于任意给定的$\varepsilon > 0$,根据切比雪夫不等式有:
$$ \lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^{n} X_{i}-E\left(X_{i}\right)\right|<\varepsilon\right\}=1 $$
  • 即当样本个数趋于无穷时,样本的算数平均值会收敛于理论均值

贝努里大数定律

在 $n$ 足够大时, 可以用频率近似代替 $p$ . 这种稳定称为依概率稳定。

设 $n_A$ 是 n 次独立重复试验中事件 $A$ 发生的次数, $p$ 是每次试验中 A 发生的概率, 则:

$ \forall \varepsilon>0 $ 有
$$
\lim {n \rightarrow \infty} P\left(\left|\frac{n{A}}{n}-p\right| \geq \varepsilon\right)=0
$$

$$
\lim {n \rightarrow \infty} P\left(\left|\frac{n{A}}{n}-p\right|<\varepsilon\right)=1
$$

参考资料



文章链接:
https://www.zywvvd.com/notes/study/probability/chebyshev-inequality/chebyshev-inequality/


“觉得不错的话,给点打赏吧 ୧(๑•̀⌄•́๑)૭”

微信二维码

微信支付

支付宝二维码

支付宝支付

概率论基础 - 6 - 切比雪夫不等式
https://www.zywvvd.com/notes/study/probability/chebyshev-inequality/chebyshev-inequality/
作者
Yiwei Zhang
发布于
2021年3月30日
许可协议