均值和方差
如何使用概率论中两种主要情况的均值和方差计算
我们今天来学习一下概率论与数理统计中均值和方差的定义与计算。
均值 或 期望
均值,通常称为数学期望,是随机变量取值的加权平均值,权重为其对应的概率。它描述了随机变量取值的集中趋势,通常用 $E(X)$ 或 $\mu$ 表示。
1. 离散型随机变量
如果随机变量 $X$ 的所有可能取值为 $x_1, x_2, …, x_n, …$,其对应的概率分别为 $p_1, p_2, …, p_n, …$,即 $P(X=x_i) = p_i$。
- 定义与计算公式: \(E(X) = \sum_{i=1}^{\infty} x_i p_i\) 如果 $X$ 只有有限个取值,则求和到最后一项即可。
2. 连续型随机变量
如果随机变量 $X$ 的概率密度函数 (PDF) 为 $f(x)$。
- 定义与计算公式: \(E(X) = \int_{-\infty}^{+\infty} x f(x) dx\) 这个积分需要收敛。
方差
方差度量了随机变量的取值与其均值(期望)的偏离程度,即数据的离散程度。方差越大,数据分布越分散。通常用 $D(X)$, $Var(X)$ 或 $\sigma^2$ 表示。
基本定义:方差是随机变量与它均值之差的平方的期望值。 \(D(X) = E[(X - E(X))^2]\)
常用计算公式:这个公式在计算时更方便。 \(D(X) = E(X^2) - [E(X)]^2\) 其中,$E(X^2)$ 是 $X^2$ 的期望。
1. 离散型随机变量
定义法计算: \(D(X) = \sum_{i=1}^{\infty} [x_i - E(X)]^2 p_i\)
公式法计算: 首先计算 $E(X^2) = \sum_{i=1}^{\infty} x_i^2 p_i$。 然后带入公式: \(D(X) = E(X^2) - [E(X)]^2 = \left( \sum_{i=1}^{\infty} x_i^2 p_i \right) - \left( \sum_{i=1}^{\infty} x_i p_i \right)^2\)
2. 连续型随机变量
定义法计算: \(D(X) = \int_{-\infty}^{+\infty} [x - E(X)]^2 f(x) dx\)
公式法计算: 首先计算 $E(X^2) = \int_{-\infty}^{+\infty} x^2 f(x) dx$。 然后带入公式: \(D(X) = E(X^2) - [E(X)]^2 = \left( \int_{-\infty}^{+\infty} x^2 f(x) dx \right) - \left( \int_{-\infty}^{+\infty} x f(x) dx \right)^2\)
补充:
- 标准差 (Standard Deviation): 方差的算术平方根,记为 $\sigma$。它和原始数据有相同的量纲,更直观地表示数据的离散程度。 \(\sigma = \sqrt{D(X)}\)