概率论

image

概率

概率分为两类:

名称 事件 概率
古典概型 离散 P(A)=\frac{A中样本点个数}{样本空间中样本点个数}
几何概型 连续 P(A)=\frac{A所占面积}{样本空间总面积}

古典概型确定样本空间可分为以下几种几种情况:

古典概型常见问题 方式 样本空间
将n个质点随机地分配到N个盒中 每盒可容纳任意多个质点 N^n
每盒容纳至多一个质点 A^n_N
自含N个元素的总体中n次简单随机抽样 有放回取n次 N^n
无放回取n次 A^n_N
任取n个 C^n_N

古典概型确定A中样本点个数通常需要具体问题具体分析,但无非依据下面两个原则:

对立

P(A) = 1-P(\overline { A })

\overline { A \cap B } = \overline { A } \cup \overline { B },\overline { A \cup B } = \overline{ A } \cap \overline { B },(长杠变短杠,开口换方向)

条件概率

P ( A \mid B ) = \frac { P ( AB ) } { P ( B ) }

独立

独立是指两个事件不相关,两个事件完全没有联系。

若 A、B独立,则

P(AB)=P(A)P(B)

结合对立知识有:

\begin{aligned} P(A\cup B)&=1-P(\overline{A\cup B})\\ &=1-P(\overline{A}\cap\overline{B}) \\&=1-P(\overline{A})P(\overline{B})\\ &=1-[1-P(A)][1-P(B)]\end{aligned}

互斥

互斥是指一个事件发生,另一个事件不发生。

若 A、B互斥,则

P(A\cup B)=P( A+ B)=P(A)+P(B)

没有互斥条件时,可以制造互斥条件,然后用互斥的性质:

image

P(A \cup B)=P(A \cup \overline{A} B)=P(A)+P(\overline{A} B)

P(A \cup B)=P(B \cup A \overline{B})=P(B)+P(A \overline{B})

P(A \cup B)=P(A \overline{B} \cup A B \cup \overline{A}B)=P(A \overline{B} )+P( A B )+P(\overline{A}B)

利用全集分解,制造互斥:

\begin{array}{ll}P(A)&=P(A\varOmega) \\&= P(A(B_{1} \cup B_{2} \cup B_{3}))\\ &=P(A B_{1} \cup A B_{2} \cup A B_{3})\\ &=P (A B_{1})+ P (A B_{2})+ P ( A B_{3})\end{array}

全概率公式,在全集分解制造互斥的基础上增加条件概率:

P ( A ) = \sum _ { i = 1 } ^ { n } P ( A \mid B _ { i } ) P ( B _ { i } )

image

只有两个的全集分解:

P(A)=P(AB)+P(A \overline{B})

下面这两个公式用互斥或几何意义来理解都可以:

P(A+B)=P(A)+P(B)-P(A B)

P(A+B+C)=P(A)+P(B)+P(C)-P(AB)-P(BC)-P(AC)+P(ABC)

分布律与概率密度

数学家不满足于计算某一个随机事件的概率,而是想对整体有一个了解。随机事件并不是数字,为了方便研究,将事件映射到实数域:

X=X(随机事件)

映射后的数字叫做随机变量,这么做之后,用横轴代表随机事件,纵轴代表概率,作图。

对于离散型随机变量,得到如下图像,叫做分布律:

image

注:分布律经常以表格、矩阵的形式给出。

对于连续型随机变量,得到如下图像,对应区间的面积表示概率,这个函数被成为概率密度:

image

由概率之和等于1,得:

离散型 \sum_{i} p_{i}=1
连续型 \int_{-\infty}^{+\infty} f(x) \mathrm{d} x=1

分布函数

分布律与概率密度表达所有概率的大小,我们可以通过“观察”这两幅图,来了解概率的分布情况。

但是“观察”不利于表达,分布函数可以将分布情况转化为数值,从而定量反应概率分布情况:

F(x)=P\{X\leq x\}=\begin{cases}\underset{x_{i} \leq x}{\sum} p_{i} & X \sim p_{i} \\ \\ \int_{-\infty}^{x} f(t) d t & X \sim f(x)\end{cases}

分布函数是概率的累加,所以有单调不减、右连续、介于0~1直接这三条性质。

考试常考分布函数性质的推广:

  1. a+b=1,aF_1+bF+2 是分布函数
  2. F_1F_2 是分布函数
  3. f_1F_2+f_2F_1 是概率密度函数

多维随机变量

联合概率是指多个随机变量同时发生的概率。

多个离散型随机变量的概率称为联合分布律,联合分布律的图形不太好画,但是完全可以想象,它是二维的平米上面几个点上有概率。下面我们用表格列举出来:

image

多个连续型随机变量的概率称为联合概率密度,下图的x轴和y轴是随机变量,z轴为联合概率密度:

image

为了定量反应多个随机变量的概率分布情况,定义联合分布函数:

F(x,y)=P\{X\leq x,Y\leq y\}=\begin{cases}\underset{x_{i} \leq x,y_j \leq y}{\sum} p_{ij} & (X,Y) \sim p_{ij} \\ \\ \int_{-\infty}^{x} du \int_{-\infty}^{y} f(u,v) d v & (X,Y) \sim f(x,y)\end{cases}

最大值、最小值的分布

\theta=\max \{X, Y\} ,X、Y独立

\begin{aligned} F_\theta(x) &=P\{\theta \leq x\} =P\{\max \{X, Y\} \leq x\} \\ &=P\{X \leq x, Y \leq x\} \\ &=P\{X \leq x\} P\{Y \leq x\} \\ &=F_X(x) F_Y(x) \end{aligned}

\theta=\min \{X, Y\} ,X、Y独立

\begin{aligned} F_\theta(x) &=P\{\theta \leq x\}=P\{\min \{X,Y\}\} \leq x\} \\ &=1-P\{\min \{X, Y\}>x\} \\ &=1-P\{X>x, Y>x\} \\ &=1-P\{X>x\} P\{Y>x\}\\ &=1-\left[1-F_X(x)\right]\left[1-F_Y(x)\right] \end{aligned}

边缘分布与条件分布

边缘分布

F_{X}(x)=P\{X\leq x,Y\leq +\infty\}
F_{Y}(y)=P\{X\leq +\infty,Y\leq y\}

p_{i \cdot} =\sum_{j} p_{i j}
p_{\cdot j}=\sum_{i} p_{i j}

f_{X}(x)=\int_{-\infty}^{+\infty} f(x, y) \mathrm{d} y
f_{Y}(y)=\int_{-\infty}^{+\infty} f(x, y) \mathrm{d} x

条件分布

P\left\{Y=y_{j} \mid X=x_{i}\right\}=\frac{P\left\{X=x_{i}, Y=y_{j}\right\}}{P\left\{X=x_{i}\right\}}=\frac{p_{i j}}{p_{i\cdot}}
P\left\{X=x_{i} \mid Y=y_{j}\right\}=\frac{P\left\{X=x_{i}, Y=y_{j}\right\}}{P\left\{Y=y_{j}\right\}}=\frac{p_{i j}}{p_{\cdot j}}

f_{Y \mid X}(y \mid x)=\frac{f(x, y)}{f_{X}(x)}
f_{X \mid Y}(x \mid y)=\frac{f(x, y)}{f_{Y}(y)}

期望与方差

E X=\begin{cases}\sum_{i} x_{i} p_{i}&X \sim p_{i} \\ \\ \int_{-\infty}^{+\infty} x f(x) \mathrm{d} x &X \sim f(x)\end{cases}

D X=E\left[(X-E X)^{2}\right]=\begin{cases}\sum_{i}\left(x_{i}-E X\right)^{2} p_{i}&X \sim p_{i} \\ \\ \int_{-\infty}^{+\infty}(x-E X)^{2} f(x) \mathrm{d} x &X \sim f(x)\end{cases}

协方差

协方差表达的是两个随机变量的偏差。例如:X是父母的身高,Y是孩子的身高。孩子的身高通常与父母的身高偏差比较小,即Cov(X,Y)比较小。

\operatorname{Cov}(X, Y) = E[(X-E X)(Y-E Y)]=\begin{cases}\sum_{i} \sum_{j}\left(x_{i}-E X\right)\left(y_{j}-E Y\right) p_{i j}&(X, Y) \sim p_{i j} \\ \\ \int_{-\infty}^{+\infty} \int_{-\infty}^{+\infty}(x-E X)(y-E Y) f(x, y) \mathrm{d} x &(X, Y) \sim f(x, y)\end{cases}

\operatorname{Cov}(X, Y) 可作为衡量X,Y关系程度的出发点,但还需作些修正.首先,像衡量“程度”这种概念的数字,一般要求不超过1.协方差不一定满足这个要求,尤其是协方差的值与个体指标的单位有关.例如,X和Y分别为人的身高、体重,分别以米和千克为单位.若改用厘米和克为单位,则X和Y的值分别增大100和1000倍,而其协方差将增大100000倍!克服这一点的办法是进行规格化:

\rho_{X Y} \triangleq \frac{\operatorname{Cov}(X, Y)}{\sqrt{D X} \sqrt{D Y}}\left\{\begin{array}{l}=0 \Leftrightarrow X, Y \text { 不相关 } \\ \neq 0 \Leftrightarrow X, Y \text { 相关. } \end{array}\right.

\rho_{X Y} 仅能反应X,Y的线性关系,不能反映曲线型相关,因此叫做线性相关系数

期望、方差、协方差的性质

期望:

E a=a\qquad E(E x)=E x

E(aX\pm bY)=aE X\pm bE Y

X,Y独立\Longrightarrow E(XY)=E XE Y

方差:

D X=E X^{2}-(E X)^{2}\qquad E X^{2}=DX+(E X)^{2} \geqslant(E X)^{2}

D c=0\qquad D X \geqslant 0

D(aX+b)=a^{2} D X

D(aX \pm bY)=a^2D X+b^2D Y \pm 2 \operatorname{Cov}(aX, bY)

协方差:

\operatorname{Cov}(X, Y)=E(XY)-EXEY

\operatorname{Cov}(aX, bY) = ab\operatorname{Cov}(X, Y)

\operatorname{Cov}(X_1+X_2, Y) = \operatorname{Cov}(X_1, Y)+\operatorname{Cov}(X_2, Y)

posted @ 2021-08-04 18:53:27
评论加载中...
发表评论