发布于 ,更新于 

概率论基础

基本概念

事件运算 \(A+B:=A\cup B\) ,相当于或运算
\(AB:=A\cap B\) ,同时发生

条件概率

  • 条件概率:\(A\) 发生的前提下 \(B\) 发生的概率,表示为 \(P(B\mid A):=\cfrac{P(AB)}{P(A)}\)

  • 全概率公式:\(B\) 依赖于一堆事件 \(A_1\dots A_n\) 的其中一个,则 \(P(B)=\sum^n_{i=1} P(A_i)P(B\mid A_i)\)

  • 贝叶斯公式:\(P(A\mid B) = \cfrac{P(B\mid A)P(A)}{P(B)}\) 实际上就是一个条件概率的推导 \[ \begin{aligned} \frac{P(B\mid A)P(A)}{P(B)} &= \cfrac{\cfrac{P(AB)}{P(A)} P(A)}{P(B)} \newline &= \frac{P(AB)}{P(B)} \newline &= P(A\mid B) \end{aligned} \]

  • \(P(AB) = P(A)P(B)\)\(A,B\) 互为独立事件,于是 \(P(B\mid A) = P(B)\)

随机变量

只介绍离散型随机变量。

离散型随机变量 \(X\),可以理解为 \(X\) 有有限种取值,且每个取值都有一个概率。换句话说,\(X\) 的取值是一个有限的集合,集合里面每一个值都有一个概率,\(X\) 按照概率取值。

随机变量独立性:对于两个独立变量 \(X Y\),有 \(P(X=x_i, Y=y_i) = P(X=x_i)P(Y=y_i)\)\(,\) 表示
倒过来也是正确的。

期望

定义: 一个随机变量取值对概率的加权平均数。
即:\(E(X) = \sum_i x_ip_i\)\(x_i\) 代表可能的取值,\(p_i\) 代表取值对应的概率。

  • 期望的一个简单性质:\(E(aX+b)=aE(X)+b\)
    我们可以设 \(X\) 的意义为均匀骰子可能掷出的点数,于是上面的东西就可以轻松感性理解了~
    证明套定义

  • 期望的线性性:\(E(X) + E(Y) = E(X+Y)\) 证明同样套定义:设 \(\mathbb {X,Y}\) 分别是 \(X,Y\) 的取值集合,显然有:
    \[ \begin{aligned} E(X+Y) &= \sum_{x\in \mathbb X}\sum_{y\in \mathbb Y} P(X=x, Y=y)(x+y) \newline &= \sum_{x\in \mathbb X}\sum_{y\in \mathbb Y} P(X=x, Y=y)x + \newline &\ \ \ \ \sum_{x\in \mathbb X}\sum_{y\in \mathbb Y} P(X=x, Y=y) y \newline &= \sum_{x\in \mathbb X} P(X=x)x + \sum_{y\in \mathbb Y} P(Y=y)y \newline &= E(X) + E(Y) \end{aligned} \]

  • 随机独立变量的乘积:\(E(XY)=E(X)E(Y)\)