联合概率: $p(A and B)=p(A)*p(B | A)$ |
$p(B_1 | V)=\frac{p(B_1)p(V | B_1)}{p(V)}=\frac{p(B1)p(V | B_1)}{p(B_1)p(V | B_1)+p(B_1)p(V | B_2)+…}$ |
###历时诠释 根据数据集 D 的内容变化更新假设概率 H 。
$p(H | D)=\frac{p(H)p(D | H)}{p(D)}$ |
- p(H) 先验概率,即在得到新数据前某一假设的概率。
-
p(H D) 后验概率,即看到新数据后,我们要计算的该假设的概率。 -
p(D H) 似然度,该假设下得到这一数据的概率。 - p(D) 标准化常量,在任何假设下得到这一数据的概率。
似然比是贝叶斯计算中最简单的部分;标准化常量比较棘手,它被定义为所有假设条件下这一数据出现的概率,但因为考虑的是最一般的情况,所以不容易确定这个常量在具体应用场合的现实意义。
最常见的,可以指定一组假设集来简化。
互斥:集合中最多一个假设为真。 完备:集合中,至少一个为真,且集合包含了所有的假设。
###估计
前验概率为均匀分布
前验概率为幂律分布
置信区间: 对于点估计,通常使用平均数、中位数或者最大似然值 对于区间,我们通常给出两个计算值,使得位置量有905的可能落入这两个值之间。这些值定义了一个置信区间。
积累分布函数:概率密度函数的积分
###胜率
胜率(odds)发生的概率和不发生概率的比值。 赔率是 1/胜率
如果有A,B两个假设,后验概率的比值为
$\frac{p(A | D)}{p(B | D)}=\frac{p(A)p(D | A)}{p(B)p(D | B)}$ |
如果 A,B 互斥且穷尽,那么 $p(B)=1-p(A)$,那么先验,后验的比率都可以做为胜率,所以就有了贝叶斯定理的胜率形式。
$o(A | D)=o(A)\frac{p(D | A)}{p(D | B)}$ |
如果某一假设随着数据的出现呈现了更大的可能性,就可以说“数据支持了假设”。
胜率模式变形:
$\frac{o(A | D)}{o(A)}=\frac{p(D | A)}{p(D | B)}$ |
等式左边是后验胜率和鲜艳胜率的比值,右边是似然比,也称为贝叶斯因子。
如果贝叶斯因子大于1,意味着数据更支持假设A。