贝叶斯思维

Published in categories blog  Research  tagged with #bayes 
联合概率: $p(A and B)=p(A)*p(B A)$
$p(B_1 V)=\frac{p(B_1)p(V B_1)}{p(V)}=\frac{p(B1)p(V B_1)}{p(B_1)p(V B_1)+p(B_1)p(V B_2)+…}$

###历时诠释 根据数据集 D 的内容变化更新假设概率 H 。

$p(H D)=\frac{p(H)p(D H)}{p(D)}$
  • p(H) 先验概率,即在得到新数据前某一假设的概率。
  • p(H D) 后验概率,即看到新数据后,我们要计算的该假设的概率。
  • p(D H) 似然度,该假设下得到这一数据的概率。
  • p(D) 标准化常量,在任何假设下得到这一数据的概率。

似然比是贝叶斯计算中最简单的部分;标准化常量比较棘手,它被定义为所有假设条件下这一数据出现的概率,但因为考虑的是最一般的情况,所以不容易确定这个常量在具体应用场合的现实意义。

最常见的,可以指定一组假设集来简化。

互斥:集合中最多一个假设为真。 完备:集合中,至少一个为真,且集合包含了所有的假设。

###估计

前验概率为均匀分布

前验概率为幂律分布

置信区间: 对于点估计,通常使用平均数、中位数或者最大似然值 对于区间,我们通常给出两个计算值,使得位置量有905的可能落入这两个值之间。这些值定义了一个置信区间。

积累分布函数:概率密度函数的积分

###胜率

胜率(odds)发生的概率和不发生概率的比值。 赔率是 1/胜率

如果有A,B两个假设,后验概率的比值为

$\frac{p(A D)}{p(B D)}=\frac{p(A)p(D A)}{p(B)p(D B)}$

如果 A,B 互斥且穷尽,那么 $p(B)=1-p(A)$,那么先验,后验的比率都可以做为胜率,所以就有了贝叶斯定理的胜率形式。

$o(A D)=o(A)\frac{p(D A)}{p(D B)}$

如果某一假设随着数据的出现呈现了更大的可能性,就可以说“数据支持了假设”。

胜率模式变形:

$\frac{o(A D)}{o(A)}=\frac{p(D A)}{p(D B)}$

等式左边是后验胜率和鲜艳胜率的比值,右边是似然比,也称为贝叶斯因子

如果贝叶斯因子大于1,意味着数据更支持假设A。

comments powered by Disqus