概率学基础复习,深刻明白朴素贝叶斯原理

 

机械学习|朴素贝叶斯算法(一)-贝叶斯简介及使用
机械学习|朴素贝叶斯算法(二)-用sklearn实践贝叶斯

[机器学习|朴素贝叶斯算法(三)-深入理解朴素贝叶斯原理](https://yq.aliyun.com/articles/411329?spm=a2c4e.11153940.blogcont408869.15.26b9b6ce7AUPEi)

10.

机械学习|朴素贝叶斯算法(一)-贝叶斯简介及选择中经过测算穿长裤中女人的几率解释了贝叶斯算法。这里在提供此外一种思路:它给大家提供的是一种按照数据集DD的情节变更更新假诺概率HH的章程。

节能贝叶斯:

这种通晓在《贝叶斯思维:总计建模的python学习法》中定义为“历时诠释”,“历时”意味着某些事情随着时间而暴发,即是假如的几率随着看到的新数据而转变。

http://www.cnblogs.com/leoo2sk/archive/2010/09/17/naive-bayesian-classifier.html

基于贝叶斯定理:

 

P(H|D)=P(H)P(D|H)P(D)P(H|D)=P(H)P(D|H)P(D)

9.

每一项的意味如下(结合第一篇女人穿长裤问题浅析):

在布局初期将锻练多少一分为二,用一些结构分类器,然后用另一有些检测分类器的准确率。

HH—女生,DD—穿长裤

 

$P\left(H\right)$称为先验概率,即在得到新数据前某一假设的概率
$P\left(H|D\right)$称为后验概率,即在看到新数据后,我们要计算的该假设的概率
$P\left(D|H\right)$是该假设下得到这一数据的概率,称为似然
$P\left(D\right)$是在任何假设下得到这一数据的概率,称为标准化常量

8.

多少意况下,大家得以按照现有背景展开得知先验概率。比如在女孩子穿长裤问题中,我们就能了解女孩在全校所占人口的百分比(概率)是不怎么,即便不清楚具体的比重,大家也能够遵照该校的特性(工科高校或者另外)来大概假如出女孩的票房价值。
**
在其他情形下,先验概率是偏主观性的。这也是效能学派提出的对贝叶斯学派的批评之一。因为对某一先验概率,由于采取不同背景信息作出判断,或者因为针对同一的前提条件作出了不同解读**。

对于分类问题,其实什么人都不会陌生,说咱俩每个人每一天都在实践分类操作一点都不夸张,只是我们一向不发觉到罢了。例如,当您看来一个陌生人,你的血汗下意识判断TA是男是女;你恐怕时时会走在途中对身旁的恋人说“这厮一看就很有钱、这边有个非主流”之类的话,其实这就是一种分类操作。

似然是贝叶斯总结中最容易精晓的有些,比如女孩中穿长裤的几率

      从数学角度来说,分类问题可做如下概念:

标准常量被定义为在具有的假若条件下这一数据出现的概率,因为考虑的是最相似的场地,所以不容易确定这么些常量在切进行使场所的现实意义。因而大家得以经过全概率公式来求得。啰嗦一下:

     
已知集合:图片 1图片 2,确定映射规则图片 3),使得任意图片 4有且仅有一个图片 5使得图片 6)创制。(不考虑模糊数学里的模糊集意况)

定理
设试验E的样本空间为S,A为E的轩然大波,B1,B2,…,BnB1,B2,…,Bn为S的一个划分,且Pleft(Biright)>0(i=1,2,3,….n)Pleft(Biright)>0(i=1,2,3,….n),则

     
其中C叫做系列集合,其中每一个元素是一个档次,而I叫做项集合,其中每一个要素是一个待分类项,f叫做分类器。分类算法的任务就是构造分类器f。

Pleft(Aright)=Pleft(A|B1right)Pleft(B1right)+Pleft(A|B2right)Pleft(B2right)+Pleft(Aright)=Pleft(A|B1right)Pleft(B1right)+Pleft(A|B2right)Pleft(B2right)+

     
这里要着重强调,分类问题反复拔取经验性方法协会映射规则,即一般意况下的分类问题不够充裕的音讯来布局100%不易的投射规则,而是通过对经验数据的求学从而实现自然几率意义上科学的归类,因而所操练出的分类器并不是自然能将各类待分类项可靠映射到其分类,分类器的质量与分类器构造方法、待分类数据的特性以及锻炼样本数量等众多要素有关。

…+Pleft(A|Bnright)Pleft(Bnright)….+Pleft(A|Bnright)Pleft(Bnright).

     
例如,医师对患者开展确诊就是一个压倒元白的分类过程,任何一个大夫都爱莫能助直接看看患者的病状,只好观望患者表现出的症状和各类化验检测数据来推论病情,这时医师就好比一个分类器,而这么些医师诊断的准确率,与他当年受到的启蒙方法(构造方法)、病人的症状是否出色(待分类数据的特色)以及医师的经历多少(磨炼样本数量)都有密切关系。

称为全概率公式.

 

譬如,穿长裤概率: P(Boy)×P(Pants|Boy)+U×P(Girl)×P(Pants|Girl)P(Boy)×P(Pants|Boy)+U×P(Girl)×P(Pants|Girl)。

7.

既然涉及了全概率公式,为了进一步精晓贝叶斯公式,这里给出另一种贝叶斯公式的写法:

线性回归?:输出值是连接的?

P(Bi|A)=P(A|Bi)P(Bi)P(A)P(Bi|A)=P(A|Bi)P(Bi)P(A)

线性分类?:输出值是不连续的,比如输出只好是0或1

=P(A|Bi)P(Bi)∑nj=1P(A|Bj)P(Bj),i=1,2,…,n.=P(A|Bi)P(Bi)∑j=1nP(A|Bj)P(Bj),i=1,2,…,n.

6.

上式中,样本空间OmegaOmega中的一个完备事件群leftB1,B2,…,BnrightleftB1,B2,…,Bnright,设AA为OmegaOmega中的一个事变,且Pleft(Biright)>0,i=1,2,3,….,n,Pleft(Aright)>0Pleft(Biright)>0,i=1,2,3,….,n,Pleft(Aright)>0。推敲一下以此公式的意思:从形式上看这一个公式不过是标准概率定义与全概率公式的粗略推论。不过之所以出名的来头在于它的历史学意义。先看Pleft(B1right),Pleft(B2right),…,Pleft(Bnright)Pleft(B1right),Pleft(B2right),…,Pleft(Bnright),这是在一直不进一步音讯(不知道AA发生)时,人们对事件B1,B2,…,BnB1,B2,…,Bn暴发可能性大小的认识(先验音信),在有了新音讯(知道A暴发)后,人们对事件B1,B2,…,BnB1,B2,…,Bn爆发可能大小新的认识显示在Pleft(B1|Aright),Pleft(B2|Aright),…,Pleft(Bn|Aright).Pleft(B1|Aright),Pleft(B2|Aright),…,Pleft(Bn|Aright).

贝叶斯定理可以告诉大家如何拔取新证据修改已有些看法。作为一个周边的法则,贝叶斯定理对于具有概率的演讲是有效的;平日,事件A在事变B(暴发)的原则下的几率,与事件B在事件A的原则下的票房价值是不同等的;不过,这二者是有规定的关系,贝叶斯定理就是这种关系的陈述。

要是我们把事件A看成“结果”,把诸事件B1,B2,…,BnB1,B2,…,Bn看成导致这一结实的或许“原因”,则足以形象地把全概率公式看成由“原因”推“结果”。仍然举非凡例子,事件AA——穿长裤,事件B1B1——女子,事件B2B2——男生,则Pleft(Aright)=Pleft(A|B1right)Pleft(B1right)+Pleft(A|B2right)Pleft(B2right)Pleft(Aright)=Pleft(A|B1right)Pleft(B1right)+Pleft(A|B2right)Pleft(B2right),这里男生女孩子就是穿裤子这么些“结果”的“原因”。而贝叶斯公式正好相反,其效率在于由“结果”推“原因”。现在有了结果A,在造成A暴发的无数原因中,到底
是哪个原因导致了AA发生(或者说:到底是哪位原因促成AA暴发的可能性最大)?假设这里精通有点障碍,能够看一下本身在 机器学习|朴素贝叶斯算法(二)-用sklearn实践贝叶斯中详细谈论过的概率,似然,后验概率的涉嫌。

        设P(A|B)表示事件B已经爆发的前提下,事件A暴发的几率,叫做事件B爆发下事件A的尺度概率。下边就是贝叶斯公式:                

好了,关于节俭贝叶斯算法目前只学习了这样多,之后进展实践操作的时候还会再补偿,希望能享有收获╰( ̄ω ̄o)

图片 7

翻阅原文http://click.aliyun.com/m/41276/

中间的号子定义为:

  • P(A)是事件A的先验概率或边缘概率,它不考虑任何B方面的元素。
  • P(A|B)是已知B暴发后A的尺码概率,也出于得自B的取值而被称作A的**后验概率**。
  • P(B|A)是已知A暴发后B的口径概率,也出于得自A的取值而被称作B的**后验概率**。
  • P(B)是事件B的先验概率或边缘概率,也作规则常量(normalizing
    constant)。

  按这么些术语,贝叶斯定理可发挥为:后验概率 =
(相似度*先验概率)/标准化常量
。总而言之,贝叶斯定理是遵照如若的先验概率,给定即使条件下,阅览到不同数量的票房价值,提供一种总括后验概率的点子。

  贝叶斯决策就是在不完全的消息上面,对一部分未知的情景用主观概率来拓展估价,然后用贝叶斯公式对暴发几率举办修正,最终再利用期望值和修正概率做出最优决策。贝叶斯决策理论方法是统计模型决策中的一个主旨方法,其核激情维是:

1、已知类条件概率密度参数表明式和先验概率。

2、利用贝叶斯公式转换成后验概率。

3、依照后验概率大小举办表决分类。

  贝叶斯的这种基本思想可以在大方的实在案例中获取运用,因为不少切实社会中,积累了过多历史先验数据,想拓展部分表决推理,也得以说是估摸,就足以听从地点的步调举办,当然贝叶斯理论的提升中,出现了许多新的推理算法,更加错综复杂,和面向不同的天地。一般的话,使用贝叶斯推理就是,预测某个事件下五回面世的概率,或者属于某些项目的几率,使用贝叶斯来进行归类的接纳应该是最常见的,很多实际的推理问题也可以变换为分类问题

5.

此处贝叶斯分析的框架也在教大家怎么着处理特例与一般常识的规律。假若您太尊重特例(即完全不看先验概率)
很有可能会误把噪声看做信号, 而奋不顾身的跳下去。 而只要死守先验概率,
就成为无视变化而保守的人。其实只有贝叶斯流的人生存率会更高,
因为她们会怜惜特例,
但也不忘却书本的阅历,按照贝叶斯公式小心调整信心,甚至会积极性设计实验依照信号判断即便,这就是我们下一步要讲的。

 

4.

概率P(AB)怎么算
P(A)=0.4,P(B)=0.6,P(AB)=?怎么求的吗?

A:

P(AB)表示A和B同时爆发的几率,假若A,B互相独立,则P(AB)=P(A)*P(B);
如果A,B不是并行独立,则P(AB)=P(B|A)*P(A);

P(B|A)是发生了A事件后,再发生B事件的概率。所以是A、B同时发生的事件数量÷A事件发生的数量,
当P(A)>0,P(B|A)=P(AB)/P(A)

3.

P(AB)是AB同时发生的概率,是以全体事件为100%来计算其中AB同时发生的概率。
P(B|A)是在已经发生了A事件的前提下,再发生B事件的概率。是以所有发生A事件为100%来计算AB同时发生的概率。

1.

贝叶斯公式:

俺们来算一算:假诺高校里面人的总额是 U 个。60%
的男生都穿长裤,于是大家拿到了 U * P(Boy) * P(Pants|Boy)
个穿长裤的(男生)(其中 P(Boy) 是男生的概率 =
60%,这里可以省略的知道为男生的比例;P(Pants|Boy) 是标准化概率,即在 Boy
那个原则下穿长裤的票房价值是多大,这里是 100% ,因为拥有男生都穿长裤)。40%
的女子里面又有一半(50%)是穿长裤的,于是我们又拿到了 U * P(Girl) *
P(Pants|Girl) 个穿长裤的(女孩子)。加起来一共是 U * P(Boy) *
P(Pants|Boy) + U * P(Girl) * P(Pants|Girl) 个穿长裤的,其中有 U *
P(Girl) * P(Pants|Girl) 个女孩子。两者一比就是您要求的答案。

下边我们把这些答案形式化一下:我们要求的是 P(Girl|Pants)
(穿长裤的人里面有微微女孩子),大家统计的结果是 U * P(Girl) *
P(Pants|Girl) / [U * P(Boy) * P(Pants|Boy) + U * P(Girl) *
P(Pants|Girl)] 。容易觉察此处高校内人的总额是风马牛不相及的,可以消去。于是获得

P(Girl|Pants) = P(Girl) * P(Pants|Girl) / [P(Boy) * P(Pants|Boy) +
P(Girl) * P(Pants|Girl)]

瞩目,假诺把上式缩短起来,分母其实就是 P(Pants) ,分子其实就是 P(Pants,
Girl) 。而以此比例很当然地就读作:在穿长裤的人( P(Pants)
)里面有微微(穿长裤)的女孩( P(Pants, Girl) )。

上式中的 Pants 和 Boy/Girl 可以代替一切事物,所以其貌似形式就是:

P(B|A) = P(A|B) * P(B) / [P(A|B) * P(B) + P(A|~B) * P(~B) ]  
 ~B就是非B

缩短起来就是:

P(B|A) = P(AB) / P(A)

事实上这多少个就等于:

P(B|A) * P(A) = P(AB)

无怪乎拉普拉斯说概率论只是把常识用数学公式表达了出去

但是,前边大家会日趋发现,看似这么平庸的贝叶斯公式,背后却富含着这个深刻的原理。

 

2.

概率的加法法则

编辑

定理:设A、B是互不相容事件(AB=φ),则:

P(A∪B)=P(A)+P(B)

算计1:设A1、 A2、…、 An互不相容,则:P(A1+A2+…+ An)= P(A1) +P(A2) +…+
P(An)

因此可知2:设A1、 A2、…、 An构成完备事件组,则:P(A1+A2+…+An)=1

推论3: 

图片 8 

为事件A的对峙事件。

推论4:若B包含A,则P(B-A)= P(B)-P(A)

测算5(广义加法公式):

对轻易五个事件A与B,有P(A∪B)=P(A)+P(B)-P(AB)[1] 

标准概率

规则概率:已知事件B出现的条件下A出现的几率,称为条件概率,记作:P(A|B)

原则概率总括公式:

当P(A)>0,P(B|A)=P(AB)/P(A)

当P(B)>0,P(A|B)=P(AB)/P(B)[1] 

乘法公式

P(AB)=P(A)×P(B|A)=P(B)×P(A|B)

推广:P(ABC)=P(A)P(B|A)P(C|AB)[1] 

  

全概率公式

设:若事件A1,A2,…,An互不相容,且A1+A2+…+An=Ω,则称A1,A2,…,An构成一个完备事件组。

全概率公式的样式如下:

 图片 9

以上公式就被号称全概率公式。[2] 

 

相关文章

admin

网站地图xml地图