干货来袭!3天0基础python实战项目快速学会人工智能必学数学基础全套(含源码)(第3天)概率分析篇:条件概率、全概率与贝叶斯公式 -ag凯发k8国际
-
第1天:线性代数篇:矩阵、向量、实战编程
-
第2天:微积分篇:极限与导数、梯度下降、积分、实战编程
-
第3天:概率分析篇:条件概率与全概率、贝叶斯公式、实战项目
目录
- 前言
- 一、概率与机器学习
- 1.1 概率
- 1.2 机器学习中的概率
- 二、条件概率与全概率
- 2.1 条件概率
- 2.2 全概率
- 三、贝叶斯公式与朴素贝叶斯
- 3.1. 贝叶斯公式
- 3.2 朴素贝叶斯
- 四、实战:python实现朴素贝叶斯
- 4.1 安装python库scikit-learn库
- 4.1.1 安装numpy mkl和scipy
- 4.1.2 安装sklearn
- 4.2 代码详解
- 总结
非常抱歉,至上次博主更新人工智能关于《高等数学》相关应用及知识点,已经停更了差不多一年了,主要是博主工作上遇到公司组织架构调整,之后又是各种新项目,一直拖更到现在。不过这些都不是理由,更多得是懒了。任何时候行动起来,都不算晚,所以选择今天8月8日这个好日子,赶紧给大家更新一版。
同时为了回报粉丝们的持续关注,这段时间开始,博主不仅会把人工智能必学数学基础最后一篇概率分析篇更新完,还会陆陆续续更新一些关于博主以前做过的一些人工智能实战项目,欢迎大家继续关注。
接下来进入正题,对于人工智能概率分析这块来说,其实说起来不复杂,运用到的数学知识或数学公式可能就那么几个,但是由于现实中很多问题都可以用概率来解释分析,它的运用会具有一定复杂性,甚至有时我们无法理解其中的原因。
这里面究其根本,我觉得就是现实中各种事情的发生概率,其实并不是单一事件引起的,更多是比较复杂的多因素决定的,而且很有可能随着时间发展,其决定因素又会发生变化,所以大家到最后可能就会更加晕圈。
不过我觉得大家也不要太纠结,因为只要我们掌握了其中基本原理,再经过几次实战,你就会对概率的认识越来越清晰了,而且研究深入到最后,你就可以到达目前人工智能关于强化学习的领域,说不定哪天你就能开发出一个类似阿法尔狗的牛逼程序。
老样子,既然是分享数学知识,还是得继续拿出严谨的思维和态度来。我又翻出10多年前我的概率论课本、笔记,教材是我们学校出版的,我们主要学习的是前面6章,从随机概率、条件概率、随机变量、随机向量、随机变量的数字特征到大数定律等。
看起来我们大学时候要学习的概率相关知识还是有点多,但对于人工智能入门来说,其实最重要的就只有最前面的第一章和第二章,也就是随机概率和条件概率。
这次小伙伴们看到我这门课成绩,可以不用激动了,成绩没上90分,主要那时候,我刚好读大二,玩网易刚出来的游戏《梦幻西游》上瘾了,学习兴趣和热情远没有像大一那样高了。不知道有没有小伙伴们像我一样在读大学的时候控制不住我自己。
还好现在我已经控制住我自己了,把玩游戏的时间拿出来,今年目标学习12本技术相关书籍(目前已经学习了6本了)和听50本樊登读书,已经努力实现了不少了,有望年底全部实现。也希望小伙伴们也能活到老,学到老!大家共勉,加油!
接下来跟着我继续三天掌握人工智能必学数学基础最后一天的学习吧!
1.1 概率
有些小伙伴玩过下面这种俄罗斯大转盘的游戏,我们就从这个概率的简单应用场景来说。
俄罗斯大转盘总共有0-36,共37个数字。其中有18个红色数字、18个黑色数字以及1个绿色数字。大家可以思考这么一个问题:如果每次下注黑色区域1元,正确返还2元,重复3700次,预期收益多少?(当然警察叔叔经常教育我们十赌九输,这里仅供演示,用数学告诉大家真相,大家千万别禁不住诱惑,赌博害人)
18/37*1 (18 1)/37 *(-1) = -1/37
3700 x (-1/37) = -100
从上面计算可以看出,最终结果我们是会输掉100元,玩得越多,输的越多。赌博就是让你大概率输,所以千万别迷上赌博,不然迟早一天倾家荡产。
那概率到底是什么呢?我们从百度百科找下答案:
概率,亦称“或然率”,它是反映随机事件出现的可能性大小。随机事件是指在相同条件下,可能出现也可能不出现的事件。例如,从一批有正品和次品的商品中,随意抽取一件,“抽得的是正品”就是一个随机事件。设对某一随机现象进行了n次试验与观察,其中a事件出现了m次,即其出现的频率为m/n。经过大量反复试验,常有m/n越来越接近于某个确定的常数(此论断证明详见伯努利大数定律)。该常数即为事件a出现的概率,常用p(a)表示。
举例来说,我们抛1元硬币,出现一面为国徽,一面为1元的概率就分别为1/2。
1.2 机器学习中的概率
我们关联起来的机器学习中的概率应用一般就是在分类情况下,机器学习模型直接预测的结果就是某种情况对应的概率。比如说人脸识别中,我们从所有图片中进行预测,去预测出图片是人脸的概率有多大,我们可以设定一个95%的阈值,概率超过95%以上是人脸,我们就认为是人脸,否则就不是。
其实现实生活中有很多东西都和概率有关,人工智能也有很大一部分是利用历史的数据,来预测未来发生某种事件的概率。细心的小伙伴们,如果擅于利用好概率,说不定哪天你就可以成为一个厉害的预言家了。
2.1 条件概率
我们举个纸牌游戏的例子来说明条件概率吧。
有两张黑牌、两张红牌,从中抽取一张,如果为红牌,退还下注并奖励1.1倍,玩家是否应该下注?如果抽取的第一张为红牌,游戏继续,玩家是否应该下注?
我们分析一下第一种情况,分别从两张黑牌、两张红牌抽到该牌的概率都是1/2,假设每次下注为1,那么抽到黑牌,我们就损失1,抽到红牌我们就奖励1.1,那第一种情况我们的收益就应该计算如下:
1/21.1 1/2(-1) = 0.05 > 0 建议下注
第二种情况,在我们已经抽了一张红牌的情况下,就只剩3张牌了,那么抽到黑牌的概率就变为2/3,抽到红牌的概率就变为1/3,那收益计算就应该变为:
1/31.1 2/3(-1) = -0.3 < 0 不建议下注
这里就可以看出,在某些事件发生的情况下,我们的选择就可能会发生变化,也可以延伸出我们条件概率的定义。百度百科定义如下:
条件概率是指事件a在事件b发生的条件下发生的概率。条件概率表示为:p(a|b),读作“a在b发生的条件下发生的概率”。若只有两个事件a,b,那么
p ( a ∣ b ) = p ( a b ) p ( b ) p(a \mid b)=\frac{p(a b)}{p(b)} p(a∣b)=p(b)p(ab)
p(ab)就是a与b同时发生的概率。拿上面的例子来计算:第一张抽到红牌和第二张抽到红牌的概率就为(1/21/3)/(1/2) = 1/3。第一张抽到红牌和第二张抽到黑牌的概率就为(1/22/3)/(1/2) = 2/3。
假设小明最近暗恋上了同一栋楼的一个女神,为了追求女神,他观察了女神和自己的出门时间。下表列出了小明的出门时间分布(8-9点)和女神的出门时间分布(8-8:30),如果小明今天计划8:15-8:30出门,遇到女神的概率是多少?(假设同一时间段即会相遇)
我们用条件概率的定义公式,就可以很简单计算如下:
1)小明出门时间可以选择4个时间段,选择8:15-8:30的概率为1/4,记为p(b);
2)女神出门时间可以选择2个时间段,选择8:15-8:30的概率为1/2,记为p(a);
3)小明在8:15-8:30出门的情况下,女神同时出门的概率为1/4*1/2 = 1/8,记为p(ab);
4)那小明计划8:15-8:30出门,遇到女神的概率我们就可以记为p(a|b),那运用公式可以计算为:p(a|b)= p(ab)/p(b) = (1/8)/(1/4) = 1/2
2.2 全概率
全概率公式为概率论中的重要公式,它将对一复杂事件a的概率求解问题转化为了在不同情况下发生的简单事件的概率的求和问题。百度百科对全概率的定义如下:
若事件a1,a2,…构成一个完备事件组且都有正概率,则对任意一个事件b,有如下公式成立:
p(b)=p(ba1) p(ba2) … p(ban)=p(b|a1)p(a1) p(b|a2)p(a2) … p(b|an)p(an).
我们举个例子来说明,如下图所示:
1)b1发生的情况下a发生的概率为1/4,可以记为p(a|b1)
2)b2发生的情况下a发生的概率为1/5,可以记为p(a|b2)
3)b1发生的概率为1/3,可以记为p(b1)
4)b2发生的概率为2/3,可以记为p(b2)
那我们可以按照公司计算a发生的概率:
p ( a ) = p ( b 1 ) ⋅ p ( a ∣ b 1 ) p ( b 2 ) ⋅ p ( a ∣ b 2 ) = 1 4 × 1 3 1 5 × 2 3 = 13 60 \begin{aligned} p(a) &=p\left(b_{1}\right) \cdot p\left(a \mid \ b_{1} \right) p\left(b_{2}\right) \cdot p\left(a \mid \ b_{2} \right) \\ &=\frac{1}{4} \times \frac{1}{3} \frac{1}{5} \times \frac{2}{3} \\ &=\frac{13}{60} \end{aligned} p(a)=p(b1)⋅p(a∣ b1)p(b2)⋅p(a∣ b2)=41×3151×32=6013
总的来说,概率是反映随机事件出现的可能性大小的量度,而条件概率则是给定某事件a的条件下,另一事件b发生的概率。全概率公式则是利用条件概率,将复杂事件a分割为若干简单事件概率的求和问题。
3.1. 贝叶斯公式
遇到问题找百度,我们继续通过百度百科来了解下贝叶斯公式:
贝叶斯定理由英国数学家贝叶斯 ( thomas bayes 1702-1761 ) 发展,用来描述两个条件概率之间的关系,比如 p(a|b) 和 p(b|a)。
按照乘法法则,可以立刻导出:p(a∩b) =p(a)*p(b|a)=p(b)*p(a|b)。如上公式也可变形为:p(a|b)=p(b|a)*p(a)/p(b)。
贝叶斯公式也称为贝叶斯法则, 尽管它是一个数学公式,但其原理毋需数字也可明了。如果你看到一个人总是做一些好事,则那个人多半会是一个好人。这就是说,当你不能准确知悉一个事物的本质时,你可以依靠与事物特定本质相关的事件出现的多少去判断其本质属性的概率。 用数学语言表达就是:支持某项属性的事件发生得愈多,则该属性成立的可能性就愈大。
简单来说,就是在已知一些条件下(部分事件发生的概率),实现对目标事件发生概率更准确的预测,我们接着用个例子来应用贝叶斯公式:
1)a发生的概率为13/60
2)b1发生的概率为1/3
3)b1发生的情况下a发生的概率为1/4
计算a发生的情况下b1发生的概率:
p ( b 1 ∣ a ) = p ( b 1 ) × p ( a ∣ b 1 ) p ( a ) = 1 3 × 1 4 13 60 = 5 13 \begin{aligned} p\left(b_{1} \mid a\right) &=p\left(b_{1}\right) \times \frac{p\left(a \mid b_{1}\right)}{p(a)} \\ &=\frac{1}{3} \times \frac{\frac{1}{4}}{\frac{13}{60}} \\ &=\frac{5}{13} \end{aligned} p(b1∣a)=p(b1)×p(a)p(a∣b1)=31×601341=135
贝叶斯公式还可以利用全概率公式延伸如下:
p ( b i ∣ a ) = p ( b i ) ∗ p ( a ∣ b i ) p ( a ) = p ( b i ) ∗ p ( a ∣ b i ) ∑ j = 1 n p ( a ∣ b j ) p ( b j ) p\left(b_{i} \mid a\right)=\frac{p\left(b_{i}\right) * p\left(a \mid b_{i}\right)}{p(a)}=\frac{p\left(b_{i}\right) * p\left(a \mid b_{i}\right)}{\sum_{j=1}^{n} p\left(a \mid b_{j}\right) p\left(b_{j}\right)} p(bi∣a)=p(a)p(bi)∗p(a∣bi)=∑j=1np(a∣bj)p(bj)p(bi)∗p(a∣bi)
**其核心就是:基于样本信息(x)与结果分布(y)统计条件概率,再计算新样本对应的事件概率。**举个例来说明:
已知:女神喜欢一个人的概率是0.1,她对喜欢的人笑的概率是0.5,她平时笑的概率是0.2,那女神对你笑,喜欢你的概率是多少?遇到问题,我们先不用慌,先定义下各个事件,然后应用公式计算
1)女神笑的概率,记为p(a);
2)女神喜欢一个人的概率,记为p(b);
3)女神对你笑的情况下,喜欢你的概率,记为p(b|a);
4)女神喜欢你的情况下,对你笑的概率,记为p(a|b);
那运用贝叶斯公式可以计算为:p(b|a)= p(b) * p(a|b) / p(a) = 0.1*0.5/0.2 = 0.25
3.2 朴素贝叶斯
定义:以贝叶斯定理为基础,假设特征之间相互独立,先通过训练数据集,学习从输入到输出的概率分布,再基于学习到的模型及输入,求出使得后验概率最大的输出实现分类。
p ( y ∣ x ) = p ( y ) ∗ p ( x ∣ y ) p ( x ) p(y \mid x)=p(y) * \frac{p(x \mid y)}{p(x)} p(y∣x)=p(y)∗p(x)p(x∣y)
特征之间相互独立
p ( x ∣ y = y i ) = ∏ j = 1 m p ( x j ∣ y = y i ) p ( y i ∣ x 1 , x 2 … , x m ) = p ( y i ) ∏ j = 1 m p ( x j ∣ y i ) p ( x 1 , x 2 … , x m ) = p ( y i ) ∏ j = 1 m p ( x j ∣ y i ) ∏ j = 1 m p ( x j ) \begin{gathered} p\left(x \mid y=y_{i}\right)=\prod_{j=1}^{m} p\left(x_{j} \mid y=y_{i}\right) \\ p\left(y_{i} \mid x_{1}, x_{2} \ldots, x_{m}\right)=\frac{p\left(y_{i}\right) \prod_{j=1}^{m} p\left(x_{j} \mid y_{i}\right)}{p\left(x_{1}, x_{2} \ldots, x_{m}\right)}=\frac{p\left(y_{i}\right) \prod_{j=1}^{m} p\left(x_{j} \mid y_{i}\right)}{\prod_{j=1}^{m} p\left(x_{j}\right)} \end{gathered} p(x∣y=yi)=j=1∏mp(xj∣y=yi)p(yi∣x1,x2…,xm)=p(x1,x2…,xm)p(yi)∏j=1mp(xj∣yi)=∏j=1mp(xj)p(yi)∏j=1mp(xj∣yi)
这样直接看公式,大家可能看不懂,那我们用个案例来说明:
1)我们有4个样本,每个样本有gender性别、age年龄、device使用设备 3个x特征;
2)每个样本有y这个label,用来表示是否会购买某个产品,会购买我们记为1,不会则记为0;
3)计算第一个样本下,y=1的概率
首先用数学的方式表述下这个问题:
1)定义 gender为x1
2)定义age 为x2
3)定义device为x3
4)求解概率p(y=1|x1=0,x2=0,x3=0)
接下来就可以使用朴素贝叶斯公式来计算,具体如下:
p ( y = 1 ) = 2 4 = 1 2 p ( x 1 = 0 ∣ y = 1 ) = 1 2 p ( x 2 = 0 ∣ y = 1 ) = 1 2 p ( x 3 = 0 ∣ y = 1 ) = 1 2 p ( x 1 = 0 ) = 2 4 p ( x 2 = 0 ) = 1 4 p ( x 3 = 0 ) = 3 4 p ( y = 1 ∣ x 1 = 0 , x 2 = 0 , x 3 = 0 ) = p ( y = 1 ) × ( p ( x 1 = 0 ∣ y = 1 ) ⋅ p ( x 2 = 0 ∣ y = 1 ) ⋅ p ( x 3 = 0 ∣ y = 1 ) ) p ( x 1 = 0 ) ⋅ p ( x 2 = 0 ) ⋅ p ( x 3 = 0 ) = 1 2 × ( 1 2 × 1 2 × 1 2 ) 2 4 × 1 4 × 3 4 = 2 3 \begin{aligned} &p(y=1)=\frac{2}{4}=\frac{1}{2} \\ &p\left(x_{1}=0 \mid y=1\right)=\frac{1}{2} \quad p\left(x_{2}=0 \mid y=1\right)=\frac{1}{2} \quad p\left(x_{3}=0 \mid y=1\right)=\frac{1}{2} \\ &p\left(x_{1}=0\right)=\frac{2}{4} \quad p\left(x_{2}=0\right)=\frac{1}{4} \quad p\left(x_{3}=0\right)=\frac{3}{4} \\ &p\left(y=1 \mid x_{1}=0, x_{2}=0, x_{3}=0\right)=\frac{p(y=1) \times\left(p\left(x_{1}=0 \mid y=1\right) \cdot p\left(x_{2}=0 \mid y=1\right) \cdot p\left(x_{3}=0 \mid y=1\right)\right)}{p\left(x_{1}=0\right) \cdot p\left(x_{2}=0\right) \cdot p\left(x_{3}=0\right)} \\ &=\frac{\frac{1}{2} \times\left(\frac{1}{2} \times \frac{1}{2} \times \frac{1}{2}\right)}{\frac{2}{4} \times \frac{1}{4} \times \frac{3}{4}}=\frac{2}{3} \end{aligned} p(y=1)=42=21p(x1=0∣y=1)=21p(x2=0∣y=1)=21p(x3=0∣y=1)=21p(x1=0)=42p(x2=0)=41p(x3=0)=43p(y=1∣x1=0,x2=0,x3=0)=p(x1=0)⋅p(x2=0)⋅p(x3=0)p(y=1)×(p(x1=0∣y=1)⋅p(x2=0∣y=1)⋅p(x3=0∣y=1))=42×41×4321×(21×21×21)=32
4.1 安装python库scikit-learn库
百度百科查询可知:scikit-learn是github上最受欢迎的机器学习库之一。scikit-learn(以前称为scikits.learn,也称为sklearn)是针对python 编程语言的免费软件机器学习库。它具有各种分类,回归和聚类算法,包括支持向量机,随机森林,梯度提升,k均值和dbscan,并且旨在与python数值科学库numpy和scipy联合使用。而我们也可以使用该库中的朴素贝叶斯模块categoricalnb模块来实现朴素贝叶斯。
首先我们先来安装scikit-learn库吧。
4.1.1 安装numpy mkl和scipy
安装sklearn之前,需要安装两个库,即numpy mkl和scipy。但是不要使用pip3直接在终端安装,因为pip3默安装的是numpy,而不是numpy mkl。
下面是numpy mkl和scipy的第三方库下载地址(里面内容较多,但是是按照首字母排序的,可以直接搜索numpy mkl、scipy,寻找到合适的版本下载)
第三方库下载地址
分别下载下载numpy mkl和scipy的.whl文件到本地后,安装轮子工具
pip install wheel在安装之前,首先要在终端中定位到之前下载numpy mkl的地址中,然后再进行安装,比如:
pip install numpy-1.22.2mkl-cp310-cp310-win_amd64.whl在安装之前,首先要在终端中定位到之前下载scipy的地址中,然后再进行安装,比如:
pip install scipy-1.8.0-cp310-cp310-win_amd64.whl4.1.2 安装sklearn
安装完上面的numpy mkl和scipy后,安装sklearn比较简单,使用pip install就可以直接安装了
pip install -u scikit-learn4.2 代码详解
我们通过下面这个用户基本信息数据集进行训练,来预测器购买商品的概率。
计算以下用户购买商品的概率,预测其是否会购买,具体测试样本如下:
这里我们可以使用scikit-learn建立一个朴素贝叶斯机器学习模型,然后使用其进行训练及预测。
使用jupyter notebook演示如下:
全部代码如下:
好啦,到这里我们就全部结束了人工智能必学数学基础三天学习了,相信从头学到尾的小伙伴们应该不会再觉得数学知识很难了吧,应该也对继续入门学习人工智能充满信心了吧。
如果大家想继续了解人工智能相关学习路线和知识体系,欢迎大家翻阅我的另外一篇博客《重磅 | 完备的人工智能ai 学习——基础知识学习路线,所有资料免关注免套路直接网盘下载》
这篇博客参考了github知名开源平台,ai技术平台以及相关领域专家:datawhale,apachecn,ai有道和黄海广博士等约有近100g相关资料,希望能帮助到所有小伙伴们。
欢迎大家继续支持我 关注、收藏,点赞,一键三连。如果有任何问题,也可以随时评论区留言或者私信我。
本文只供大家学习相关知识使用,不以任何商业盈利为目的,转载或分享请注明相关来源。如涉及到相关侵权,请联系我删除。
欢迎志同道合者互相交流学习,可以加我微信号:zhihua_steven,或者扫以下二维码关注我的微信公众号。
总结
以上是ag凯发k8国际为你收集整理的干货来袭!3天0基础python实战项目快速学会人工智能必学数学基础全套(含源码)(第3天)概率分析篇:条件概率、全概率与贝叶斯公式的全部内容,希望文章能够帮你解决所遇到的问题。
- 上一篇:
- 下一篇: