ImageVerifierCode 换一换
格式:PPT , 页数:36 ,大小:593.50KB ,
资源ID:192464      下载积分:6 文钱
快捷下载
登录下载
邮箱/手机:
温馨提示:
快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。 如填写123,账号就是123,密码也是123。
特别说明:
请自助下载,系统不会自动发送文件的哦; 如果您已付费,想二次下载,请登录后访问:我的下载记录
支付方式: 支付宝    微信支付   
验证码:   换一换

加入VIP,省得不是一点点
 

温馨提示:由于个人手机设置不同,如果发现不能下载,请复制以下地址【https://www.wenke99.com/d-192464.html】到电脑端继续下载(重复下载不扣费)。

已注册用户请登录:
账号:
密码:
验证码:   换一换
  忘记密码?
三方登录: QQ登录   微博登录 

下载须知

1: 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。
2: 试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。
3: 文件的所有权益归上传用户所有。
4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
5. 本站仅提供交流平台,并不能对任何下载内容负责。
6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

版权提示 | 免责声明

本文(贝叶斯网络简介.ppt)为本站会员(h****)主动上传,文客久久仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知文客久久(发送邮件至hr@wenke99.com或直接QQ联系客服),我们立即给予删除!

贝叶斯网络简介.ppt

1、贝叶斯网络简介Introduction to Bayesian Networks,基本框架,贝叶斯网络: 概率论 图论,基本思路,贝叶斯网络是为了处理人工智能研究中的不确定性(uncertainty)问题而发展起来的.贝叶斯网络是将概率统计应用于复杂领域进行不确定性推理和数据分析的工具。BN是一种系统地描述随即变量之间关系的工具。建立BN的目的主要是进行概率推理(probabilistic inference)。用概率论处理不确定性的主要优点是保证推理结果的正确性。,几个重要原理,链规则(chain rule)贝叶斯定理(Bayes theorem)利用变量间条件独立性,What are th

2、ey?Bayesian nets are a network-based framework for representing and analyzing models involving uncertaintyWhat are they used for?Intelligent decision aids, data fusion, feature recognition, intelligent diagnostic aids, automated free text understanding, data miningWhere did they come from?Cross fert

3、ilization of ideas between the artificial intelligence, decision analysis, and statistic communities,贝叶斯网络的几个主要问题,贝叶斯网络概率推理(Probabilistic Inference)结构学习 (structure learning)参数学习 (Parameter learning)分类 (classification) 隐变量及隐结构学习 (Hidden variables and hidden structure learning),一个简单贝叶斯网络例子,一个简单贝叶斯网络例子

4、,计算过程:(1)P(y1|x1)=0.9P(z1|x1)=P(z1|y1,x1)P(y1|x1)+P(z1|y2,x1)P(y2|x1) =P(z1|y1)P(y1|x1)+P(z1|y2)P(y2|x1) =0.7*0.9+0.4*0.1=0.67P(w1|x1)=P(w1|z1,x1)P(z1|x1)+P(w1|z2,x1)P(z2|x1) =P(w1|z1)P(z1|x1)+P(w1|z2)P(z2|x1) =0.5*0.67+0.6*0.33=0.533该计算利用向下概率传播及链式规则。,一个简单贝叶斯网络例子,计算过程:(2) P(y1)=P(y1|x1)P(x1)+P(y1|x2

5、)P(x2)=0.9*0.4+0.8*0.6=0.84P(z1)=P(z1|y1)P(y1)+P(z1|y2)P(y2)=0.7*0.84+0.4*0.16=0.652P(w1)=P(w1|z1)P(z1)+P(w1|z2)P(z2)=0.5*0.652+0.6*0.348=0.5348P(w1|y1)=P(w1|z1)P(z1|y1)+P(w1|z2)P(z2|y1)=0.5*0.7+0.6*0.3=0.53P(w1|y2)=P(w1|z1)P(z1|y2)+P(w1|z2)P(z2|y2) =0.5*0.4+0.6*0.6=0.56P(w1|x1)=P(w1|y1)P(y1|x1)+P(w

6、1|y2)P(y2|x1) =0.53*0.9+0.56*0.1=0.533 该计算利用向上概率传播及贝叶斯定理。,为什么要用贝叶斯网络进行概率推理?,理论上,进行概率推理所需要的只是一个联合概率分布。但是联合概率分布的复杂度相对于变量个数成指数增长,所以当变量众多时不可行。贝叶斯网络的提出就是要解决这个问题。它把复杂的联合概率分布分解成一系列相对简单的模块,从而大大降低知识获取和概率推理的复杂度,使得可以把概率论应用于大型问题。统计学、系统工程、信息论以及模式识别等学科中贝叶斯网络特里的多元概率模型:朴素贝叶斯模型,隐类模型,混合模型,隐马尔科夫模型,卡尔曼滤波器等。动态贝叶斯网络主要用于对

7、多维离散时间序列的监控和预测。多层隐类模型,能够揭示观测变量背后的隐结构。,概率论基础,贝叶斯网络所依赖的一个核心概念是条件独立: Conditional Independence,基本概念,例子,P(C, S,R,W) = P(C)P(S|C)P(R|S,C)P(W|S,R,C) chain rule = P(C)P(S|C)P(R|C)P(W|S,R,C) since = P(C)P(S|C)P(R|C)P(W|S,R) since,贝叶斯网络应用,医疗诊断,工业,金融分析,计算机(微软Windows,Office),模式识别:分类,语义理解军事(目标识别,多目标跟踪,战争身份识别等),生

8、态学,生物信息学(贝叶斯网络在基因连锁分析中应用),编码学,分类聚类,时序数据和动态模型,图分割与变量独立,图分割,有向分割(d-separate,d-分割)变量X和Y通过第三个变量Z间接相连的三种情况:阻塞(block)设Z为一节点集合,X和Y是不在Z中的两个节点。考虑X和Y之间的一条通路。如果满足下面条件之一,则称被Z所阻塞:1有一个在Z中的顺连节点;2有一个在Z中的分连节点3 有一个汇连节点W,它和它的后代节点均不在Z中。,图分割与变量独立,如果X和Y之间的所有通路都被Z阻塞,则说Z有向分割(directed separate)X和Y,简称d-separate,d-分割。那么X和Y在给定

9、Z时条件独立。定理(整体马尔科夫性)设X和Y为贝叶斯网N中的两个变量,Z为N中一个不包含X和Y的节点集合。如果Z d-分割X和Y,那么X和Y在给定Z时条件独立,即 d-分割是图论的概念,而条件独立是概率论的概念,所以定理揭示了贝叶斯网络图论侧面和概率论侧面之间的关系。,马尔科夫边界与端正图,马尔科夫边界:条件独立性 在贝叶斯网络中,一个节点X的马尔科夫边界(Markov boundary)包括其父节点、子节点、以及子节点的父节点。 端正图(Moral graph): 团树传播算法-junction tree 设G为一有向无环图,如果将G中每个节点的不同父节点结合,即在他们之间加一条边,然后去掉

10、所有边的方向,所得到的无向图成为G的端正图。,贝叶斯网络推理(Inference),贝叶斯网络可以利用变量间的条件独立对联合分布进行分解,降低参数个数。推理(inference)是通过计算来回答查询的过程计算后验概率分布:P(Q|E=e),贝叶斯网络推理(Inference),1 变量消元算法(Variable elimination) 利用概率分解降低推理复杂度。 使得运算局部化。消元过程实质上就是一个边缘化的过程。 最优消元顺序:最大势搜索,最小缺边搜索,贝叶斯网络推理(Inference),2. 团树传播算法利用步骤共享来加快推理的算法。团树(clique tree)是一种无向树,其中每

11、一个节点代表一个变量集合,称为团(clique)。团树必须满足变量连通性,即包含同一变量的所有团所导出的子图必须是连通的。,用团树组织变量消元的算法。计算共享团树传播算法基本步骤:将贝叶斯网络转化为团树团树初始化在团树中选一个团作为枢纽全局概率传播:CollectMessage; DistributeMessage边缘化,归一化,团树传播算法示例 (TLR是枢纽节点) 变量消元和团树传播算法都是精确推理算法。,贝叶斯网络推理(Inference),3 . 近似推理(1) 随机抽样算法:顺序抽样法,MCMC抽样是一类应用于数值积分和统计物理中的近似计算方法。基本思想是从某个概率分布随机抽样,生成

12、一组样本,然后从样本出发近似计算感兴趣的量。随机抽样算法理论基础是大数定律。,MCMC算法吉布斯抽样(Gibbs sampling)。它首先随机生成一个与证据E=e相一致的样本s1作为起始样本。此后,每个样本si的产生都依赖于前一个样本si-1,且si与si-1最多只有一个非证据变量的取值不同,记改变量为X。X的取值可以从非证据变量中随机选取,也可以按某个固定顺序轮流决定。在si中,X的值通过随机抽样决定,抽样分布是:当样本数 时,马氏链理论保证了算法返回的结果收敛于真正的后验概率。吉布斯抽样的缺点是收敛速度慢,因为马氏链往往需要花很长时间才能真正达到平稳分布。 (2) 变分法。,贝叶斯网络学

13、习,1. 结构学习:发现变量之间的图关系 ,2 .参数学习:决定变量之间互相关联的量化关系。,贝叶斯网络结构学习,选择具有最大后验概率的结构 。基于评分函数(scoring function):BIC, MDL, AIC等 拉普拉斯近似(Laplace approximation):对拉普拉斯近似简化,得BIC:BIC既不依赖于先验也不依赖于参数坐标系统 第一项度量参数模型预测数据的优良程度,第二项用于惩罚模型复杂度,结构学习算法,算法:K2: 通过为每个结点寻找父结点集合来学习贝叶斯网络结构。它不断往父结点集中添加结点,并选择能最大化数据和结构的联合概率的结点集。 HillClimbing

14、(operators: edge addition, edge deletion, edge reversion) 从一个无边结构开始,在每一步,它添加能最大化BIC的边。算法在通过添加边不能再提高结构得分时停止。缺值数据结构学习:Structural EM SEM不是每次迭代都同时优化模型结构和参数,而是先固定模型结构进行数次参数优化后,再进行一次结构加参数优化,如此交替进行。 目的:减小计算复杂度。,贝叶斯网络参数学习,最大似然估计 完全基于数据,不需要先验概率: 贝叶斯估计 假定在考虑数据之前,网络参数服从某个先验分布。先验的主观概率,它的影响随着数据量的增大而减小。,贝叶斯网络参数学习

15、,缺值数据最大似然估计:EM算法 (迭代算法) 1 基于 对数据进行修补,使之完整 (E-step) 2 基于修补后的完整数据计算的最大似然估计 (M-Step)EM算法是收敛的。,隐结构模型学习,隐变量是取值未被观察到的变量。通过数据分析: 1 隐变量的个数 2 隐结构 3 隐变量的势 4 模型参数方法:基于评分函数的爬山法 G是一个隐变量模型,D是一组数据。 是G的参数的某一个最大似然估计, 是G的有效维数。 隐变量势学习爬山算法隐结构学习双重爬山算法,贝叶斯网络用于分类和因果关系分析,(1) Nave Bayesian networks(2) Tree augment Bayesian

16、networks, et al.(3) PC (Spirtes et al.,2000) , IC(Pearl,2000) algorithm,动态贝叶斯网络,DBN: Dynamic Bayesian networksDealing with timeIn many systems, data arrives sequentiallyDynamic Bayes nets (DBNs) can be used to model such time-series (sequence) dataSpecial cases of DBNs includeState-space modelsHidde

17、n Markov models (HMMs),Software Tools,Microsofts MSBNXBNT Kevin Murphy. BayesNet Toolbox for Matlab (BNT). http:/www.cs.ubc.ca/murphyk/Software/BNT/bnt.html, 2001.,参考文献,(美)拉塞尔,(美)诺文 著. 姜哲 等译. 人工智能一种现代 方法(第二版),北京:人民邮电出版社,2004.6. (Chapter 13,14,15,20). Kevin Patrick Murphy. Dynamic Bayesian Networks:

18、Representation, Inference and learning. PhD dissertation, University of California, Berkeley, 2002. David Heckerman. A Tutorial on Learning with Bayesian Networks. Microsoft Technical Report.No.MSR-TR-95-06.Microsoft Research, March 1995 (revised November 1996) Richard E. Neapolitan. Learning Bayesian Networks. Prentice Hall Series in Artificial Intelligence, Pearson Education, Inc., Pearson Prentice Hall, Upper Saddle River, NJ 07458, 2004. Northeastern Illinois University, Chicago, Illinois.,

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。