第6讲 联合熵与条件熵.docx

上传人:人*** 文档编号:14697147 上传时间:2022-11-25 格式:DOCX 页数:8 大小:33.63KB
下载 相关 举报
第6讲 联合熵与条件熵.docx_第1页
第1页 / 共8页
第6讲 联合熵与条件熵.docx_第2页
第2页 / 共8页
第6讲 联合熵与条件熵.docx_第3页
第3页 / 共8页
第6讲 联合熵与条件熵.docx_第4页
第4页 / 共8页
第6讲 联合熵与条件熵.docx_第5页
第5页 / 共8页
点击查看更多>>
资源描述

第6讲联合熵与条件熵信息熵H(X)反映了随机变量X的取值不确定性。当X是常量时,其信息熵最小,等于0;当X有n个取值时,当且仅当这些取值的机会均等时,信息熵H(X)最大,等于logn比特。我们拓展信息熵H(X)的概念,考虑两个随机变量X和Y的联合熵H(XY)和条件熵H(Y|X)。1.联合熵设X,Y是两个随机变量,则(X,Y)是二维随机变量,简写为XY。二维随机变量XY的联合概率分布记为p(xy),即p(xy)=PrX=x,Y=y根据信息熵的定义可知,XY的信息熵为H(XY)二工p(xy)I(xy)二工p(xy)log1-p(xy)x,yx,y定义11二维随机变量XY的信息熵H(XY)称为X与Y的联合熵(jointentropy)。它反映了二维随机变量XY的取值不确定性。我们把它理解为X和Y取值的总的不确定性。练习:假设有甲乙两只箱子,每个箱子里都存放着100个球。甲里面有红蓝色球各50个,乙里面红、蓝色的球分别为99个和1个。试计算H(XY)我们将联合熵概念推广到任意多离散型随机变量上。定义九2-组随机变量X1,X2

展开阅读全文
相关资源
相关搜索

当前位置:首页 > 重点行业资料库 > 商业租赁

Copyright © 2018-2021 Wenke99.com All rights reserved

工信部备案号浙ICP备20026746号-2  

公安局备案号:浙公网安备33038302330469号

本站为C2C交文档易平台,即用户上传的文档直接卖给下载用户,本站只是网络服务中间平台,所有原创文档下载所得归上传人所有,若您发现上传作品侵犯了您的权利,请立刻联系网站客服并提供证据,平台将在3个工作日内予以改正。