信息论基础第二章-信源和熵课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《信息论基础第二章-信源和熵课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信息论 基础 第二 信源 课件
- 资源描述:
-
1、本章主要内容本章主要内容离散信源的信息熵连续信源的信息熵 信源分类和描述信源分类和描述信源分类和描述离离散散信信源源连连续续信信源源单单符符号号信信源源符符号号序序列列信信源源无无记记忆忆信信源源有有记记忆忆信信源源信源分类和描述信源分类和描述 )()()(2121nnxpxpxpxxx )(,xpX=1)(1 niixp离散信源连续信源 )(,xX=)(),(xba 1)(dxxba 信源分类和描述信源分类和描述 )()()()(,2121nnxpxpxpxxxxpX单符号信源 X符号序列信源 XN (N次扩展信源)),(),(),(),(),(),()(,112111112111qqqqq
2、qxxxpxxxpxxxpxxxxxxxxxpxX X ),(),(),(),(),(),()(,112111112111qqqqqqNxxxpxxxpxxxpxxxxxxxxxpXx或信源分类和描述信源分类和描述无记忆信源有记忆信源),|(21mllllXXXXp NllNNNN121)(),()(XXXXX信息的特性信息的特性 事件(消息)的信息量大小与其不确定事件(消息)的信息量大小与其不确定度(概率)有关度(概率)有关 事件概率越小,信息量越大事件概率越小,信息量越大 确定性事件的信息量为零,不可能事件确定性事件的信息量为零,不可能事件的信息量为无穷大的信息量为无穷大 信息量具有可加性
3、信息量具有可加性离散信源符号的信息量离散信源符号的信息量信息量定义 信息量单位 对数的底a=2时,信息量单位为比特(bit)对数的底a=e时,信息量单位为奈特(nat)对数的底a=3时,信息量单位为铁特(Tet)对数的底a=10时,信息量单位为哈特(Hart))(1log)(xpxIa)(logxpa-离散信源的信息熵离散信源的信息熵(Entropy)信息熵定义(信息量的统计平均或者说数学期望)信息熵单位 对数的底a=2时,信息熵单位为比特/符号(bit/符号)对数的底a=e时,信息熵单位为奈特/符号(nat/符号)对数的底a=3时,信息熵单位为铁特/符号(Tet/符号)对数的底a=10时,信
4、息熵单位为哈特/符号(Hart/符号))(xIEH(X)=)(log)(xpxpXx =注意:计算机技术中的术语“比特”表示一个二元数字,每个二元数字所能提供的最大平均信息量为1比特。离散信源信息熵的含义离散信源信息熵的含义 H(X)表示信源的平均不确定度表示信源的平均不确定度平均平均信息量信息量 H(X)表示信源的随机性表示信源的随机性 H(X)表示信源输出每个符号所提供的平表示信源输出每个符号所提供的平均信息量均信息量 H(X)表示信宿所能获得的最大信息量表示信宿所能获得的最大信息量 条件自信息量与条件熵条件自信息量与条件熵条件自信息量定义条件熵定义(条件自信息量的统计平均)I(x|y)=
5、log)|(1yxp=log p(x|y)=)|(yXH )|(yxIEX)|(log)|(yxpyxpXx =)|(YXH )|(yXHEY)|()(yXHypYy =联合自信息量与联合熵联合自信息量与联合熵联合自信息量定义联合熵定义(联合自信息量的统计平均)I(xy)=log)(1xyp=log p(xy)XxYyxypxyp)(log)(=)(XYH )(xyIEXY=XxYyxyIxyp)()(自信息量、条件信息量、联合信息量自信息量、条件信息量、联合信息量三者之间的关系三者之间的关系)|()()(xyIxIxyI )()|(xIyxI)|()()(yxIyIxyI )()|(yIxy
6、I)()()(yIxIxyI 当事件x 和事件y 相互独立时有信息熵、条件熵、联合熵信息熵、条件熵、联合熵三者之间的关系三者之间的关系)|()()(XYHXHXYH )|()()(YXHYHXYH )()()(YHXHXYH )()|(XHYXH)()|(YHXYH 当集合X 和集合Y 相互独立时有离散二元信源的信息熵离散二元信源的信息熵 )1log()1(log)(ppppXH ppxpX110)(有两个二元随机变量有两个二元随机变量X和和Y,它们的联合概率为,它们的联合概率为并定义另一随机变量并定义另一随机变量Z=XY(一般乘积(一般乘积),试计算:,试计算:(1)H(X)、H(Y)、H(
7、Z)、H(XY)、H(XZ)、H(YZ)、H(XYZ)(2)H(X|Y)、H(X|Z)、H(Z|X)、H(Z|Y)、H(Y|Z)、H(Y|XZ)、H(Z|XY)例题例题p(xy)x=0 x=1y=01/83/8y=13/81/8熵函数熵函数 H(p)的性质的性质 niiinnpppppHH121log),()(P信息熵 H(X)的函数表达H(p),(),(),(111221 nnnnnnnpppHpppHpppH(1)对称性(2)非负性(离散信源)0),(21 nnpppH(3)扩展性),(),(lim212110nnnnpppHpppH 熵函数熵函数 H(p)的性质的性质0)0,0,1()0
8、,0,1()0,1(32 nHHH(4)确定性(5)可加性(6)极值性nnnnHpppHnnnlog)1,1,1(),(21 ),(,2,12,22,222,121,11,211,1121nmnnnnnmmMnPpPpPpPpPpPpPpPpPpH niimiiminniiPPPHppppH1,2,121),(),(熵函数熵函数 H(p)的性质的性质熵函数熵函数 H(p)的性质的性质(7)上凸性 )()()()(qpqpHHH 11小结:信息熵 信息论中的最基础的基本概念 对随机变量不确定性的最好的度量 用来描述信源的信息特性互信息量的提出与定义互信息量的提出与定义互信息量提出互信息量=(收到
9、消息之前关于某事件的不确定度)-(收到消息之后关于该事件的不确定度)=消息不确定度的减小量)()|(log);(xpyxpyxIa 互信息量定义)|()()|(log)(log);(yxIxIyxpxpyxIaa 条件互信息量与联合互信息量条件互信息量与联合互信息量条件互信息量定义联合互信息量定义)|()|(log)|;(zxpyzxpzyxIa)()|(log);(xpyzxpyzxIa 自信息量与互信息量的自信息量与互信息量的区分区分(表达方式和含义上表达方式和含义上))(xI);(yxI)(xyI)|;(zyxI);(yzxI信息量)|(yxI互信息量)(1log)(xpxIa)()|(
10、log);(xpyxpyxIa 自信息量与互信息量的自信息量与互信息量的联系联系)|()()(xyIxIxyI )|;();();(yzxIyxIyzxI )|()();(yxIxIyxI )()()();(xyIyIxIyxI )()|(log);(xpyxpyxIa)|()()(xypxpxyp)|()|()|;(yzxIzxIzyxI 自信息量与互信息量的自信息量与互信息量的异同异同);();(xyIyxI 异非负性互易性同 可加性)|()()(xyIxIxyI )|;();();(yzxIyxIyzxI )()|()()|(ypxypxpyxp 0)(xI1)(0)(log)(xpxp
11、xIa例题例题设某班学生在一次考试中获优(A)、良(B)、中(C)、及格(D)和不及格(E)的人数相等。当教师通知某甲:“你没有不及格”,甲获得了多少比特信息?为确定自己的成绩,甲还需要多少信息?平均互信息量平均互信息量平均互信息量定义 XxYyZzXYZzxpyzxpxyzpzyxIEZYXI)|()|(log)()|;()|;(平均条件互信息量定义平均联合互信息量定义 XxYyXYxpyxpxypyxIEYXI)()|(log)();();(XxYyZzXYZxpyzxpxyzpyzxIEYZXI)()|(log)();();(1)非负性(2)互易性(3)极值性平均互信息量平均互信息量 I
12、(X;Y)的性质的性质0);(YXI);();(XYIYXI)();(XHYXI)();(YHYXI 0);(yXI0);(YxI);(yxI不具有非负性(4)I(X;Y)与信息熵的关系(5)凸函数性平均互信息量平均互信息量 I(X;Y)的性质的性质)|()();(YXHXHYXI )|()();(XYHYHYXI )()()();(XYHYHXHYXI 当 p(y|x)给定时,I(X;Y)是 p(x)的上凸函数。当 p(x)给定时,I(X;Y)是 p(y|x)的下凸函数。I(X;Y)与信息熵的关系与信息熵的关系I(X;Y)=0H(X)H(Y)H(XY)集合X与集合Y 相互独立的情况 I(X;
13、Y)与信息熵的关系与信息熵的关系H(XY)H(X|Y)H(Y|X)H(X)H(Y)H(X|Y)含糊度或损失熵 H(Y|X)散布度或噪声熵 0);(YXII(X;Y)与信息熵的关系与信息熵的关系H(X)=H(Y)=I(X;Y)H(XY)集合X与集合Y 完全相关的情况 I(X;Y)与信息熵的关系与信息熵的关系H H(X X)H H(Y Y)H H(Y Y|X X)H H(X XY Y)I I(X X;Y Y)H H(Y Y|X X)H(X|Y)I(X;Y)的凸函数性的凸函数性 XxYyXYxpyxpxypyxIEYXI)()|(log)();();(XxYyXYypxypxypyxIEYXI)()
展开阅读全文