信源与信息熵-课件.ppt
- 【下载声明】
1. 本站全部试题类文档,若标题没写含答案,则无答案;标题注明含答案的文档,主观题也可能无答案。请谨慎下单,一旦售出,不予退换。
2. 本站全部PPT文档均不含视频和音频,PPT中出现的音频或视频标识(或文字)仅表示流程,实际无音频或视频文件。请谨慎下单,一旦售出,不予退换。
3. 本页资料《信源与信息熵-课件.ppt》由用户(三亚风情)主动上传,其收益全归该用户。163文库仅提供信息存储空间,仅对该用户上传内容的表现方式做保护处理,对上传内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知163文库(点击联系客服),我们立即给予删除!
4. 请根据预览情况,自愿下载本文。本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。
5. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007及以上版本和PDF阅读器,压缩文件请下载最新的WinRAR软件解压。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信源 信息 课件
- 资源描述:
-
1、信源与信息熵信源与信息熵本章内容本章内容 信源的分类及基本的信源数学模型描述、自信息和信息熵的定义及性质、互信息的概念及性质、信源冗余度的描述等。本章重点本章重点 理解信源不确定性的含义,熵函数H(X)的性质、平均互信息量的定义、性质,联合信源的联合熵、条件熵,离散平稳信源的信源熵、极限熵等概念和计算方法。了解马尔可夫信源的定义和计算方法。2.1 2.1 信源的描述和分类信源的描述和分类一、香农信息论的基本点一、香农信息论的基本点 用随机变量或随机矢量来表示信源 用概率论和随机过程的理论来研究信息 常用的信息度量方法统计度量。(另有结构度量、语义度量、语用度量和模糊度量等方法。)5按照信源发出
2、的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源两大类 信源信源离散信源离散信源连续信源连续信源连续信源是连续信源是指发出在时间和幅度上都是连续分布的指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。形等都是连续消息。离散信源是离散信源是指发出在时间和幅度上都是离散分布的指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息的信源,如文字、数字、数据等符号都是离散消息。离散消息。6离散信源离散信源离散无记忆信源离散无记忆信源离散有记忆信源离散有记忆信源发出单个
3、符号的无记忆信源发出单个符号的无记忆信源发出符号序列的无记忆信源发出符号序列的无记忆信源发出符号序列的有记忆信源发出符号序列的有记忆信源发出符号序列的马尔可夫信源发出符号序列的马尔可夫信源 离散无记忆信源离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。离散有记忆信源离散有记忆信源所发出的各个符号的概率是有关联的。发出单个符号的信源发出单个符号的信源是指信源每次只发出一个符号代表一个消息。发出符号序列的信源发出符号序列的信源是指信源每次发出一组含二个以上符号的符号序列代表一个消息。发出符号序列的有记忆信源发出符号序列
4、的有记忆信源是指用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征。发出符号序列的马尔可夫信源发出符号序列的马尔可夫信源是指某一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,这样的信源可以用信源发出符号序列内各个符号之间的条件概率来反映记忆特征。7l单符号离散信源单符号离散信源 定义:一个离散无记忆信源是由定义:一个离散无记忆信源是由n个符号消息个符号消息组成的集合:组成的集合:X=x1,x2 xn,这这n个符号消息的概率分布为:个符号消息的概率分布为:称为符号称为符号xi的先验概率,信源数学模型表示为:的先验概率,信源数学模型表示为:称为概率空间,
5、其中称为概率空间,其中)(,),(),(21nxpxpxpp )()()()(321321nnxpxpxpxpxxxxPX11()0,()1niiip xp x8 例如:对二进制数字与数据信源例如:对二进制数字与数据信源2/12/1101010ppPX9l 单个连续信源单个连续信源 pX(x)为随机变量为随机变量X的概率密度函数的概率密度函数)(),(xpbaPXX1)(baXxp10 随机变量随机变量X和和Y分别取值于集合分别取值于集合 和和 X发生发生xi和和Y发生发生yj的概率的概率为为p(xi)和和p(yj),它们一定满足,它们一定满足0 p(xi),p(yj)1以及以及和和 。如果考
6、察如果考察X和和Y同时发生同时发生xi和和yj的概率,的概率,则二者构成联合随机变量则二者构成联合随机变量XY,取值于集,取值于集合合xiyj|i=1,2,n,j=1,2,m,元素,元素xiyj发发生的概率称为生的概率称为联合概率联合概率,用,用p(xi yj)表示表示。nxxx,21nyyy,211)(1niixp1)(1njjyp11 如如X发生发生xi以后,以后,Y又发生又发生yj的的条件概率为条件概率为p(yj/xi),代表代表xi已知的情况下,又出现已知的情况下,又出现yj的概的概率。当率。当xi不同时,即使发生同样的不同时,即使发生同样的yj,其条件,其条件概率也不同,说明概率也不
7、同,说明xi对对yj的影响。而的影响。而p(yj)则是对则是对xi一无所知情况下,一无所知情况下,yj发生的概率,有时相应发生的概率,有时相应地称为地称为p(yj)为为yj的无条件概率。同理,的无条件概率。同理,yj 已知已知的条件下的条件下xi 的的条件概率记为条件概率记为p(xi/yj)。相应地相应地,p(xi)称为称为xi的无条件概率。的无条件概率。12111111110(),(),(/),(/),()1()1,()1,(/)1,(/)1,()1()(),()()ijijjiijnmnijijijimmnjiijjjinmijjijiijp xp yp xyp yxp x yp xp y
8、p xyp yxp x yp x yp yp x yp x基本性质:13 1 1)条件概率)条件概率 2 2)联合概率)联合概率)()()|(,)()()|(ijiijjjijixpyxpxypypyxpyxp)|()()(),|()()(ijijijijjixypxpyxpyxpypyxp14 3)3)全概率全概率:4)Bayes4)Bayes公式公式:mjjimjjijinijiniijijyxpyxpypxpyxpxypxpyp1111)()|()()()()|()()()()|()()|()()|()()|(ijijijjijijixpyxpypxypypxypxpyxp152.2 2
9、.2 离散信源熵和互信息离散信源熵和互信息16 信源发出消息,经过信道,到达信宿,信宿收到信源发出消息,经过信道,到达信宿,信宿收到消息,获得了信息,这个过程就称作通信。我们现在消息,获得了信息,这个过程就称作通信。我们现在来研究通信的源头,也就是信源的特性。那么实际有来研究通信的源头,也就是信源的特性。那么实际有用的信源应该具有什么特性呢?我们认为它应该具有用的信源应该具有什么特性呢?我们认为它应该具有不确定性(不肯定性)。信源至少应该包含两种不同不确定性(不肯定性)。信源至少应该包含两种不同的消息,例如两元信元(包含的消息,例如两元信元(包含0、1),而信宿是知道),而信宿是知道信元发送(
10、信元发送(0、1)的,但是它就是不知道在具体的某)的,但是它就是不知道在具体的某一时刻,信源发送的是哪个消息。这是显然的,如果一时刻,信源发送的是哪个消息。这是显然的,如果它知道,就不需要通信了!它知道,就不需要通信了!17 【例【例2.1】某二元信源(含有两个不同消息的信源)】某二元信源(含有两个不同消息的信源)发发送送1的概率的概率0.99,0的概率的概率0.01,信宿仅凭猜测就可以信宿仅凭猜测就可以简单的认为信源发出的消息始终都是简单的认为信源发出的消息始终都是1,即使如此,即使如此,猜错的概率仅为百分之一。这说明在这种情况下,信猜错的概率仅为百分之一。这说明在这种情况下,信源基本上在发
11、送源基本上在发送1,信源的不确定性很小。,信源的不确定性很小。【例【例2.2】某二元信源】某二元信源发送发送1和和0的概率相等的概率相等,均为,均为0.5,这时信宿不依赖通信仅凭猜测的话,猜错的概率高达这时信宿不依赖通信仅凭猜测的话,猜错的概率高达50%。这说明在这种情况下,猜测信源发送什么消息。这说明在这种情况下,猜测信源发送什么消息就困难了,因为信源发送什么消息相当不确定。就困难了,因为信源发送什么消息相当不确定。18 【例【例2.3】如果信源具有更多的消息,例如发】如果信源具有更多的消息,例如发10个数字个数字0,1.9(例如采用例如采用4位十进制树的中文位十进制树的中文电报电报),而且
12、假定这是个消息是等概率分布的,而且假定这是个消息是等概率分布的,均为均为0.1,这时信宿仅凭猜测的话,就更难猜,这时信宿仅凭猜测的话,就更难猜了。因为信源发送什么消息更加不确定。了。因为信源发送什么消息更加不确定。【例【例2.4】现在讨论一种极端的情况,信源只发】现在讨论一种极端的情况,信源只发送一种消息,即永远只发送送一种消息,即永远只发送1或者只发送或者只发送0,从,从这样的信源中我们就不能从中获取任何信息,这样的信源中我们就不能从中获取任何信息,也就是说信源的不确定性为也就是说信源的不确定性为0。19 信源如果没有不确定性,那么就没有实用价值。不信源如果没有不确定性,那么就没有实用价值。
13、不确定度和发送的消息数目和发送符号的概率有关。为确定度和发送的消息数目和发送符号的概率有关。为了确切的描述信源,我们采用概率空间来描述信源。了确切的描述信源,我们采用概率空间来描述信源。离散信源离散信源:若一类信源输出的消息常常是以一个个:若一类信源输出的消息常常是以一个个符号的形式出现,例如文字、字母等,这些符号的取符号的形式出现,例如文字、字母等,这些符号的取值是有限的或可数的,这样的信源称为离散信源。比值是有限的或可数的,这样的信源称为离散信源。比如(如(0、1)二元信元,它的消息是以一定的概率来出)二元信元,它的消息是以一定的概率来出现的,所以可以采用概率空间来描述。现的,所以可以采用
14、概率空间来描述。若信源的输出是随机变量若信源的输出是随机变量X,其出现概率为,其出现概率为P(X),则它们所构成的集合,称为信源的则它们所构成的集合,称为信源的概率空间概率空间或简称为或简称为信源空间信源空间。20 1)定义:定义:一个符号消息一个符号消息 xi 的的自信息量自信息量为其发生概率的为其发生概率的对数的负数,并记为对数的负数,并记为 I(xi);I(xi)=-log p(xi)当当p(xi)=0,则,则 I(xi);当;当p(xi)=1,则,则 I(xi)=0.2)自信息量的单位自信息量的单位 自信息量的单位与所用对数的底有关:自信息量的单位与所用对数的底有关:1 对数的底是对数
15、的底是2 时,单位为时,单位为比特比特 bit(binary unit)2 对数的底是对数的底是 e(自然对数自然对数)时,单位为时,单位为奈特奈特 nat(nature unit)21 3 对数的底是对数的底是10(常用对数常用对数)时,单位为时,单位为笛特或哈特笛特或哈特 det(decimal unit)or Hart(Hartley)三种信息量单位之间的换算:三种信息量单位之间的换算:1 det=log2 10 3.322 bit 1 bit=ln 2 0.6931 nat 1 bit =lg 2 0.3010 det 1 nat=log2 e 1.4427 bit 在信息论中常用以在
16、信息论中常用以2为底的对数,为了书写方便,以为底的对数,为了书写方便,以后将后将log2书写为书写为log,因其单位为比特,因其单位为比特bit,不会产生混,不会产生混淆;淆;注意注意 有些文献将有些文献将log2书写为书写为 lb。22 【例【例2.5】一个】一个1,0等概的二进制随机序等概的二进制随机序列,求任一码元的自信息量。列,求任一码元的自信息量。解:任一码元不是为解:任一码元不是为0就是为就是为1因为因为 P(0)=P(1)=1/2所以所以 I(0)=I(1)=lb(1/2)=1(bit)23 【例【例2.6】对于对于2n进制的数字序列进制的数字序列,假设每一符假设每一符号的出现完
17、全随机且概率相等,求任一符号的号的出现完全随机且概率相等,求任一符号的自信息量。自信息量。解:设解:设2n进制数字序列任一码元进制数字序列任一码元xi的出现概率的出现概率为为p(xi),根据题意,根据题意,p(xi)=1/2n I(xi)=lb(1/2n)=n(bit)事件的自信息量只与其概率有关,而与它的事件的自信息量只与其概率有关,而与它的取值无关。取值无关。24 3)自信息量的含义自信息量的含义 是随机量、根据单个符号消息的先验概率确是随机量、根据单个符号消息的先验概率确定其信息量和不确定度。是该符号出现后,提定其信息量和不确定度。是该符号出现后,提供给收信者的信息量。供给收信者的信息量
18、。4)随机事件的不确定度:随机事件的不确定度:不确定度在数量,单位与自信息量相同,含不确定度在数量,单位与自信息量相同,含义不同。具有某种概率的信源符号在发生之前,义不同。具有某种概率的信源符号在发生之前,存在不确定度,不确定度表征该符号的特性。存在不确定度,不确定度表征该符号的特性。25 5)自信息量自信息量 I(xi)的特性的特性 1事件事件xi 先验概率先验概率p(xi)=1(确定事件确定事件),则不存在不则不存在不确定性,同时不会带来信息量;确定性,同时不会带来信息量;I(xi)=0。2事件事件xi 先验概率先验概率p(xi)=0(不可能事件不可能事件),则存在不则存在不确定性应为无穷
19、大,同时会带来无穷的信息量;确定性应为无穷大,同时会带来无穷的信息量;I(xi)3非负性非负性 4单调性单调性 若有两个事件若有两个事件xi,xj,其先验概率为,其先验概率为p(xi)p(xj),则事件,则事件xi 比事件比事件xj 有更大的不确定性,同时有更大的不确定性,同时会带来更多的信息量;会带来更多的信息量;I(xi)I(xj)5可加性可加性 两个统计独立事件的联合自信息量应等于两个统计独立事件的联合自信息量应等于它们各自信息量之和它们各自信息量之和;则则 I(x y )=I(x)I(y)26 6)联合自信息量与条件自信息量联合自信息量与条件自信息量 1 联合自信息量联合自信息量 定义
20、定义:若有两个消息:若有两个消息xi,yj同时出现,用联合概率同时出现,用联合概率p(xi yj)表示,联合自信息量为:表示,联合自信息量为:I(xi yj)=log p(xi yj)当当X和和Y相互独立时,相互独立时,p(xiyj)=p(xi)p(yj),代入到前,代入到前式就有:式就有:I(xiyj)=-log2p(xi)-log2p(yj)=I(xi)+I(yj)说明两个随机事件相互独立时,同时发生得到的自说明两个随机事件相互独立时,同时发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量,等于这两个随机事件各自独立发生得到的自信息量之和。信息量之和。27 2 条件自信息量条
21、件自信息量 定义:定义:在事件在事件yj 出现条件下,出现条件下,xi发生的条件概发生的条件概率为率为p(xi|yj),则,则 xi的条件自信息量为:的条件自信息量为:I(x i|yj)=log p(xi|yj)由于随机事件(消息)的概率在由于随机事件(消息)的概率在01范围内,范围内,所以联合信息量和条件自信息量也满足非负和所以联合信息量和条件自信息量也满足非负和单调递减性。单调递减性。28 联合自信息、条件自信息与自信息间联合自信息、条件自信息与自信息间的关系的关系 I(xiyj)=-log2p(xi)p(yj|xi)=I(xi)+I(yj|xi)=-log2p(yj)p(xi|yj)=I
22、(yj)+I(xi|yj)29作为信源总体信息测度的量应是信源各作为信源总体信息测度的量应是信源各个不同符号个不同符号xi(i=1,2,N)所包含的自所包含的自信息量信息量I(xi)(i=1,2,N)在信源空间在信源空间P(X)=p(x1),p(x2),p(xi),p(xN)中的统计平均值。中的统计平均值。30 【例【例2.7】一个布袋内放】一个布袋内放100个球,其中个球,其中80个球个球为红色,为红色,20球为白色。若随机摸取一个球,球为白色。若随机摸取一个球,猜测其颜色,求平均摸取一次所获得的(自)猜测其颜色,求平均摸取一次所获得的(自)信息量。信息量。解:随机事件的概率空间为解:随机事
23、件的概率空间为2.08.021xxPX31 当被告知摸出红球的信息量是当被告知摸出红球的信息量是 当被告知摸出白球的信息量是当被告知摸出白球的信息量是 如果每次摸出一个球后又放回袋中,再进行如果每次摸出一个球后又放回袋中,再进行下一次摸取且如此摸取下一次摸取且如此摸取n次,那么红球出现的次,那么红球出现的次数为次数为np(x1),白球出现的次数为,白球出现的次数为np(x2)。随。随机摸取机摸取n次后总共所获得的信息量为次后总共所获得的信息量为bitlbxpxI8.0)(log)(11bitlbxpxI2.0)(log)(22)()()()(2211xIxnpxIxnp32 而平均随机摸取而平
24、均随机摸取1次所获得的信息量为次所获得的信息量为)(log)()(log)()(log)()()()()(12122112211iiixpxpxpxpxpxpxIxnpxIxnpn33 1)定义定义 信息源的信息源的平均不确定度平均不确定度为信源中各个为信源中各个符号不确定符号不确定 度的度的数学期望数学期望,记作,记作H(X)其中其中 H(X)又称为信源又称为信源X的的信源熵。信源熵。niiixpxp11)(,0)(niiiniiixxpxIxpXH11)log()()()()(34 2)H(X)的含义的含义 1 表示的是信源的平均不确定度。表示的是信源的平均不确定度。2 表示信源表示信源
25、X 发出一个符号提供的平均信息量。发出一个符号提供的平均信息量。3 是统计量、数学期望(统计平均)、各个符号平均是统计量、数学期望(统计平均)、各个符号平均不确定度和平均信息量。不确定度和平均信息量。3)信源熵单位:信源熵单位:二进制二进制:bit/:bit/信源符号,或信源符号,或bit/bit/信源序列信源序列 十进制十进制:det/:det/信源符号,或信源符号,或det/det/信源序列信源序列 e e进制进制:nat/:nat/信源符号,或信源符号,或nat/nat/信源序列信源序列354)信源熵的三种特殊情况信源熵的三种特殊情况1 当当 p(xi)=0 时(时(p(xi)0),则)
展开阅读全文