跳转到内容

自信息

本页使用了标题或全文手工转换
维基百科,自由的百科全书

信息论中,自信息(英语:self-information),由克劳德·香农提出。自信息指的是当我们接收到一个消息时所获得的资讯量。具体来说,对于一个事件,其自信息的大小与该事件发生的概率有关, 它是与概率空间中的单一事件或离散随机变量的值相关的资讯量的量度。它用资讯的单位表示,例如 bitnat或是hart,使用哪个单位取决于在计算中使用的对数的底。自信息的期望值就是信息论中的,它反映了随机变量采样时的平均不确定程度。

定义

由定义,当资讯被拥有它的实体传递给接收它的实体时,仅当接收实体不知道资讯的先验知识时资讯才得到传递。如果接收实体事先知道了消息的内容,这条消息所传递的资讯量就是0。只有当接收实体对消息的先验知识少于100%时,消息才真正传递资讯。

因此,一个随机产生的事件所包含的自信息数量,只与事件发生的几率相关。事件发生的几率越低,在事件真的发生时,接收到的资讯中,包含的自信息越大。

的自信息量

如果 ,那么 。如果 ,那么

此外,根据定义,自信息的量度是非负的而且是可加的。如果事件 是两个独立事件 交集,那么宣告 发生的资讯量就等于分别宣告事件 和事件 的资讯量的

因为 是独立事件,所以 的概率为

应用函数 会得到

所以函数 有性质

而对数函数正好有这个性质,不同的底的对数函数之间的区别只差一个常数

由于事件的概率总是在0和1之间,而资讯量必须是非负的,所以

考虑到这些性质,假设事件发生的几率是 ,自信息 的定义就是:

事件 的概率越小, 它发生后的自信息量越大。

此定义符合上述条件。在上面的定义中,没有指定的对数的基底:如果以 2 为底,单位是bit。当使用以 e 为底的对数时,单位将是 nat。对于基底为 10 的对数,单位是 hart。

资讯量的大小不同于资讯作用的大小,这不是同一概念。资讯量只表明不确定性的减少程度,至于对接收者来说,所获得的资讯可能事关重大,也可能无足轻重,这是资讯作用的大小。

和熵的联系

熵是离散随机变量的自信息的期望值。但有时候熵也会被称作是随机变量的自信息,可能是因为熵满足 ,而 与它自己的互资讯