本专栏蕴含信息论与编码的外围常识,按知识点组织,可作为教学或学习的参考。markdown 版本已归档至【Github 仓库:https://github.com/timerring/information-theory】或者公众号【AIShareLab】回复 信息论 获取。
有失真信源编码的数学模型如下图所示,将编码过程看成信息通过有扰信道传输的过程。信道输入 Y 即为编码输入。
对离散信道,用信道转移概率(条件概率)p(y|x)示意信道。
如 BSC 信道:
互信息
设有两个随机事件 X 和 Y ,
- X 取值于信源 收回 的离散音讯汇合
- Y 取值于信宿 收到 的离散符号汇合
$$
\left[\begin{array}{l}
X \\
P
\end{array}\right]=\left[\begin{array}{cccc}
x_{1} & x_{2} & \cdots & x_{n} \\
p\left(x_{1}\right) & p\left(x_{2}\right) & \cdots & p\left(x_{n}\right)
\end{array}\right] \quad\left[\begin{array}{l}
Y \\
P
\end{array}\right]=\left[\begin{array}{cccc}
y_{1} & y_{2} & \cdots & y_{n} \\
p\left(y_{1}\right) & p\left(y_{2}\right) & \cdots & p\left(y_{n}\right)
\end{array}\right]
$$
如果信道是 无噪 的, 当信源收回音讯 $x_{i}$ 后, 信宿必能准确无误地收到该音讯, 彻底消除对 $x_{i}$ 的不确定性, 所取得的信息量就是 $x_{i}$ 的 自信息 $I(x_{i})$,即 $x_{i}$ 自身含有的全副信息。
一般而言,信道中总是存在着噪声和烦扰,信源收回音讯 $x_{i}$,通过信道后, 信宿只可能收到因为烦扰作用引起的某种变形 $y_{j}$。(例如 BSC 信道,可能收回 0 收到 1)
- 信宿收到 $y_{j}$ 后揣测信源收回 $x_{i}$ 的概率 $p(x_{i} \mid y_{j})$ 称为 后验概率。
- 信源收回音讯 $x_{i}$ 的概率 $p(x_{i})$ 称为 先验概率。
互信息定义
定义为 $x_{i}$ 的后验概率与先验概率比值的对数
$$
I(x_{i} ; y_{j})=\log _{2} \frac{p(x_{i} \mid y_{j})}{p(x_{i})}
$$
$$
I(x_{i} ; y_{j})=\log \frac{p(x_{i} \mid y_{j})}{p(x_{i})}=\log \frac{p(x_{i} y_{j})}{p(x_{i}) p(y_{j})}=\log \frac{p(y_{j} \mid x_{i})}{p(y_{j})}=I(y_{j} ; x_{i})
$$
$$
I(x_{i} ; y_{j})=I(x_{i})-I(x_{i} \mid y_{j})=I(y_{j})-I(y_{j} \mid x_{i})
$$
互信息 $I(x_{i} ; y_{j})$ 示意接管到某音讯 $y_{j}$ 后取得的对于事件 $x_{i}$ 的信息量。单位和自信息雷同。
例、某地二月份天气形成的信源为:
$$
\left[\begin{array}{c}
X \\
p(x)
\end{array}\right]=\left[\begin{array}{cccc}
\text {晴} & \text {阴} & \text {雨} & \text {雪} \\
1 / 2 & 1 / 4 & 1 / 8 & 1 / 8
\end{array}\right]
$$
求得自信息量别离为
$$
I\left(x_{1}\right)=1 \text {bit}, I\left(x_{2}\right)=2 \text {bit}, I\left(x_{3}\right)=I\left(x_{4}\right)=3 \text {bit}
$$
若得悉“明天不是晴天”,作为收到的音讯 $y_{1}$
当收到 $y_{1}$ 后, 各种天气产生的概率变成后验概率:
$$
p\left(x_{1} \mid y_{1}\right)=0, p\left(x_{2} \mid y_{1}\right)=1 / 2, p\left(x_{3} \mid y_{1}\right)=1 / 4, p\left(x_{4} \mid y_{1}\right)=1 / 4
$$
$$
\begin{array}{c}
I\left(x_{1} ; y_{1}\right)=\log _{2} \frac{p\left(x_{1} \mid y_{1}\right)}{p\left(x_{1}\right)}=0 \\
I\left(x_{2} ; y_{1}\right)=\log _{2} \frac{p\left(x_{2} \mid y_{1}\right)}{p\left(x_{2}\right)}=\log _{2} \frac{1 / 2}{1 / 4}=\mathbf{1 b i t} \\
I\left(x_{3} ; y_{1}\right)=I\left(x_{4} ; y_{1}\right)=\log _{2} \frac{1 / 4}{1 / 8}=1 \mathrm{bit}
\end{array}
$$
表明从 $y_{1}$ 别离失去了 $x_{2} x_{3} x_{4}$ 各 1 比特的信息量。音讯 $y_{1}$ 使 $x_{2} x_{3} x_{4}$ 的不确定度各缩小 1 bit。
互信息的性质
- 互易性 $I(x ; y)=I(y ; x)$
- 当事件 $\mathbf{x}$, $\mathbf{y}$ 统计独立时, 互信息为 0 , 即 $I(x ; y)=0$
- 互信息 可正可负
- 任何两事件之间的互信息不可能大于其中任一事件的自信息(见上述公式 3)
例:设 e 示意事件“降雨”,f 示意事件“地面有乌云”,且 𝒑(𝒆)=𝟎.𝟏𝟐𝟓,𝒑(𝒆|𝒇)=𝟎.𝟖
求:
- 事件“降雨”的自信息
- 在“地面有乌云”条件下,“降雨”的自信息
- 事件“无雨”的自信息
- 在“地面有乌云”条件下,“无雨”的自信息
- “降雨”与“地面有乌云”的互信息
- “无雨”与“地面有乌云”的互信息
解: $\bar{e}$ 示意“无雨”, 则 $p(\bar{e})$= 1- p(e) = 0.875 , $p(\bar{e} \mid f)$ = 1- $p(e \mid f)$ = 0.2
故:
$$
I(e)=-\log (0.125)=3 b i t \\
I(e \mid f)=-\log (0.8)=0.322 b i t \\
I(\bar{e})=-\log (0.875)=0.193 bit\\
I(\bar{e} \mid f)=-\log (0.2)=2.322 b i t \\
I(e ; f)=I(e)-I(e \mid f)=3-0.322=2.678 b i t ; \\
I(\bar{e} ; f)=I(\bar{e})-I(\bar{e} \mid f)=0.193-2.322=-2.129 b i t
$$阐明事件“地面有乌云”不利于事件“无雨”的呈现。
参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第 3 版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第 7 版)[M]. 北京:国防工业出版社, 2012.