乐趣区

关于信息:离散信源-RD计算及限失真信源编码定理

本专栏蕴含信息论与编码的外围常识,按知识点组织,可作为教学或学习的参考。markdown 版本已归档至【Github 仓库:https://github.com/timerring/information-theory】或者公众号【AIShareLab】回复 信息论 获取。

离散信源 R(D) 计算

给定信源概率 $p_{\mathrm{i}}$ 和失真函数 $d_{\mathrm{i} j}$ 就能够求得该信源的 R(D) 函数。

它是在保真度准则下求极小值的问题。

但要失去它的显式表达式, 个别比拟艰难。通常用参量表达式。即使如此, 除简略的状况外理论计算还是艰难的, 只能用迭代逐级迫近的办法。

二元对称信源的 R(D) 函数

设二元对称信源 $X=\{0,1\}$ , 其概率分布 $p(x)=[p, 1-p]$ , 接管变量 $\mathbf{Y}=\{\mathbf{0}, \mathbf{1}\}$ , 汉明失真矩阵

$$
d=\left[\begin{array}{ll}
0 & 1 \\
1 & 0
\end{array}\right]
$$

因此最小容许失真度 $D_{\min}=0$。并能找到满足该最小失真的试验信道, 且是一个无噪无损信道, 其信道矩阵为

$$
p=\left[\begin{array}{ll}
1 & 0 \\
0 & 1
\end{array}\right]
$$

计算得: $\mathrm{R}(0)=\mathrm{I}(\mathrm{X} ; \mathrm{Y})=\mathrm{H}(p)$

最大容许失真度为

$$
\begin{aligned}
D_{\text {max}} & =\min _{j=0,1} \sum_{i=0}^{1} p_{i} d_{i j} \\
& =\min \{p(0) d(0,0)+p(1) d(1,0), p(0) d(0,1)+p(1) d(1,1)\} \\
& =\min _{j}\{(1-p), p\}=p \\
\end{aligned}
$$

要达到最大容许失真度的试验信道, 惟一确定为

$$
p=\left[\begin{array}{ll}
0 & 1 \\
0 & 1
\end{array}\right]
$$

这个试验信道能正确传送信源符号 x=1 , 而传送信源符号 x=0 时, 接管符号 肯定为 $\mathrm{y}=1$。凡发送符号 x=0 时, 肯定都错了。而 x=0 呈现的概率为 p , 所以信道的均匀失真度为 $\boldsymbol{p}$。

在这种试验信道条件下, 可计算得

$$
\mathbf{R}\left(\mathbf{D}_{\max}\right)=\min _{P_{D \max}} I(X ; Y)=\boldsymbol{H}(\boldsymbol{Y})-\boldsymbol{H}(\boldsymbol{Y} \mid \boldsymbol{X})=\mathbf{0}
$$

对于二进制无记忆信源, 若 $P(X_{\mathrm{i}}=0)=p, P(X_{\mathrm{i}}=1)=1- p$ , 且采纳汉明失真, 其率失真函数为

$$
R(D)=\left\{\begin{array}{cc}
H_{b}(p)-H_{b}(D), & 0 \leq D \leq \min \{p, 1-p\} \\
0, & \text {otherwise}
\end{array}\right.
$$

有一个二进制无记忆信源,以概率 p =0.25 输入“1”,以概率 1 -p=0.75 输入“0”。请问:

(1)若要求采纳无失真信源编码,信息率失真函数是多少?

(2)若重构该信源的谬误概率不超过 0.1,信息率失真函数是多少?

(3)若重构该信源的谬误概率不超过 0.25,信息率失真函数是多少? 这种状况下,最佳的译码策略是什么?

解:
(1) $H(x)=-0.25 \log 0.25-0.75 \log 0.75=0.8113 bit/sym$

(2) $H(0.25)-H(0.1)=0.3423 bit/sym$

(3) 0. 最佳译码策略是将接管到的信号都译码为 ‘ 0 ‘

高斯信源的 R(D) 函数

对于均值为 0 , 方差为 $\sigma^{2}$ 的高斯信源, 采纳平方失真时的率失真函数为

$$
R(D)=\left\{\begin{array}{cc}
\frac{1}{2} \log \frac{\sigma^{2}}{D}, & 0 \leq D \leq \sigma^{2} \\
0, & \text {otherwise}
\end{array}\right.
$$

可见, 随着 D 的增大, R(D)减小。当 $D \geqslant D \max$ 时, R(D)=0

个别信息率失真函数的图形如下所示

限失真信源编码定理

设离散无记忆信源 $\mathrm{X}$ 的信息率失真函数为 $R(\mathrm{D})$ ,

  • 当信息率 R>R(D) 时, 只有信源序列长度 L 足够长, 肯定存在一种编码方法, 其译码失真小于或等于 $D+\varepsilon$, $\varepsilon$ 为任意小的负数;
  • 反之, 若 R<R (D), 则无论采纳什么样的编码方法, 其译码失真必大于 D。

如是二元信源, 则对于任意小的 $\varepsilon>0$ , 每一个信源符号的均匀码长满足如下公式:

$$
R(D) \leq \bar{K} \leq R(D)+\varepsilon
$$

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第 3 版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第 7 版)[M]. 北京:国防工业出版社, 2012.
退出移动版