间断信源的熵
因为间断信源信号幅度取值无限性, 要准确示意这样的信号, 实践上须要无穷个 bit 才行。即间断信源的绝对熵为 $\infty$。
仿照离散信源熵的定义, 有间断信源的熵(绝对熵)定义为
$$
H(X)=-\int_{-\infty}^{\infty} f(x) \log (f(x)) d x
$$
其中 $f(x)$ 为间断信源信号 $\mathbf{X}$ 的概率密度函数。间断信源的 (绝对) 熵可正可负。
R(D) 的定义域
率失真的定义域问题就是 在信源和失真函数已知的状况下 ,探讨 容许均匀失真度 $\bar{D}$ 的最小和最大取值问题。
因为均匀失真度 $\bar{D}$ 是非负实数 $d\left(x_{i}, y_{j}\right)$ 的数学冀望, 因而 $\bar{D}$ 也是非负的实数,即 $\bar{D} \geq 0$ , 故 $\bar{D}$ 的下界是 0。容许均匀失真度是否达到其下限值 0, 与单个符号的失真函数无关。
$D_{\min}$ 和 $R\left(D_{\min}\right)$
信源的最小均匀失真度:
$$
D_{\min}=\sum_{i=1}^{n} p\left(x_{i}\right) \min _{j} d\left(x_{i}, y_{j}\right)
$$
只有当失真矩阵的每一行至多有一个 $\mathbf{0}$ 元素时, 信源的均匀失真度能力达到下限值 $\mathbf{0}$。
当 $\boldsymbol{D}_{\text {min}}=\mathbf{0}$ , 即信源不容许任何失真时, 信息率至多应等于信源输入的均匀信息量一信息熵。
$$
R(0)=H(X)
$$
对于间断信源
$$
R\left(D_{\min}\right)=\lim _{D \rightarrow 0} R(D) \rightarrow \infty
$$
因为理论信道总是有烦扰,其容量无限,要无失真地传送间断信息是不可能的。
当容许有肯定失真时, $R(D)$ 将为无限值, 传送才是可能的。
$\mathbf{R}(\mathbf{D})$ 的定义域为 $[D_{\text {min}}, D_{\text {max}}]$。
- 通常 $D_{\text {min}}=0, \quad R\left(D_{\min}\right)=H(X)$
- 当 $D \geq D_{\text {max}}$ 时, $\quad R(D)=0 $
- 当 $0 \leq D \leq D_{\text {max}}$ 时,$0\lt R(D)\lt H(X)$
因为 $I(X, Y)$ 是非负函数, 而 $R(D)$ 是在约束条件下的 $I(X, Y)$ 的最小值, 所以 $R(D)$ 也是一个非负函数, 它的下限值是零。
$$
\boldsymbol{R}(D) \geq 0
$$
$D_{\text {max}}$:是定义域的下限。
$D_{\text {max}}$ 是满足 R(D)=0 时所有的均匀失真度中的最小值。
$$
D_{\text {max}}=\min _{R(D)=0} D
$$
因为 $I(X, Y)=0$ 的充要条件是 X 与 Y 统计独立, 即:
$$
\begin{array}{c}
p\left(y_{j} \mid x_{i}\right)=p\left(y_{j}\right) \\
D_{\max}=\min _{p\left(y_{j}\right)} \sum_{i} \sum_{j} p\left(x_{i}\right) p\left(y_{j}\right) d\left(x_{i}, y_{j}\right) \\
=\min _{p\left(y_{j}\right)} \sum_{j} p\left(y_{j}\right) \sum_{i} p\left(x_{i}\right) d\left(x_{i}, y_{j}\right) \\
D_{\max}=\min _{j=1,2 \cdots m} \sum_{i=1}^{n} p\left(x_{i}\right) d\left(x_{i}, y_{j}\right)
\end{array}
$$
例: 设输入输出符号表为 $\mathbf{X}=\mathbf{Y}=\{\mathbf{0}, 1\}$ , 输出概率分布 $p(x)=\{1 / 3,2 / 3\}$ , 失真矩阵
$$
d=\left[\begin{array}{ll}
0 & 1 \\
1 & 0
\end{array}\right]
$$求 $\mathbf{D}_{\min}$ 和 $\mathbf{D}_{\max}$
解:失真矩阵的每一行至多有一个 0 元素时, $D_{\min}=0$
$$
\begin{array}{l}
D_{\max}=\min _{j=1,2} \sum_{i=1}^{2} p_{i} d_{i j} \\
=\min _{j}\left(\frac{1}{3} \times 0+\frac{2}{3} \times 1, \frac{1}{3} \times 1+\frac{2}{3} \times 0\right) \\
=\min _{j}\left(\frac{2}{3}, \frac{1}{3}\right)=\frac{1}{3}
\end{array}
$$例: 设输入输出符号表为 $\mathbf{X}=\mathbf{Y}=\{\mathbf{0}, \mathbf{1}\}$ , 输出概率分布 $p(x)=\{1 / 3,2 / 3\}$ , 失真矩阵
$$
d=\left[\begin{array}{ll}
1 / 2 & 1 \\
2 & 1
\end{array}\right]
$$求 $D_{\min}$ 和 $\mathbf{D}_{\text {max}}$
解:
$$
\begin{array}{l}
D_{\min}=\sum_{i=1}^{n} p\left(x_{i}\right) \min _{j} d\left(x_{i}, y_{j}\right) \\
=\frac{1}{3} \times \frac{1}{2}+\frac{2}{3} \times 1=\frac{5}{6} \\
D_{\max}=\min _{j=1,2} \sum_{i=1}^{2} p_{i} d_{i j}=\min _{j}\left(\frac{1}{3} \times \frac{1}{2}+\frac{2}{3} \times 2, \frac{1}{3} \times 1+\frac{2}{3} \times 1\right) \\
=\min _{j}\left(\frac{3}{2}, 1\right)=1 \\
\end{array}
$$
参考文献:
- Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
- 周炯槃. 通信原理(第 3 版)[M]. 北京:北京邮电大学出版社, 2008.
- 樊昌信, 曹丽娜. 通信原理(第 7 版)[M]. 北京:国防工业出版社, 2012.
本专栏蕴含信息论与编码的外围常识,按知识点组织,可作为教学或学习的参考。markdown 版本已归档至【Github 仓库:https://github.com/timerring/information-theory】或者公众号【AIShareLab】回复 信息论 获取。