关于信息:信息率失真函数与平均互信息

8次阅读

共计 4529 个字符,预计需要花费 12 分钟才能阅读完成。

本专栏蕴含信息论与编码的外围常识,按知识点组织,可作为教学或学习的参考。markdown 版本已归档至【Github 仓库:https://github.com/timerring/information-theory】或者公众号【AIShareLab】回复 信息论 获取。

信息率失真函数

Theorem [Rate-Distortion]. 以小于或等于失真 D 去重构无记忆信源所需的最小信源输入 bit/sym 称为率失真函数 (rate-distortion function),用 R(D) 示意, 记为

$$
R(D)=\min _{p\left(x^{\prime} \mid x\right) \mathrm{P}_{\mathrm{D}}\left(X, X^{\prime}\right) \leq D} I\left(X ; X^{\prime}\right)
$$

若均匀失真度 $\bar{D}$ 不大于咱们所容许的失真, 即 $\bar{D} \leq D$,则称此为 保真度准则

当信源 $p\left(x_{i}\right)$ 给定, 单个符号失真度 $d\left(x_{i},y_{j}\right)$ 给定时, 抉择不同的试验信道 $p\left(y_{j} \mid x_{i}\right)$ , 相当于不同的编码方法, 其所得的均匀失真度不同。

试验信道

$$
\left\{\begin{array}{l}
\bar{D} \leq D \text {满足保真度准则}\\
\bar{D}>D
\end{array}\right.
$$

满足 $\bar{D} \leq D$ 条件的所有转移概率分布 $p_{i j}$ 形成了一个信道汇合

$$
P_{D}=\{p(b_{j} \mid a_{i}): \bar{D} \leq D\}
$$

  • D 失真容许的试验信道: 满足保真度准则的试验信道。
  • $\mathbf{P}_{\mathrm{D}}$ : 所有 D 失真容许的试验信道组成的一个汇合。

$\mathbf{R}(\mathbf{D}) $ : 在限定失真为 $\mathbf{D}$ 的条件下信源输入的最小信息速率。

$$
R(D)=\min _{P_{D}} I(X, Y)
$$

在信源给定后, 咱们心愿在满足肯定失真的状况下, 使信源必须传输给收信者的信息传输率 R 尽可能地小。若从接收端来着, 就是在满足保真度准则下, 寻找再 现信源音讯所必须取得的最低均匀信息量 。即在 满足保真度准则的条件下寻找均匀互信息 $\mathrm{I}(\mathrm{X}, \mathrm{Y})$ 的最小值。

$\mathbf{P}_{\mathbf{D}}$ 是所有满足保真度准则的试验信道汇合, 因此能够在汇合 $\mathbf{P}_{\mathbf{D}}$ 中寻找某一个信道 $p_{ij}$ , 使 $\mathrm{I}(\mathrm{X}, \mathrm{Y})$ 取极小值。

对于离散无记忆信源

$$
R(D)=\min _{p_{j i} \in P_{D}} \sum_{i} \sum_{j} p\left(a_{i}\right) p\left(b_{j} \mid a_{i}\right) \log \frac{p\left(b_{j} \mid a_{i}\right)}{p\left(b_{j}\right)}
$$

例 已知编码器输出的概率分布为 $p(x)=\{0.5,0.5\}$ , 信道矩阵

(1) $p_{i j}=\left[\begin{array}{ll}0.6 & 0.4 \\ 0.2 & 0.8\end{array}\right]$ ; (2) $p_{i j}=\left[\begin{array}{ll}0.9 & 0.1 \\ 0.2 & 0.8\end{array}\right]$

求互信息

(1)

$$
\begin{array}{l}
\because p\left(x_{i} y_{j}\right)=p\left(x_{i}\right) p\left(y_{j} \mid x_{i}\right) \\
\therefore p\left(x_{1} y_{1}\right)=0.3 p\left(x_{1} y_{2}\right)=0.2 p\left(x_{2} y_{1}\right)=0.1 p\left(x_{2} y_{2}\right)=0.4 \\
p\left(y_{1}\right)=0.4 p\left(y_{2}\right)=0.6 \\
p\left(x_{1} \mid y_{2}\right)=\frac{3}{4} p\left(x_{1} \mid y_{2}\right)=\frac{1}{3} p\left(x_{2} \mid y_{1}\right)=\frac{1}{4} p\left(x_{2}\mid y_{2}\right)=\frac{2}{3} \\
\quad I(X ; Y)=\sum_{i} \sum_{j} p\left(x_{i} y_{j}\right) \log \frac{p\left(x_{i} \mid y_{j}\right)}{p\left(x_{i}\right)}=0.125 \text {bit} / \text {符号}
\end{array}
$$

(2)

$$
I(X ; Y)=\sum_{i} \sum_{j} p\left(x_{i} y_{j}\right) \log \frac{p\left(x_{i} \mid y_{j}\right)}{p\left(x_{i}\right)}=0.397 b i t / \text {符号}
$$

可见当 $\boldsymbol{p}(\boldsymbol{x})$ 肯定时, $I(X, Y)$ 随 $p\left(y_{j} \mid x_{i}\right)$ 而变。因为 $p(x)$ 散布肯定时, 信道受烦扰不同,所能传递的信息量是肯定时, $I(X, Y)$ 是对于 $p\left(y_{j} \mid x_{i}\right)$ 的下凸函数。因而当扭转 $p\left(y_{j} \mid x_{i}\right)$ 时, $I(X, Y)$ 有一极小值。

均匀互信息再探讨

均匀互信息 $I(X ; Y)$:

  • 信源的概率分布 $p\left(x_{i}\right)$ 的上凸函数。
  • 信道传递概率 $p\left(y_{j} \mid x_{i}\right)$ 的下凸函数。

信道容量

$$
C=\max _{p\left(x_{i}\right)} I(X ; Y)
$$

  • 假设信道固定的前提下,抉择一种试验信源使信息传输率最大。
  • 它所反映的是信道传输信息的能力, 是信道牢靠传送的最大信息传输率。

一旦找到了信道容量,它就与信源不再无关,而是信道个性的参量,随信道个性的变动而变动,不同的信道其信道容量不同

  • 钻研目标:充分利用已给信道,使传输的信息量最大,而产生谬误的概率任意小。

信息率失真函数

$$
R(D)=\min _{P_{D}} I(X ; Y)
$$

假设信源给定的状况下,用户能够容忍的失真度内再现信源音讯所必须取得的最小均匀信息量。它反映的是信源能够压缩的水平,是在满足肯定失真度要求下信源可压缩的最低值。

  • 率失真函数一旦找到,就与求极值过程中抉择的试验信道不再无关,而只是信源个性的参量
  • 不同的信源其 R(D)不同。
  • 钻研目标:解决在已知信源和容许失真度 D 的条件下,使信源必须传送给信宿的信息率最小。即用尽可能少的码符号尽快地传送尽可能多的信源音讯,以进步通信的有效性。

例: 设信源的符号表为 $\mathrm{A}=\{a_{1}, a_{2}, \ldots, a_{2 n}\}$ , 概率分布为 $p(a_{\mathrm{i}})=1 / 2 \mathrm{n}$, $i=1,2 \ldots 2 n$ , 失真函数规定为

$$
d\left(a_{i}, a_{j}\right)=\left\{\begin{array}{ll}
0 & i=j \\
1 & i \neq j
\end{array}\right.
$$

即不产生过错时失真为 0 , 出错失真为 1。钻研 在肯定编码条件下信息压缩的水平。

解:信源熵:

$$
H\left(\frac{1}{2 n}, \frac{1}{2 n} \cdots \frac{1}{2 n}\right)=\log 2 n
$$

如果对信源进行无失真编码, 均匀每个符号至多须要 $\log 2 \mathrm{n}$ 个二进制码元

当初假设容许有肯定失真, 失真度为 D =1/2,构想采纳上面的编码方案;

$$
\begin{array}{l}
a_{1} \rightarrow a_{1}, \quad a_{2} \rightarrow a_{2}, \quad \ldots a_{\mathrm{n}} \rightarrow a_{\mathrm{n}} \\
a_{\mathrm{n}+1} \rightarrow a_{\mathrm{n}}, a_{\mathrm{n}+2} \rightarrow a_{\mathrm{n}}, \ldots a_{2 \mathrm{n}} \rightarrow a_{\mathrm{n}}
\end{array}
$$

则均匀失真

$$
\bar{D}=\sum_{i} \sum_{j} p\left(a_{i}\right) p\left(a_{j} \mid a_{i}\right) d\left(a_{i}, a_{j}\right)=\frac{1}{2}
$$

它是一个确定信道

$$
\begin{aligned}
p\left(a_{j} \mid a_{i}\right) & =\boldsymbol{p}_{\mathrm{ij}}=\mathbf{1}(\text { 或} \mathbf{0}), \boldsymbol{H}(\boldsymbol{Y} \mid \boldsymbol{X})=\mathbf{0} \\
& I(X, Y)=H(Y)-H(Y \mid X)=H(Y)
\end{aligned}
$$

则输入熵 H(Y)

$$
\begin{array}{l}
H(Y)=H\left(\frac{1}{2 n}, \frac{1}{2 n} \cdots \frac{1}{2 n}, \frac{1+n}{2 n}\right) \\
=\log 2 n-\frac{n+1}{2 n} \log (n+1)
\end{array}
$$

比方: $\mathbf{N}=\mathbf{8}$ , 则 $H(\mathrm{X})=\mathbf{4 b i t / s y m b o l}$ , $I(X, Y)=H(Y)=\mathbf{2 . 2 2 b i t} / symbol$

已知信源符号 x = 0.5, 通过信道传输后变为 y = 1.5, 若采纳汉明失真作为两个符号的失真度量,则 d(x, y)= 1

参考文献:

  1. Proakis, John G., et al. Communication systems engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  2. Proakis, John G., et al. SOLUTIONS MANUAL Communication Systems Engineering. Vol. 2. New Jersey: Prentice Hall, 1994.
  3. 周炯槃. 通信原理(第 3 版)[M]. 北京:北京邮电大学出版社, 2008.
  4. 樊昌信, 曹丽娜. 通信原理(第 7 版)[M]. 北京:国防工业出版社, 2012.
正文完
 0