信息论基础

熵、相对熵与互信息 熵 定义:一个离散型随机变量 XX 的熵 H(X)H(X) 定义为: H(X)=xXp(x)logp(x) H(X)=-\sum_{x \in X}p(x) \log p(x) 注释:XX 的熵又可以理解为随机变量 log1p(X)\log \frac{1}{p(X)} 的期望值 引理 H(X)0H(X) \geq 0 Hb(X)=(logba)Ha(X)H_b(X)=(\log_ba)H_a(X) 二元熵: H(X)=plogp(1p)log(1p)H(p) H(X)= -p\log p-(1-p)\log (1-p) \rightarrow H(p) H(p)H(p) 为上凸函数,在 p=12p= \frac{1}{2} 时取得最大值 1 ...

三月 16, 2025 · 10 分钟 · Mi Yu