《信息论与编码》PDF下载

  • 购买积分:12 如何计算积分?
  • 作  者:于秀兰,王永,陈前斌编著
  • 出 版 社:北京:人民邮电出版社
  • 出版年份:2014
  • ISBN:9787115338143
  • 页数:308 页
图书介绍:本书主要内容包括:绪论、信息的度量、离散信源和熵、离散无失真信源编码、离散信道和信道容量、有噪信道编码、波形信源和波形信道、限失真信源编码、网络信息论初步、附录 概率论基础知识概要、附录 马尔可夫链、附录 模拟试题及其参考答案、附录 课程指导、习题答案、参考文献。

第1章 绪论 1

1.1 信息的概念 1

1.1.1 什么是“信息” 1

1.1.2 如何度量“信息” 2

1.2 信息传输系统 3

1.2.1 信息传输系统模型 3

1.2.2 信息传输系统的性能指标 6

1.3 信息论的研究内容 7

1.3.1 基本信息论的研究内容 7

1.3.2 一般信息论的研究内容 7

1.3.3 广义信息论的研究内容 8

1.4 信息论和编码理论的形成和发展 8

习题 10

第2章 信息的统计度量 11

2.1 随机变量的统计特性 11

2.1.1 随机变量的分类及其描述 11

2.1.2 信源的统计特性 14

2.1.3 信道的传输特性 15

2.2 离散随机变量的自信息和信息熵 18

2.2.1 自信息量 18

2.2.2 信息熵 19

2.2.3 信息熵的性质 21

2.3 离散随机变量的联合自信息和联合熵 22

2.3.1 联合自信息 22

2.3.2 联合熵 23

2.4 离散随机变量的条件自信息和条件熵 24

2.4.1 条件自信息 24

2.4.2 条件熵 25

2.4.3 各类熵之间的关系 26

2.5 离散随机变量的互信息和平均互信息 29

2.5.1 互信息 29

2.5.2 互信息的性质 30

2.5.3 平均互信息 31

2.5.4 平均互信息的性质 33

2.5.5 平均互信息与各类熵之间的关系 36

2.5.6 联合互信息和条件互信息 37

2.5.7 信息处理定理 38

2.6 连续随机变量的信息度量 39

2.6.1 连续随机变量的熵 39

2.6.2 连续随机变量的平均互信息 42

本章小结 43

习题 44

第3章 离散信源和熵 49

3.1 离散信源的分类 49

3.2 离散信源的N次扩展信源 50

3.2.1 N次扩展信源的数学模型 50

3.2.2 离散信源的N次扩展信源的熵 51

3.2.3 离散无记忆信源的N次扩展信源的熵 51

3.3 离散平稳信源 53

3.3.1 离散平稳信源的数学定义 53

3.3.2 有限维离散平稳信源的条件熵 54

3.3.3 二维离散平稳信源的平均符号熵 56

3.3.4 离散平稳信源的极限熵 57

3.3.5 计算极限熵的处理方法 59

3.4 马尔可夫信源 60

3.4.1 马尔可夫信源的描述 60

3.4.2 齐次遍历的马尔可夫信源 62

3.4.3 齐次遍历马尔可夫信源的极限熵 64

3.5 信源的相关性和剩余度 68

本章小结 70

习题 71

第4章 无失真信源编码 74

4.1 信源编码的基本概念 74

4.1.1 信源编码的数学模型 74

4.1.2 信源编码的分类 75

4.1.3 唯一可译码和即时码 76

4.1.4 编码效率 79

4.2 无失真信源编码定理 81

4.2.1 无失真定长信源编码定理 81

4.2.2 无失真变长信源编码定理 86

4.3 常见的无失真信源编码方法 87

4.3.1 香农(Shannon)码 88

4.3.2 霍夫曼(Huffman)码 89

4.3.3 费诺(Fano)码 96

4.3.4 香农-费诺-埃利斯码 97

4.3.5 算术码 99

4.3.6 LZ码 104

本章小结 106

习题 107

第5章 离散信道和信道容量 110

5.1 离散信道的分类 110

5.2 离散信道的数学模型 111

5.3 信道容量 113

5.3.1 信道的信息传输率 113

5.3.2 信道容量的定义 114

5.4 单符号离散信道及其信道容量 116

5.4.1 典型信道的信道容量 116

5.4.2 串联信道及其信道容量 120

5.4.3 一般离散信道的信道容量 121

5.4.4 信道容量的迭代算法 128

5.5 多符号离散信道及其信道容量 134

5.5.1 多符号离散信道的平均互信息 134

5.5.2 离散无记忆信道的信道容量 135

5.5.3 独立并联信道及其信道容量 136

5.6 信源与信道的匹配 136

本章小结 137

习题 138

第6章 有噪信道编码 141

6.1 错误概率 141

6.1.1 错误概率和译码规则 141

6.1.2 错误概率与编码方法 145

6.2 有噪信道编码定理 146

6.3 联合信源信道编码定理 148

6.4 信道编码的基本概念 150

6.4.1 信道编码的分类 150

6.4.2 线性分组码的检错和纠错能力 151

6.4.3 最小汉明距离译码 153

6.4.4 差错控制的三种方式 154

6.4.5 差错控制的途径 154

6.5 线性分组码 155

6.5.1 线性分组码的编码 156

6.5.2 线性分组码的译码 162

6.5.3 完备码和汉明码 167

6.5.4 对偶码 168

6.5.5 扩展码、缩短码和删信码 169

6.6 循环码 171

6.6.1 循环码的码多项式 172

6.6.2 循环码的生成多项式和生成矩阵 173

6.6.3 循环码的监督多项式和监督矩阵 176

6.6.4 循环码的编码电路 178

6.6.5 循环码的伴随式 180

6.6.6 循环码的译码电路 183

6.6.7 CRC码 186

6.7 BCH码和RS码 187

6.7.1 有限域的基本知识 187

6.7.2 二元BCH码 196

6.7.3 多元BCH码和RS码 201

6.8 卷积码 203

6.8.1 卷积码的解析表示 203

6.8.2 卷积码的图形描述 210

6.8.3 卷积码的译码方法 211

6.8.4 卷积码的特性 214

6.8.5 删余卷积码 215

6.8.6 递归型系统卷积码 216

6.9 交织码 217

6.10 级联码 218

6.11 Turbo码 219

6.11.1 Turbo编码 219

6.11.2 Turbo译码 220

6.12 LDPC码 225

本章小结 226

习题 228

第7章 连续信源和连续信道 233

7.1 连续信源和波形信源的信息度量 233

7.1.1 一维连续信源的熵 233

7.1.2 多维连续信源的熵 234

7.1.3 波形信源的熵率 236

7.2 连续信源的最大熵 237

7.2.1 峰功率受限的连续信源 238

7.2.2 平均功率受限的连续信源 238

7.2.3 连续信源的熵功率 240

7.3 连续信源熵的变换 241

7.4 波形信道的分类和处理方法 242

7.4.1 波形信道的分类 242

7.4.2 波形信道的处理方法 243

7.5 连续信道的平均互信息 244

7.5.1 连续信道 244

7.5.2 加性信道 245

7.6 连续信道的信道容量 246

7.6.1 一维高斯加性信道 247

7.6.2 多维无记忆高斯加性信道 248

7.7 波形信道的信道容量 250

7.7.1 限带AWGN信道的容量 250

7.7.2 香农公式的讨论 251

7.8 连续信道编码定理 253

本章小结 254

习题 255

第8章 限失真信源编码 258

8.1 失真测度 258

8.1.1 失真函数 259

8.1.2 平均失真 262

8.1.3 保真度准则 262

8.2 信息率失真函数 263

8.2.1 信息率失真函数的定义 264

8.2.2 R(D)函数的性质 264

8.2.3 常见信源的R(D)函数 267

8.3 限失真信源编码定理 268

8.4 R(D)函数的计算 270

8.4.1 R(D)函数的参量表示法 270

8.4.2 离散对称信源的R(D)函数 273

8.5 联合限失真信源信道编码定理 278

本章小结 280

习题 280

第9章 网络信息论初步 283

9.1 网络信源 283

9.2 网络信道 285

9.2.1 多址接入信道 285

9.2.2 广播信道 287

9.3 网络信源和网络信道的联合/分离 288

9.4 网络编码 289

9.4.1 网络编码原理 289

9.4.2 线性网络编码原理 290

9.4.3 网络编码的优势 291

9.5 协作通信 292

9.5.1 中继网络中协作策略及其容量 294

9.5.2 多中继高斯信道的容量 296

附录A 詹森不等式及其应用 299

A1 詹森不等式 299

A2 利用詹森不等式证明的性质和定理 299

附录B 信息度量的常用公式 305

参考文献 308