信息论与编码
作 者: 于秀兰,王永,陈前斌 编著
出版时间: 2014
内容简介
本书重点介绍了香农信息论和编码理论的基本原理及其应用。在保持一定理论深度的基础上,尽可能地简化繁杂的公式、定理的证明,采用较多的例题和图示来展示基本概念和原理的应用。叙述上力求概念清楚、重点突出、深入浅出、通俗易懂,内容上力求科学性、先进性、系统性与实用性的统一。本书共9章,内容包括:绪论、信息的统计度量、离散信源和熵、无失真信源编码、离散信道和信道容量、有噪信道编码、连续信源和连续信道、限失真信源编码和网络信息论初步。本书可作为高等院校电子信息工程、通信工程等相关专业的本科生教材,也可作为相关领域中教学与科研人员和工程技术人员的参考用书。
目录
第1章 绪论
1.1 信息的概念
1.1.1 什么是“信息”
1.1.2 如何度量“信息”
1.2 信息传输系统
1.2.1 信息传输系统模型
1.2.2 信息传输系统的性能指标
1.3 信息论的研究内容
1.3.1 基本信息论的研究内容
1.3.2 一般信息论的研究内容
1.3.3 广义信息论的研究内容
1.4 信息论和编码理论的形成和发展
习题 第2章 信息的统计度量 第1章 绪论 1.1 信息的概念 1.1.1 什么是“信息” 1.1.2 如何度量“信息” 1.2 信息传输系统 1.2.1 信息传输系统模型 1.2.2 信息传输系统的性能指标 1.3 信息论的研究内容 1.3.1 基本信息论的研究内容 1.3.2 一般信息论的研究内容 1.3.3 广义信息论的研究内容 1.4 信息论和编码理论的形成和发展 习题 第2章 信息的统计度量 2.1 随机变量的统计特性 2.1.1 随机变量的分类及其描述 2.1.2 信源的统计特性 2.1.3 信道的传输特性 2.2 离散随机变量的自信息和信息熵 2.2.1 自信息量 2.2.2 信息熵 2.2.3 信息熵的性质 2.3 离散随机变量的联合自信息和联合熵 2.3.1 联合自信息 2.3.2 联合熵 2.4 离散随机变量的条件自信息和条件熵 2.4.1 条件自信息 2.4.2 条件熵 2.4.3 各类熵之间的关系 2.5 离散随机变量的互信息和平均互信息 2.5.1 互信息 2.5.2 互信息的性质 2.5.3 平均互信息 2.5.4 平均互信息的性质 2.5.5 平均互信息与各类熵之间的关系 2.5.6 联合互信息和条件互信息 2.5.7 信息处理定理 2.6 连续随机变量的信息度量 2.6.1 连续随机变量的熵 2.6.2 连续随机变量的平均互信息 本章小结 习题 第3章 离散信源和熵 3.1 离散信源的分类 3.2 离散信源的N次扩展信源 3.2.1 N次扩展信源的数学模型 3.2.2 离散信源的N次扩展信源的熵 3.2.3 离散无记忆信源的N次扩展信源的熵 3.3 离散平稳信源 3.3.1 离散平稳信源的数学定义 3.3.2 有限维离散平稳信源的条件熵 3.3.3 二维离散平稳信源的平均符号熵 3.3.4 离散平稳信源的极限熵 3.3.5 计算极限熵的处理方法 3.4 马尔可夫信源 3.4.1 马尔可夫信源的描述 3.4.2 齐次遍历的马尔可夫信源 3.4.3 齐次遍历马尔可夫信源的极限熵 3.5 信源的相关性和剩余度 本章小结 习题 第4章 无失真信源编码 4.1 信源编码的基本概念 4.1.1 信源编码的数学模型 4.1.2 信源编码的分类 4.1.3 唯一可译码和即时码 4.1.4 编码效率 4.2 无失真信源编码定理 4.2.1 无失真定长信源编码定理 4.2.2 无失真变长信源编码定理