信息论判断题

192 阅读3分钟

持续创作,加速成长!这是我参与「掘金日新计划 · 10 月更文挑战」的第31天,10月更文诚意加码,激发写作潜力|掘金·日新计划 - 掘金 (juejin.cn)点击查看活动详情

判断

1.信息就是一种消息。  

2.信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。 

3.概率大的事件自信息量大。

4.信息的 可度量性是建立信息论的基础。 

5.统计度量是信息度量最常用的方法。 

6.事物的不确定度是用时间统计发生概率来描述的。❌

  1. 用联合概率可以描述马尔科夫信源。❌

  2. 离散无记忆信源N次扩展源的熵是原信源熵的N倍。

  3. 离散平稳信源是指有记忆信源。

10.自信息量是的单调递减函数。

11.必然事件和不可能事件的自信息量都是0 。 

12.当随机变量X和Y相互独立时,条件熵等于信源熵。  

13.信源熵具有严格的下凸性。 

14.条件熵不小于无条件熵。   

15.条件多的熵大于条件少的熵。

16.自信息量、条件自信息量和互信息量之间有如下关系:     

17.平均互信息始终是非负的。

18.信道容量C只与信道的统计特征有关,而与输入信源的概率分布无关。 

19.信息处理过程中熵是不会增加的。  *

20.信道达到容量时,输入概率和输出概率唯一。 

21.互信息量和平均互信息量的定义相同。 

22.信道容量C不仅与信道的统计特征有关,还与输入信源的概率分布有关。 

23.自信息量、条件自信息量和联合自信息量之间有如下关系:   

24.当随机变量X和Y相互独立时,I(X;Y)=H(X)。 

25.平均互信息量是信道转移概率的下凸函数。 

26.计算信道容量就是计算平均互信息。❌

27.对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。

28.平均互信息是香农信息论最基本最重要的概念。

29.连续信源和离散信源的熵都具有非负性。

30.连续信源的熵可正,可负,可为零。 

31.连续信源熵与离散信源熵的含义和性质相同。❌

32.连续信源和离散信源都具有可加性。 

33.连续信源和离散信源的平均互信息都具有非负性。

34.一维高斯分布的连续信源,其信源熵只与其均值和方差有关。