信息熵是信息论中的一个重要概念.设随机变量 $X$ 所有可能的取值为 $1,2,\cdots,n$,且 $P(X=i)=p_i>0(i=1,2,\cdots,n)$,$\sum_{i=1}^np_i=1$,定义 $X$ 的信息熵 $H(X)=-\sum_{i=1}^np_i\log_2p_i.$  \((\qquad)\)
A: 若 $n=1$,则 $H(X)=0$
B: 若 $n=2$,则 $H(X)$ 随着 $p_i$ 的增大而增大
C: 若 $p_i=\frac{1}{n}(i=1,2,\cdots,n)$,则 $H(X)$ 随着 $n$ 的增大而增大
D: 若 $n=2m$,随机变量 $Y$ 的所有可能取值为 $1,2,\cdots,m$,且 $P(Y=j)=p_j+p_{2m+1-j}(j=1,2,\cdots,m)$,则 $H(X)\leqslant H(Y)$
【难度】
【出处】
2020年新高考(Ⅱ)卷
【标注】
  • 知识点
    >
    函数
    >
    常见初等函数
    >
    对数函数
    >
    对数及其运算
  • 知识点
    >
    函数
    >
    函数的图象与性质
    >
    函数的单调性
【答案】
AC
【解析】
题目 答案 解析 备注
0.108138s