А) Если символы равновероятны, то количество информации определяется пл формуле Хартли I = log(2)N = log(2)4 = 2 бита
Б) Если вероятности различны, то используется формула Шеннона I=log(2)(1/p)
I1 = log(2)(1/0,4) ≈ 1,32
I2 = log(2)(1/0,15) ≈ 2,74
I3 = log(2)(1/0,25) = 2
I4 = log(2)(1/0,2) ≈ 2,32