Информационная энтропия
В соответствии со сказанным выше величина (I) может быть рассмотрена как мера неопределенности сведений об источнике информации, которая имела место до приема сообщений и была устранена после их получения. Эту меру неопределенности называют ЭНТРОПИЕЙ (H) источника информации, приходящейся на одно сообщение и считают эту величину его характеристикой. Таким образом, энтропия H источника на одно сообщение:
;
Как видно из полученной формулы количество информации и энтропия величины численно равные, но по смыслу противоположные.
Энтропии можно дать также другую формулировку: энтропия есть мера неопределенности (неупорядоченности, многообразия) ситуации, связанной с наличием определенного множества возможных сообщений, и измеряется она средним количеством информации, приходящимся на одно из этих сообщений.
Для источника с единственно возможным сообщением, вероятность которого приближается к единице (p 1), энтропия стремится к нулю (H 0).
Если все k возможных сообщений источника равновероятны ( , то его энтропия H принимает максимальное значение:
, так как
Поскольку каждому сообщению соответствует одно из возможных состояний источника, максимальная энтропия может служить мерой сложности и организованности системы, являющейся источником информации.