Количество информации и энтропия

Глава 1. Основы теории информации

 

Понятие энтропии, как меры исходной, доопытной (априорной) неопределенности результатов опыта было введено К.Шенноном, по аналогии с термодинамической энтропией.

На основе этого количество информации, которое получают в результате конкретного исхода опыта, определяется как

 

(1.1)

 

Где – исходная энтропия,

- остаточная энтропия (неопределенность исхода) опыта.

В этом представлении количество информации, полученное в результате опыта, - это мера снятой неопределенности.

При передаче сообщений в каналах без помех и .

В приложении к системам связи термин «количество информации» ввел Р.Хартли в 1928 г. Он предложил определять эту величину как

 

, (1.2)

Где р – вероятность появления одного из N возможных равновероятных исходов опыта.

Логарифмическая мера количества информации может быть обоснована на основе следующих соображений:

1. Количество информации больше в опыте с большим числом равновероятных исходов:

2.

(1.3)

 

3. Если опыт имеет один исход, , то

4.

(1.4)

 

5. Количество информации в опыте, состоящем из частных опытов со взаимонезависимыми исходами

6.

(1.5)

 

Тогда в общем случае количество информации определится как

 

(1.6)

 

Постоянные a и b устанавливают масштаб величины I. По Хартли a=1 b=2. В этом случае, если

, то бит (1.7)

 

Единица количества информации, которая используется, как правило, в системах связи. Известны также аналогичные единицы измерения нат (b=e2,73…) и дит (b=10). В дальнейшем при значении основания b=2 оно у функции логарифма не указывается.