Взаимная информация.

 

Введенное ранее понятие энтропии Н(А) дискретного источника или ансамбля сообщений А={ai} характеризует среднее значение информации, содержащееся в одном сообщении.

Определим информацию, содержащуюся в одном ансамбле А относительно другого В. Для этого возьмем объединение этих дискретных ансамблей.

Приведем 2 примера таких сообщений:

Пример №1: ансамбль А – ансамбль сообщений, В – ансамбль сигналов, с помощью которых это сообщение передается.

Пример №2: А – ансамбль сигналов на входе канала связей, В – ансамбль сигналов на выходе каналов связей.

 

Обозначим совместную вероятность реализацией двух ансамблей аi и bj как Р(аi, bj).

Назовем совместной энтропией ансамблей А и В величину

(1)

Усреднение в выражении (1) берется по объединенному ансамблю.

Назовем условной энтропией величину

(2)

где Р– условная вероятность ai, если имеет место bj.

Усреднение в выражении (2) берется по объединенному сигналу.

Если источники А и В являются источниками без памяти, то условная энтропия

(3)

Если воспользоваться теоремой умножения вероятностей:

то (4)

Для условной вероятности в общем случае: 0≤Н ≤Н(А) (5).

1) Н =0, если при каждом bj условная вероятность реализации аj равна 1, то есть Р=1. Для всех остальных реализаций аn условная вероятность равна нулю, то есть Р=0, при n≠i.

Это означает, что по известной реализации В можно точно установить реализацию А. Другими словами, В содержит полную информацию об А и Н=0.

2) Н=Н(А) имеет место, когда условная вероятность Рравна безусловной вероятности Р(аi) при любых аj и bj, то есть события А и В независимы и знание реализации В не уменьшает неопределенность А (В ни содержит ни какой информации об А).

В общем случае всегда справедливо 0< Н <Н(А). Это означает: знание реализации в среднем снижает первоначальную неопределенность А.

Обозначим Н(А)-Н =I(A, B) (6)

Эта разность I(A, B) имеет смысл в количестве информации, содержащейся в В относительно А.

Назовем I(A, B) взаимной информацией между А и В.

Учитывая выражение для Н(А) и Н , представим взаимную информацию в виде.

(7)

Если воспользоваться теоремой умножения вероятностей, то

(8)

 

Основные свойства взаимной информации.

1) Взаимная информация неотрицательна I(A, B)≥0. Причем равенство I(A, B)=0, бывает только при независимости А и В.

2) I(A, B)=I(В, А)

В содержит столько же информации об А, столько А о В, следовательно

3) I(A, B)≤Н(А)

Если по реализации В можно однозначно установить реализацию А, то I(A, B)=Н(А)

I(A, B)≤Н(В)

Если по реализации А можно точно установить реализацию В, то I(A, B)=Н(В).

4) Если В=А, то, учитывая что I(A, B)=0, получим I(A, А)=Н(А).

Последнее равенство означает, что энтропия источника А Н(А) может рассматриваться как собственная информация, то есть информация, содержащееся в А о самом себе.

 

Пример №1.

Пусть ансамбль А – ансамбль дискретных сообщений, В – ансамбль дискретных сигналов, в которых эти сообщения преобразуются, то есть А превращается в В.

Равенство I(A, B)=Н(А) возможно тогда и только тогда, когда преобразование А в В обратимое, при необратимом преобразовании будет всегда неравенство I(A, B)<Н(А).

Вычтем:

Н(А)- I(A, B)= Н.

Смысл выражения в потере информации при преобразовании А в В (ненадежность преобразования). При обратном преобразовании информация не теряется.

Обозначим как и раньше через Т – среднее время передачи одного сообщения.

Н’=1/Т Н– скорость утечки (или потеря) информации,

I’(A, B)=1/Т I(A, B) – скорость передачи информации от А к В.

 

Пример №2.

Пусть А – ансамбль сигналов на входе дискретного канала связи, В – ансамбль сигналов на выходе дискретных каналов связи.

 

 

Воспользуемся соотношением: I(A, B)=Н(А)-Н=Н(В)-Н.

Если поделить на Т: I’(A, B)=Н’(А)-Н’=Н’(В)-Н’.

Здесь Н’(А) – производительность источника сообщений А;

Н’- скорость утески информации при прохождении через канал связи;

Н’(В) – «производительность» канала связи (полная собственная информация в принятом сигнале за единицу времени);

Н’- скорость передачи посторонней информации, не имеющей отношение к А и создаваемой помехами, например, из соседних каналов связи.

 

Рассмотрим две крайних ситуации:

1) полоса пропускания канала связи мала и недостаточна для удовлетворительного (не искаженного) прохождения сигнала. В тоже время уровень помех мал, следовательно, часть полезной информации теряется, но почти не добавляется посторонней (бесполезной информации).

Н’>>Н’- соотношение скоростей.

2) Полоса пропускания канала связи велика и сигнал не искажается, но зато мы получаем много посторонней (бесполезной) информации.

Н’<<Н’.

 

 

 

На основании рассмотренных сведений по теории информации можно дать рекомендации по эффективному кодированию сообщений с целью избежать потерь информации. Можно даже ввести понятие оптимального кодирования сообщений, при котором не происходит потерь информации при ее передачи по каналу связи.