А — однополярный цифровой сигнал; б-длительностью импульса; в — код линии

Формирования кода линии е чередованием— однополярный цифровой сигнал с укороченной с чпи

 

Преобразование исходного однополярного цифрового сигнала в код ЧПИ показано на рис. 16.10. Оно заключается в переменеполярности каждого последующего импульса на противоположную по отношению к предыдущему. Постоянная составляющая в спектре такой последовательности отсутствует, а основная энергия спектра сосредоточена в области тактовой частоты fд и согласуется с АЧХ кабельной линии. Основным недостатком кода ЧПИ является трудность выделения тактовой частоты при длительной передаче нулей, поэтому находят применение и другие коды линии, различающиеся способом ограничения числа следующих подряд нулей.

Исторически сложилось так, что описанные аналого-цифровые преобразования называют модуляцией. По существу, это двоичное кодирование непрерывного сигнала. Более точно считать преобразования, осуществляемые в АЦП и ЦАП, кодированием и декодированием.

 

Запомните основные положения

16.1. Цифровые способы передачи непрерывных сигналов обладают лучшей помехоустойчивостью, чем аналоговые, но занимают более широкую полосу частот.

16.2. Для преобразования непрерывного сигнала в цифровой и

обратного преобразования в канал связи включаются аналогоцифровой (АЦП) и цифро-аналоговый (ЦАП) преобразователи.

16.3. Основные операции в АЦП — дискретизация, квантование, кодирование.

16.4. При квантовании непрерывного сигнала возникает погрешность округления до разрешенного уровня, называемая шумом квантования.

16.5. Для улучшения отношения сигнал-шум квантования применяется неравномерной шаг квантования непрерывного сигнала.

 

КОНТРОЛЬНЫЕ ВОПРОСЫ

16.1. В чем заключаются основные преимущества цифровых методов передачи непрерывных сигналов?

16.2. Поясните принцип действия АЦП и ЦАП для различных видов модуляции: импульсно-кодовой; дельта-модуляции.

16.3. Поясните принципиальное отличие между шумом квантования и помехами в канале связи..

16.4. Для чего применяется компандирование сигнала?

16.5. Какие недостатки имеют цифровые способы передачи непрерывных

сигналов?

16.6. Что такое шум ложных импульсов и какими способами его можно

уменьшить?

16.7. Для чего применяется код линии?

 

ЗАДАЧИ

16.1. При формировании сигнала цифрового вещания требуется обеспечить

отношение сигнал-шум квантования не менее 62 дБ. Определить число элементов в кодовой комбинации ИКМ сигнала, если коэффициент амплитуды сиг-

нала КА=18 дБ.

Ответ: n=13.

16.2. Для получения высококачественного сигнала цифрового телевидения

применяется шестнадцатиразрядная ИКМ. Определить, какое при этом достигается отношение сигнал-шум квантования, если коэффициент амплитуды

сигнала КА=4,8 дБ.

О т в е т: 96,3 дБ.

16.3. В результате дискретизации речевого сигнала получена следующая

последовательность отсчетов: 0,23; 0,46; 1,13; 0,47; 0,09; — 0,22; — 0,86 В. Пре-

образовать эту последовательность в ИКМ сигнал в коде Грея при шаге квантования 0,1 В.

Ответ: 10011, 10111, 11110, 10111, 10001, 00011, 01101,

 

Ч а с т ь 5. ЭЛЕМЕНТЫ ТЕОРИИ ИНФОРМАЦИИ

 

Гл а в а 17. ОСНОВНЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ

ИНФОРМАЦИИ

 

17.1. ИНФОРМАЦИОННЫЕ

ХАРАКТЕРИСТИКИ ИСТОЧНИКА

СООБЩЕНИЙ

Количественная мера информации. Из определения

информации (см. ф 1.1) как совокупности неизвестных для получателя сведений следует, что в общем случае дать оценку количества информации довольно затруднительно, так как всякое подлежащее передаче сообщение имеет свое содержание, свой смысл и

определенную ценность для получателя. Одно и то же сообщение

может давать одному получателю много информации, другому мало. Однако содержательная сторона сообщений несущественна для теории и техники связи и поэтому не учитывается при определении количественной меры информации.

В основу измерения количества информации положены вероятностные характеристики передаваемых сообщений, которые не связаны с конкретным содержанием сообщений, а отражают степень их неопределенности (неожиданности). Естественно, что чем меньше вероятность сообщения, тем больше информации оно несет. Так, о маловероятнейшем сообщении говорят: «Вот это новость, как обухом по голове», т. е. полученное огромное количество информации получателем не может быть сразу воспринято и осознанно.

Следовательно, количество информации І(аі) в отдельно взятом сообщении аі определяется величиной, обратной вероятности сообщения Р (а;) и вычисляется в логарифмических единицах:

 

І(аі) =lоgb 1/Р(аi) =-lоgb Р(аi). (17.1)

 

Логарифмическая мера, впервые предложенная в 1928 г. английским ученым Р. Хартли, обладает свойством аддитивности, что соответствует нашим интуитивным представлениям об информации (сведения, полученные от двух источников, вкладываются). Кроме того, при P(a;) =1 количество информации, вычисленное по (17.1), равно нулю, что соответствует принятому определению информации (сообщение об известном событии никакой информации не несет). Если источник выдает зависимые сообщения a;=f(a1 ..., аm),-то они характеризуются условными вероятностями Р(аi1 ..., am ). И в этом случае количество информации вычисляется по формуле (17.1) с подстановкой в нее условных вероятностей сообщений.

Единицы измерения количеств а информ ации.

Выбор основания логарифмов в формуле (17.1) определяет единицы измерения количества информации. При использовании десятичного логарифма (b=10) информация измеряется в десятичных единицах — дитах. В случае использования натуральных логарифмов единицей измерения является натуральная единица — нат. Более удобно в системах, работающих с двоичными кодами (ЭВМ, бинарные системы связи и др.), использовать основание логарифма b=2 и тогда информация измеряется в двоичных единицах — дв. ед. Весьма часто вместо двоичных единиц используется эквивалентное название — бит (Ы), возникшее как сокращенная запись английских слов binary digit (двоичная цифра).

Следовательно, при P (ai) =0,51(ai) = -log2 0,5= 1 бит, т. е. 1 бит- количество информации, которое передается сообщением, вероятность которого P(ai) =0,5.В настоящее время термин бит в информатике, вычислительной и импульсной технике, ЭВМ употребляется не только как единица количества информации, но и для обозначения числа двоичных

символов 0 и 1, поскольку они обычно равновероятны и каждый

из них несет 1 бит информации.

 

Пример 17.1. Определить количество информации в слове русского текста

из n=8 букв. Для упрощения расчетов считать, что буквы равновероятны и

следуют независимо.

Для равновероятных букв вероятность одной буквы P(ai) =1/Мa=l/32 (в

русском алфавите Ma=32) и в одной букве, согласно (17.1), содержится

I(ai) = -lоg2 1/32=5 бнт информации. Буквы следуют независимо, поэтому количество информации в слове из n=8 букв Iсл= І(аі) =81(аі) =40 бит.

Э н т р о п и я и с т о ч н и к а. Большинство реальных источников выдают сообщения с различными вероятностями. Например, в тексте буквы А, Е, 0 встречаются сравнительно часто, а Щ, Ы, Ъ — редко. При разных вероятностях сообщения несут различное количество информации I(a;). При решении большинства практических задач необходимо знать среднее количество информации, приходящееся на одно сообщение. Это среднее количество информации согласно (2.19) и (17.1) при общем числе сообщений источника Ма равно

М [І(аі)] = P (аі) I (аі) = - P (аі) log2 P (аі)= Н (А). (17 2)

Полученная величина О(А) получила название энтропия источника сообщений, измеряется в бит/сообщение.

Термин «энтропия» заимствован из термодинамики, где выражение, аналогичное (17.2), характеризует среднюю неопределенность состояния системы молекул вещества. В теории информации этот термин и способ вычисления (17.2) введен в 1948 г. американским ученым К. Шенноном и далее более строго определен советскими математиками А. Я. Хинчиным и А. Н. Колмогоровым.

Физически энтропия Н(А) выражает среднюю неопределенность состояния источника сообщений и является объективной информационной характеристикой источника. Энтропия всегда положительна и принимает максимальное значение Нmax(А) =log2Ma, при равновероятных сообщениях.

Для источника с зависимыми сообщениями энтропия также вычисляется как математическое ожидание количества информации этих сообщений. Следует отметить, что полученное в этом случае значение энтропии меньше, чем источника независимых сообщений. Это физически следует из того, что при наличии зависимости сообщений неопределенность выбора уменьшается и, соответственно, уменьшается энтропия. Так, в тексте после сочетания «чт» вероятнее всего, что третьей буквой будет «о» и маловероятно появление в качестве третьей буквы «ж» или «ъ». В среднем сочетание «что» несет меньше информации, чем эти буквы в отдельности.

Избыточность источника. Под избыточностью всегда понимают что-то лишнее (ненужное). Что же избыточное (лишнее) имеется в источнике, выдающим какую-то информацию? Избыточными в источнике считаются сообщения, которые несут малое, а иногда и нулевое, количество информации. Время на их передачу тратится, а информации передается мало. Наличие избыточности означает, что часть сообщений можно и не передавать по каналу связи, а восстановить на приеме по известным статистическим связям. Так и поступают при передаче телеграмм, исключая из текста союзы, предлоги, знаки препинания, поскольку он легко восстанавливаются по смыслу телеграммы на основании известных правил построения фаз.

Количественно избыточность оценивается коэффициентом избыточности

 

и= [Нmax(А) — Н(А)]/(Нmax(А)=1 — H(A)/Hmax(А), (17.3)

 

где Н(А) — энтропия источника, вычисленная на основе учета

статистических характеристик сообщений: Нmax(А) =lоg2Мa,—максимальная энтропия источника из М, сообщений. Основными причинами избыточности являются: 1) различные вероятности отдельных сообщений; 2) наличие статистических связей между сообщениями источника.

 

Пример 17.2. Вычислить коэффициент избыточности источника двоичных сообщений при вероятности одного из них Р(а1) =0,1.Для двоичного источника Hmax (А) =lоg2 2= 1 бит. Энтропия двоичного источника при Р(а1) =р, Р(а2) =1 — р согласно (17.2) будет

H(A) = — Р(аi) log2P(аi ) = — р 1ор2 р — (1 — р)log2(1 — р) =

= -0, log2 0,1 — 0,9 lоg2 0,9=0,47.

Тогда из (17.3) хи=1 — 0,47/1=0,53.

Примечание. Для вычисления двоичных логарифмов необходимо воспользоваться математическими формулами перехода в логарифмах к другому основанию

 

Избыточность при передаче сообщений имеет свои положительные и отрицательные стороны. Увеличение избыточности приводит к увеличению времени передачи сообщений, излишней загрузке каналов связи. За заданный промежуток времени по каналу передается меньшее количество информации, чем это возможно, поэтому одной из задач теории информации и техники кодирования является задача сокращения избыточности. Однако при увеличении избыточности появляется возможность повышения помехоустойчивости передачи сообщений. Так, избыточность текста позволяет легко исправлять отдельные ошибки или восстанавливать пропуски букв или даже слов в телеграмме. У русского, да и у всех европейских языков, избыточность с учетом всех статистических зависимостей букв примерно одинакова хи 0,5. Она сформировалась в результате длительной, общественной практики на основе требований исправления искажения слов и фраз под воздействием различных мешающих факторов. При

практическом выполнении систем связи устанавливается компромиссное значение избыточности, обеспечивающее заданные скорость и надежность передачи сообщений.

Количество информации и энтропия непрерывных сообщений. Непрерывное сообщение a(t) в общем случае принимает бесконечное число значений как по времени, так и по уровню, поэтому количество информации и, соответственно, энтропия источника непрерывного сообщения бесконечны. Однако в реальных условиях отсчеты сообщений по времени производятся в дискретных точках через интервал дискретизации Тд

согласно теореме Котельникова (см. § 2.4). Кроме того, с заданной степенью точности непрерывное сообщение можно представитьконечным числом значений L по уровню (см. § 16.2). Тогда среднее значение количества информации в одном отсчете (энтропию отсчета) можно вычислять аналогично дискретным сообщениям:

Нотсч (А) = — Рі lоg2 Рi (17.4)

где рi — вероятность появления в квантованном сообщении i-го

уровня.

Если в (17.4) осуществить предельный переход, т. е. устремить число уровней квантования L к бесконечности (шаг квантования Δ при этом стремится к нулю), то получим величину

h(А) = Нотсч(А) = - р (а) log2 р(а) da, (17.5)

которую называют дифференциальной энтропией источника непрерывных сообщений. В (17.5) р(а) — плотность вероятности сообщения a(t). Однако из-за того, что р(а) зависит от масштаба а, величина h(А) отдельно не может служить абсолютной мерой неопределенности (информации) непрерывного сообщения. Она необладает многими свойствами обычной энтропии дискретных сообщений, в частности, может принимать и отрицательные значения.

Информационный смысл имеет не сама дифференциальная энтропия, а разность дифференциальных энтропий, например на входе и выходе канала связи. Именно для этих расчетов и используется дифференциальная энтропия в виде (17.5).

Производительность источника. Под производительностью источника понимают среднее количество информации, создаваемой источником в единицу времени. Если за время 4 источник дискретных сообщений выдал и сообщений, то количество произведенной им информации I(A, tH) =nН(А) и производительность источника, бит/с,

Н'д.и(А) = (17.6)

где tcр =tH/n — средняя длительность сообщения. Следовательно, производительность источника численно равна отношению энтропии источника к средней длительности сообщения.

 

Пример 17.3. Определить производительность стартстопного телеграфного аппарата СТА-М67, рассматриваемого как источник сообщения, работающего со скоростью модуляции B=50 Бод -пятиэлементным двоичным кодом. Структура кодовой комбинации буквы описаны в задаче 1.2. В расчетах принять, что передается осмысленный русский текст.

При коэффициенте избыточности русского текста хи = 0 5 из (17.3) при Нmax(А) =5 бит на букву, следует, что энтропия текста Н(А) =2,5 бит на букву. Длительность передачи одной буквы с учетом (1.2) tб= 7,5/В =7,5/50=0,15 с. Из (17.6) получаем, что производительность СТА-М67 Н'(А) =2,5/0,15= 16,67 бит/с.

Для непрерывных сообщений при их преобразовании в цифровую форму с частотой дискретизации / и энтропией отсчета Нотсч(А) производительность источника

 

H’и.и(А) =fдНотсч(А). (17.7)

 

При числе равновероятных уровней квантования L вероятность каждого из них р;=1/Е и из (17.4) и (17.7) получаем значение производительности источника непрерывных сообщений:

H’и.и(А) =fдlog2L. (17.8)

 

Производительность источника сообщений является одной изосновных его характеристик, так как каналы передачи сообщений должны строиться так, чтобы обеспечить передачу выдаваемого источником количества информации. Для типовых первичных сигналов, описанных в §2.8, считая, что преобразователь сообщения — первичный сигнал — не вносит искажений, расчеты производительности по формулам (17.6) и (17.8) сведены в табл. 17.1.

При подсчете производительности источников непрерывных сообщений (первичных сигналов) считалось, что распределение уровней квантования равновероятно и АЦП обеспечивает высокое качество (малый шум квантования).

 

17.2. ИНФОРМАЦИОННЫЕ

ХАРАКТЕРИСТИКИ КАНАЛОВ СВЯЗИ

 

Скорость передачи информации по каналам.

Под скоростью передачи информации понимают среднее количество информации, получаемое на выходе канала в единицу времени;размерность — бит/с.

Совершенно ясно, что в идеальном канале без помех и искажений количество принятой информации тождественно равно количеству переданной. Скорость передачи информации R по идеальному каналу вычисляется аналогично производительности источника (17.6) или (17.8) по информационным параметрам передаваемого первичного сигнала.

Наличие в канале помех приводит к искажению. Передаваемых сигналов, вследствие чего, приняв сигнал, мы не можем с полной достоверностью определить, какое же сообщение было передано.

Можно утверждать, что в канале связи с помехами возникают потери информации. Сказанное подтверждает хотя бы такой всем известный факт: при разговоре по телефону при наличии помех абонент просит повторить сказанное, так как он не все понял. А

это значит, что какая-то часть информации не пошла к получателю и потеряна в канале. Следовательно, при вычислении скорости передачи информации в канале с помехами необходимо учитывать потери информации, и скорость передачи информации в дискретном канале

 

Rд.к = [Н(U)-Hпот (U) ] /tи.ср

для непрерывного канала

Rн.к =2Fm[h(U) — hпот(U)],

 

где H(U) — энтропия передаваемого дискретного первичного сигнала; h(U) — дифференциальная энтропия передаваемого непрерывного сигнала; Hпот (U) hпот(U)— энтропия потерь в канале для дискретного и непрерывного первичных сигналов соответственно; tи.ср — средняя длительность дискретного первичного сигнала; F — максимальная частота спектра непрерывного первичного сигнала.

Потери информации определяются вероятностью ошибки Рош в дискретном канале и уровнем помех в непрерывном канале. Естественно, потери уменьшаются с улучшением качества передачи сигналов, т. е. с уменьшением вероятности ошибки и уровня помех. Исследования показывают, что при Рош<10-3 и отношении сигнал-помеха больше 20 дБ потери информации незначительны, составляют доли процента от переданной, поэтому для практических расчетов скорости передачи информации по каналам с хорошим качеством передачи сигналов можно не учитывать потери информации в каналах.

П р о п у с к н а я с п о с о б н о с т ь к а н а л о в. Наибольшее

значение скорости R передачи информации по каналу связи при данных ограничениях называется пропускной способностью канала, бит/с:

С=mах R.

Под заданными ограничениями понимают тип канала (дискретный или непрерывный), характеристики сигналов и помех. Напомним, что канал называют дискретным, на входе и выходе которого имеются дискретные сигналы, непрерывным называется канал, на входе и выходе которого имеются непрерывные сигналы.

Пропускная способность дискретного канала Сдк по которому передается т дискретных сигналов, вычисляется по формуле

 

Сдк= (1/tи) [log2m+р log2 р/(m-1) + ( 1 —p )log2 ( 1 -p )] (17.9)

 

где tи — минимальная длительность сигнала; р — вероятность

ошибки сигналов в канале. Из (17.9) следуют частные случаи:

в дискретном канале без помех

Cд.к= В log2m;

 

 

Рис.17.1 Пропускная способность двоичного канала

 

 

В двоичном канале (m=2)

 

Сдк=В[1+ р log2 р+(1-p) log2(1-p)] (17.10)

 

Где B=1/tи- скорость модуляции, бод. Зависимость С/В от вероятности ошибки р, рассчитанная по (l7.10), показана нн рис. 17.1

При p=0,5 пропускная способность двоичного канала С=О.

Этот случай называют обрывом канала. Физически это означает, что вероятность ошибки р=0,5 можно получить и ничего не передавая по каналу. Однако при р=1 пропускная способность такая же, как и при р=О (канал без помех). Это объясняется тем, что при p= 1 производится безошибочный прием сигналов в «негативе», т. е. достаточно заменить О на 1 и 1 на О, чтобы правильно восстановить переданный сигнал.

Пример 17.4. Определить пропускную способность двоичного канала, еслискорость модуляции в нем В=1000 Бод и вероятность ошибки p=l0-'. Насколько отличается пропускная способность этого канала от идеального?

Согласно (17.10) пропускная способность двоичного канала при заданных параметрах СДК=1000 (1+0,001 lоg20,001+0,999log20,999) =996 бит/с. Для идеального канала из (17.10) при р=0 следует CДK=В=1000 бит/с. Сравнениеи полученных результатов показывает, что ошибки в канале привели к уменьшению пропускной способности на 4 бит/с (0,4'%).

Для непрерывного канала максимальная скорость передачи информации достигается для гауссовского канала с постоянными параметрами при условии, что и сигнал имеет нормальное (гауссовское) распределение вероятности мгновенных значений при ограниченной средней мощности. Вычисления пропускной способности непрерывного канала производятся, считая, что на его вход подается модулированный сигнал s(u, t). Расчетная формула пропускной способности гауссовского канала получена в 1948 г. К. Шенноном и ее называют формулой Шеннона:

Сн.к = FK log2 ( 1+ Рsп ) > (17.11)

 

где Fk — ширина полосы пропускания канала; Рs, Рn— средние мощности сигнала и помехи в полосе частот канала соответственно.

Из формулы (17.11) видно, что пропускная способность пропорциональна ширине полосы частот канала и отношению сигнал-помеха и растет с увеличением Fk, и Рs / Рn. Формула указывает на возможность обмена ширины полосы пропускания на мощность сигнала при сохранении пропускной способности. Но, увеличивая ширину полосы пропускания канала, нельзя бесконечно увеличивать пропускную способность. С ростом F» увеличивается мощность помех, поскольку для белого шума со спектральной плотностью мощности No (см. пример 2.7) Pn=NoFk. Тогда из (17.19), если учесть, что log2(1+x) х ln 2, получим

С = 1,443Рs/No,

т. е. максимальное значение, к которому стремится пропускная способность непрерывного канала с ростом ширины полосы канала, пропорционально отношению средней мощности сигнала к спектральной плотности помехи.

 

Пример 17.5. Вычислить пропускную способность стандартного канала то-

нальной частоты, имеющего границы эффективно передаваемых частот 0,3 ...

...3,4 кГц, среднюю мощность сигнала на выходе 32 мкВт при средней мощ-

ности помехи 87 000 пВт.

Подставив в формулу Шеннона (17.11) Fk=3400 — 300=3100 Гц, Ps=3,2Х

X10-5, Рn =8,7 10 -8Вт, получим С тч 26,4* 103бит/с.

Основная теорема Шеннона.

Пропускная способность канала характеризует потенциальные возможности передачи информации. Они раскрываются в фундаментальной теореме теории информации, известной как основная теорема кодирования К. Шеннона. Формулировка ее для дискретного канала следующая: если производительность источника Н'(А) меньше пропускной способности канала С, т. е.

 

Н'(А)< (C, (17.12)

то существует способ кодирования (преобразования сообщения в сигнал на входе) и декодирования (преобразования сигнала в со общение на выходе канала), при котором вероятность ошибочного декодирования может быть сколь угодно мала. Если же Н'(А) ≥С, то таких способов не существует. Для непрерывных каналов формулировка теоремы такая же, но под ошибкой следует пони мать среднеквадратическую разность (1.5)

Таким образом, согласно теореме Шеннона, ошибки в канале не являются препятствием для безошибочной передачи информации. Ошибки несколько снижают пропускную способность канала (см. пример 17.4), но если выполняется условие (17.12), выбором способа кодирования и декодирования их можно все исправить. Однако в доказательстве теоремы, которое здесь из-за сложности не приводится, не указывается конкретный код, исправляющий все ошибки. Доказывается только, что код должен иметь большую разрядность, т. е. кодировать необходимо не отдельные буквы, а, пожалуй, слова или даже фразы. Такие коды являются весьма сложными. До настоящего времени еще не найдены коды, реализующие основное положение теоремы Шеннона: исправляющие все ошибки.

Пропускная способность канала, как предельное значение скорости безошибочной передачи информации, является одной из основных характеристик любого канала. Для типовых непрерывных каналов многоканальной связи основные технические характеристики

тики и пропускная способность вычисленная по формуле Шеннона (17.11), приведены в табл. 17.2. Аппаратура цифровых системпередачи обеспечивает создание цифровых каналов с вероятностью ошибки 10 — 4...10 — ' и следующими градациями скоростей, кбнт/с'. основной канал — 64; субпервичный канал — 480; первичный тракт — 2048; вторичный тракт — 8448; третичный тракт — 34368;четверичный — 139264.

Зная пропускную способность канала и информационные характеристики сообщений (первичных сигналов), можно определить, какие сообщения (первичные сигналы) можно передавать по заданному каналу. Так, первичный сигнал телевизионного вещания имеет Н'(А) = 216 Мбит/с (см. табл. 17.1) и, согласно условию (17.12), не может быть передан ни по одному из типовых непрерывных или цифровых каналов без потери качества. Следовательно, для передачи сигнала телевизионного вещания требуется создание специальных каналов с более высокой пропускной способностью (что и сделано в кабельных, радиорелейных и спутниковых системах) или снижение скорости цифрового потока тем или иным способом.

 

17.3. ЭФФЕКТИВНОСТЬ СИСТЕМ СВЯЗИ

 

Под эффективностью в широком смысле понимают степень использования каких-то материалов, средств, ресурсов, времени и т. д. В системах связи основными ресурсами можно считать пропускную способность канала С, ширину полосы частот FД, мощность сигнала Р,. Для оценки степени их использования проф.А. Г. Зюко было предложено сравнивать их со скоростью передачи информации R. Введенные им коэффициенты эффективности являются важнейшими техническими показателями систем пере дачи информации.

Наиболее общей оценкой эффективности системы связи является коэффициент использования пропускной способности канала

=R/C, (17.13)

который называют информационной эффективностью. В реальных каналах скорость передачи информации всегда меньше пропускной способности, поэтому 0≤ ≤1.

В системах с ограниченной полосой, например кабельных, важной характеристикой является коэффициент использования ширины полосы частот канала FД

=R/Fk

который называют частотной эффективностью.

В ряде практических случаев удобной оценкой является коэффициент использования мощности сигнала Рs при спектральной плотности мощности помехи Nо

(17.15)

 

который называют энергетической эффективностью. Этот коэффициент играет важную роль в системах с ограниченной энергетикой,например спутниковых.

В качестве иллюстрации в табл. 17.3 приведены результаты расчета коэффициентов эффективности по (17 13), (17.14) и (17.15) для некоторых систем передачи непрерывных первичных сигналов при значении отношения сигнал-помеха на выходе демодулятора рвх=40 дБ и ширине полосы частот канала Fk. Для более широкого сравнения этих систем в табл. 17.3 приведен также выигрыш в отношении сигнал-помеха gс-п рассчитанный по формулам табл. 15.3. При расчетах полагалось, что во всех системах передается один и тот же первичный сигнал с максимальной частотой Fm и коэффициентом амплитуды КА=3; прием оптимальный.

Анализ данных табл. 17.3 показывает, что наибольшая информативная и частотная эффективности достигаются при ОМ. Однако выигрыш и энергетическая эффективность при этом сравнитель но

 

Таблица 17.3. Эффективность систем передачи непрерывных сигналов

 

но низкие, поэтому во многих случаях предпочтительней является

ИКМ-ФМн или другие широкополосные модуляции.Из простых систем передачи дискретных сообщений по дискретному каналу наиболее эффективная двухкратная фазовая манипуляция ФМн-4 ( =2, ß= — 9,6 дБ, =0,47). В спутниковых сетях ФМн-4 является наиболее распространенной и принята в качестве стандарта. Применяя другие методы модуляции и кодирования, можно, например, увеличить энергетическую эффективность за счет

снижения частотной эффективности, и наоборот. Получить одновременно лучшие показатели по всем коэффициентам эффективности можно только при сложных сигналах и кодах.

Рассмотренные коэффициенты эффективности указывают на технические преимущества системы связи. Однако не следует считать, что они полностью определяют целесообразность применения того или иного метода модуляции или кодирования. Так, системы с ОМ имеют наилучшие q и у эффективности и ОМ следовало бы широко применять. Но синхронное детектирование ОМ сигналов (см. ф 14.2) с автоподстройкой частоты технически трудно выполнить, поэтому при организации систем связи необходимо учитывать также экономические показатели, но их изучение выходит за рамки курса ТПСЭ.