Скорость передачи информации и

Пропускная способность канала связи

Ввиду того, что канал связи считается стационарным, на вход канала поступает последовательность символов Скорость передачи информации и - student2.ru , где каждый символ Скорость передачи информации и - student2.ru , образует n-разрядный код. Количество комбинаций, которое можно образовать с использованием кода с основанием D, равно Скорость передачи информации и - student2.ru . Множество этих комбинаций образует пространство значений кодовых комбинаций Скорость передачи информации и - student2.ru . Символы при ансамбле Y обозначают моменты времени реализации величины Скорость передачи информации и - student2.ru . Например, для двумерного ансамбля c основанием кода, равным D=3, имеем

Скорость передачи информации и - student2.ru .

На выходе канала имеем последовательность символов Скорость передачи информации и - student2.ru , где каждый символ Скорость передачи информации и - student2.ru . Точно так же можно образовать множество кодовых комбинаций, составляющих пространство Скорость передачи информации и - student2.ru .

Последовательность символов Скорость передачи информации и - student2.ru поступает в канал в течение Скорость передачи информации и - student2.ru .

Количество информации, которое передается по каналу связи, за время наблюдения Скорость передачи информации и - student2.ru согласно (1.18) равно

Скорость передачи информации и - student2.ru . (4.2)

Скоростью передачи информации по каналу связи называется величина

Скорость передачи информации и - student2.ru . (4.3)

Скорость передачи информации R отражает среднюю скорость передачи информации в единицу времени.

Максимальная скорость передачи информации Скорость передачи информации и - student2.ru называется пропускной способностью канала связи

Скорость передачи информации и - student2.ru . (4.4)

Рассмотрим в выражении (1.18) разность Скорость передачи информации и - student2.ru . Чем больше энтропия Скорость передачи информации и - student2.ru , тем больше пропускная способность канала связи. Величина Скорость передачи информации и - student2.ru определяет среднюю неопределённость, содержащуюся в ансамбле Y, которая зависит от распределения вероятности элементов ансамбля Y. Поэтому максимизация скорости передачи информации происходит по распределению вероятности элементов ансамбля Y.

Упростим выражение (4.2).

Скорость передачи информации и - student2.ru . В силу того, что канал - стационарный и реализации элементов ансамблей Скорость передачи информации и - student2.ru и Скорость передачи информации и - student2.ru в моменты времени Скорость передачи информации и - student2.ru и Скорость передачи информации и - student2.ru независимы. Тогда

Скорость передачи информации и - student2.ru .

Но ансамбли Скорость передачи информации и - student2.ru за время передачи информации неизменны, т.е. Скорость передачи информации и - student2.ru . Тогда имеем

Скорость передачи информации и - student2.ru (4.5)

Условная энтропия в (4.2) представляется как

Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru =

= Скорость передачи информации и - student2.ru .

Воспользуемся условием независимости символов попарно на входе и выходе канала связи, а также стационарностью канала. Тогда соответствующие вероятности и условная энтропия будут равны

Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru ,

Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru ,

Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru =

= Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru . (4.6)

Если отсчёты во времени эквидистантны, то Скорость передачи информации и - student2.ru , где Скорость передачи информации и - student2.ru - интервал дискретизации по времени. Подставив (4.5), (4.6) и Скорость передачи информации и - student2.ru в (4.4), получим

Скорость передачи информации и - student2.ru . (4.7)

Введём скорость передачи символов

Скорость передачи информации и - student2.ru .

Тогда пропускную способность можно записать как

Скорость передачи информации и - student2.ru (4.8)

В таблице 4.1 представлены характеристики источника сообщений, кодера источника и канала связи.

Таблица 4.1  
Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru
  Скорость передачи информации и - student2.ru  

Канал без шумов

Шум в канале связи искажает физические параметры сигнала, что в свою очередь приводит к искажению символов. Вероятностная характеристика искажений – это условная вероятность Скорость передачи информации и - student2.ru . Будем считать, сигнал в канале не искажается, если Скорость передачи информации и - student2.ru . Тогда для канала без шумов справедливо выражение

Скорость передачи информации и - student2.ru (4.9)

Из выражения (**.9) следует, Скорость передачи информации и - student2.ru , т.е. пропускная способность канала связи равна

Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru (4.10)

Если используется код с основанием D ,то энтропия ансамбля Скорость передачи информации и - student2.ru достигает наибольшего значения при Скорость передачи информации и - student2.ru . Тогда пропускная способность канала равна

Скорость передачи информации и - student2.ru . (4.11)

Теорема Шеннона о кодирование источника независимых сообщений для канала без шумов. (Шеннон, стр. 270)

Пусть источник имеет энтропию Скорость передачи информации и - student2.ru , а канал имеет пропускную способность Скорость передачи информации и - student2.ru . Тогда можно закодировать сообщения таким образом, что можно передавать их со средней скоростью

Скорость передачи информации и - student2.ru , где Скорость передачи информации и - student2.ru .

Передавать сообщения со скоростью большей, чем Скорость передачи информации и - student2.ru , невозможно.

Доказательство. Будем считать источник сообщений согласованным с каналом по скорости передачи информации, если Скорость передачи информации и - student2.ru . Тогда

Скорость передачи информации и - student2.ru . (4.12)

Энтропия Скорость передачи информации и - student2.ru не превышает Скорость передачи информации и - student2.ru . Запишем

Скорость передачи информации и - student2.ru = Скорость передачи информации и - student2.ru ,. (4.13)

где Скорость передачи информации и - student2.ru .

Подстановка (4.13) в (4.12) позволяет получить

Скорость передачи информации и - student2.ru , (4.14)

где Скорость передачи информации и - student2.ru .

Если принять Скорость передачи информации и - student2.ru , то Скорость передачи информации и - student2.ru , т.е. не имеет смысла передавать сообщения.

Канал с шумами

Наличие шума в канале связи приводит к тому, что условная энтропия Скорость передачи информации и - student2.ru не равна нулю. Условную энтропию Скорость передачи информации и - student2.ru Шеннон назвал ненадёжностью канала, так как она зависит от шума в канале связи. В результате возникает вопрос, существует ли метод кодирования, позволяющий передавать информацию с определённой скоростью Скорость передачи информации и - student2.ru . На это вопрос отвечает теорема Шеннона (Шеннон стр.280).

Пусть дискретный канал обладает пропускной способностью Скорость передачи информации и - student2.ru , а дискретный источник – энтропией Скорость передачи информации и - student2.ru . Если Скорость передачи информации и - student2.ru < Скорость передачи информации и - student2.ru , то существует такая система кодирования, что сообщения источника могут быть переданы по каналу с произвольно малой частотой ошибок, (или со сколь угодно малой энтропией Скорость передачи информации и - student2.ru ). Если Скорость передачи информации и - student2.ru > Скорость передачи информации и - student2.ru , то можно закодировать источник таким образом, что ненадёжность Скорость передачи информации и - student2.ru канала будет меньше, чем Скорость передачи информации и - student2.ru , где Скорость передачи информации и - student2.ru сколь угодно мало. Не существует способа кодирования, обеспечивающего ненадёжность, меньшую, чем Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru .

Нет доказательства

Пример 4.1. Определим пропускную способность двоичного симметричного канала связи. Модель двоичного симметричного канала показан на рисунке 4.4.

Скорость передачи информации и - student2.ru В канал связи поступают символы 1 и 0, отображающие реальные физические сигналы.

1) Канал симметричный. Вероятности искажения символов равны Скорость передачи информации и - student2.ru , вероятности неискажённого приема символов равны Скорость передачи информации и - student2.ru .

2) Канал стационарный, так как условные вероятности не зависят от времени.

Пропускную способность вычислим по формуле (4.8). Энтропию Скорость передачи информации и - student2.ru определим из условия Скорость передачи информации и - student2.ru при отсутствии шума. Энтропия Скорость передачи информации и - student2.ru принимает максимальное значение, равное 1, при Скорость передачи информации и - student2.ru . Условная энтропия равна

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Подставляя полученные величины в (4.8), получим

Скорость передачи информации и - student2.ru .

Как видно из формулы, пропускная способность зависит скорости поступления символов в канал и от вероятности искажения символов.

Положим, задан ансамбль сообщений X с распределением вероятностей P , (Таблица 4.2) . Сообщения генерируются со скоростью Скорость передачи информации и - student2.ru .Способ кодирования определён и каждому сообщению приписан двоичный код. Энтропия ансамбля сообщений X равна Скорость передачи информации и - student2.ru ,

Таблица 4.2
X P код
Скорость передачи информации и - student2.ru 0.6
Скорость передачи информации и - student2.ru 0.2
Скорость передачи информации и - student2.ru 0.1
Скорость передачи информации и - student2.ru 0.07
Скорость передачи информации и - student2.ru 0.03
       

вероятности реализации символов «1» и «0» равны

Скорость передачи информации и - student2.ru ,

энтропия ансамбля символов Y равна

Скорость передачи информации и - student2.ru ,

средняя длина кода равна Скорость передачи информации и - student2.ru .

Положим, в канале действует такой шум, что вероятность ошибочного перехода равна Скорость передачи информации и - student2.ru . Сможет ли канал обеспечить передачу сообщений ?

1) Скорость передачи информации и - student2.ru

2) Будем считать Скорость передачи информации и - student2.ru . Тогда Скорость передачи информации и - student2.ru = 204.826 Скорость передачи информации и - student2.ru .

3) Будем считать Скорость передачи информации и - student2.ru . Тогда Скорость передачи информации и - student2.ru и пропускная способность канала равна Скорость передачи информации и - student2.ru =

= Скорость передачи информации и - student2.ru = 108.764 Скорость передачи информации и - student2.ru

Как видно, пропускная способность канала значительно ниже скорости генерации информации источником и часть информации может быть утеряна. В этом случае можно уменьшить скорость генерации сообщений Скорость передачи информации и - student2.ru или уменьшить вероятность ошибок Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru . Положим, каким-то образом удалось уменьшить вероятности ошибок до величины Скорость передачи информации и - student2.ru 0.01. Тогда пропускная способность канала увеличится до величины Скорость передачи информации и - student2.ru Скорость передачи информации и - student2.ru . При таком соотношении скорости поступления информации Скорость передачи информации и - student2.ru в канал и пропускной способности канала искажения информации в канале из-за величин Скорость передачи информации и - student2.ru и Скорость передачи информации и - student2.ru не будет.

Непрерывный канал связи

Как и прежде, сигналы поступают в канал в дискретные моменты времени, но значения сигналов принимают непрерывные значения из некоторого множества. Примером такого канала является передача амплитудно-модулированных, фазомодулированных или частотно-модулированных сигналов. Сами сигналы могут быть как детерминированными, так и являться случайными процессами. Сигнал и шум взаимно независимы и в канале связи складываются алгебраически, т.е сигнал и шум аддитивны

Скорость передачи информации и - student2.ru , (4.15)

где Скорость передачи информации и - student2.ru - шум в канале с известной плотностью вероятности Скорость передачи информации и - student2.ru ,

Скорость передачи информации и - student2.ru - непрерывный по множеству значений сигнал, поступающий в канал связи. Плотность распределения вероятности Скорость передачи информации и - student2.ru значений сигнала может быть произвольной

Чтобы упростить записи, в дальнейшем будем писать

Скорость передачи информации и - student2.ru , (4.16)

помня, что Скорость передачи информации и - student2.ru - непрерывные величины, а их реализациями являются Скорость передачи информации и - student2.ru . Запишем равенство (4.16) через реализации

Скорость передачи информации и - student2.ru (4.17)

Условная плотность распределения Скорость передачи информации и - student2.ru при фиксированном значении Скорость передачи информации и - student2.ru должна удовлетворять соотношению

Скорость передачи информации и - student2.ru . (4.18)

Используя (**.17), получим условную плотность распределения

Скорость передачи информации и - student2.ru (4.19)

Пропускная способность непрерывного канала связи определяется подобным образом, что и для дискретного канала, но максимизация пропускной способности производится по всем возможным распределениям Скорость передачи информации и - student2.ru :

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru , (4.20)

где Скорость передачи информации и - student2.ru - время, затраченное на передачу одного значения Скорость передачи информации и - student2.ru ,

Скорость передачи информации и - student2.ru - скорость передачи сигналов в канале - количество значений Скорость передачи информации и - student2.ru , переданных по каналу в единицу времени.

Определим условную энтропию Скорость передачи информации и - student2.ru :

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru (4.21)

Из (4.21) видно, что условная энтропия Скорость передачи информации и - student2.ru зависит от плотности распределения вероятности шума.

Пример 4.3. Вычислим энтропию случайной величины Скорость передачи информации и - student2.ru , подчиненной нормальному закону с математическим ожиданием, равным m, и дисперсией, равной Скорость передачи информации и - student2.ru .

Скорость передачи информации и - student2.ru =

Скорость передачи информации и - student2.ru

Сделаем замену переменных Скорость передачи информации и - student2.ru .

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru .

Как видно, энтропия Скорость передачи информации и - student2.ru не зависит от математического ожидания m.

Пусть Скорость передачи информации и - student2.ru - энтропия случайной величины Скорость передачи информации и - student2.ru с математическим ожиданием, равным нулю, и дисперсией, равной Скорость передачи информации и - student2.ru . Энтропия случайной величины Скорость передачи информации и - student2.ru не превышает энтропии нормального закона распределения вероятности

Скорость передачи информации и - student2.ru ,(4.22)

где знак равенства имеет место тогда и только тогда, когда случайная величина Скорость передачи информации и - student2.ru распределена по нормальному закону.

Положим, Скорость передачи информации и - student2.ru - произвольная плотность распределения вероятности случайной величины Скорость передачи информации и - student2.ru . Случайная величина подвергается преобразованию

Скорость передачи информации и - student2.ru .

Определим математическое ожидание случайной величины Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru =

Скорость передачи информации и - student2.ru . (4.23)

Рассмотрим разность Скорость передачи информации и - student2.ru . Правая часть этой разности есть Скорость передачи информации и - student2.ru . Поэтому

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru .

Знак равенства будет только тогда, когда справедливо равенство

Скорость передачи информации и - student2.ru или

Скорость передачи информации и - student2.ru .

Таким образом, энтропия достигает максимального значения при нормальном законе распределения вероятности. При этом накладываются условия:

- дисперсия Скорость передачи информации и - student2.ru случайной величины ограничена,

- область определения плотности распределения вероятности – ( Скорость передачи информации и - student2.ru ).

При рассмотрении пропускной способности канала связи никаких ограничений на вид распределения вероятности шума не накладывалось. В частном случае, наиболее употребляемом на практике, предполагается, что шум - нормальный белый. Это означает, что значения шума распределены по нормальному закону и они не коррелированны. При таких предположениях имеет место теорема Шеннона (Фано, стр. 176)

Если в непрерывном постоянном канале с дискретным временем аддитивный шум имеет гауссовское распределение с нулевым средним и дисперсией, равной Скорость передачи информации и - student2.ru , а мощность сигнала на входе не может превышать определенной величины Скорость передачи информации и - student2.ru , то пропускная способность этого канала на событие определяется формулой

Скорость передачи информации и - student2.ru .(4.24)

Знак равенства достигается лишь тогда, когда сигнал на входе канала - гауссовский с нулевым средним и дисперсией, равной Скорость передачи информации и - student2.ru .

Как известно, пропускная способность канала имеет вид

Скорость передачи информации и - student2.ru .

Определим Скорость передачи информации и - student2.ru . Из соотношений (4.15) - (4.18) следует,

Скорость передачи информации и - student2.ru . В силу независимости сигнала и шума Скорость передачи информации и - student2.ru .

По определению

Скорость передачи информации и - student2.ru .

Подставим вместо условной плотности Скорость передачи информации и - student2.ru плотность распределения шума и, учитывая, что шум распределён по нормальному закону, получим

Скорость передачи информации и - student2.ru . (4.25)

Используя общее определение пропускной способности канала (4..20)

Скорость передачи информации и - student2.ru

Скорость передачи информации и - student2.ru . (4.25)

Если сигнал на входе канала распределен по нормальному закону, то и сумма (4.16) также распределена по нормальному закону, что является необходимым условием максимального значения энтропии Скорость передачи информации и - student2.ru . В этом случае пропускная способность достигает максимального значения (знак равенства в (4.24)).

Наши рекомендации