Расчет энтропии источника сообщения.
Энтропия источника сообщения – это его информационная характеристика.
Для расчёта энтропии целесообразнее всего воспользоваться приближённой формулой, которая является достаточно точной при большом числе уровней квантования:
, (9.1)
где W(x) – плотность вероятности сообщения;
h – значение интервала квантования;
Um – порог ограничения сообщения.
(9.2)
Для третьего распределения плотность вероятности сообщения (3.1):
W3(x) =
Получаем:
H3(x) = (9.3)
H3(x) =
H3(x)=10,114
10. Расчет избыточности и информационной насыщенности сообщения.
(10.1)
(10.1) – формула для расчета информационной насыщенности сообщения
где - максимальная энтропия источника, достигаемая при распределении равномерной плотности вероятности ;
= 0,843 (10.2)
Следовательно,R избыточность может быть найдена:
(10.3)
11.Расчет производительности источника сообщения и канала связи.
Производительность источника сообщения находится по формуле:
(11.1)
Расчет отношения сигнал – шум через формул Шеннона:
(11.2)
В равенствах (11.1) и (11.2) в качестве верхней частоты спектра сообщения принята частота f0, так как такой прибор гарантирует некоррелированность отчетов сообщения х(t).
Следует иметь в виду, что в данном случае речь идёт о мощности шума в полосе частот, равной половине частоты дискретизации сообщения, и что при этом информация передаётся без искажений.
12. Выбор сложного сигнала для передачи информационного кода и синхронизации.
Достоинства сложных сигналов:
· Сложные сигналы обладают повышенной помехоустойчивостью по отношению к помехам с сосредоточенным спектром (узкополосным помехам);
· Так же сложные сигналы обладают повышенной разрешающей способностью, которая позволяет разделить сигналы при многолучевом распространении.
· Кроме того, использование сложного сигнала позволяет обеспечить синхронизацию устройства восстановления аналогового сообщения по принятому цифровому сигналу.
Нам необходимо выбрать два вида используемых сигналов с ОФМ. Один сигнал должен быть использован для синхронизации, второй – для передачи информационных символов.
(12.1) |
гдес и d – двоичные числа.
Сформируем информационную последовательность из 15 символов. Формула (12.1) примет вид:
(12.2) |
Начальное условие: d1 = 0, d2 = 0, d3 = 1, d4 = 1.
Мы получили информационную последовательность:
По этим данным строим структурную схему согласованного фильтра для синхроимпульса.
Рисунок 3. Структурная схема согласованного фильтра информационной последовательности
СФОИ – согласованный фильтр с еденичным импульсом.
Строим функцию корреляции для информационного импульса.
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
Σ | -1 | -3 | -2 | -3 | -3 | -4 | -1 |
Рисунок 4. Функция корреляции информационной последовательности
Сформируем синхропоследовательность из 15 символов. Формула
(12.3) |
Начальное условие: d1 = 0, d2 = 0, d3 = 1, d4 = 1.
Мы получили информационную последовательность:
По этим данным строим структурную схему согласованного фильтра для синхроимпульса.
Рисунок 5. Структурная схема согласованного фильтра синхропоследовательности
Строим функцию корреляции для синхроимпульса.
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
-1 | -1 | -4 | -2 | -3 | -1 | -2 |
Рисунок 6. Функция корреляции синхропоследовательности
(12.4) |
Начальное условие: d1 = 0, d2 = 0, d3 = 1, d4 = 1.
Строим функцию корреляции чужой последовательности для фильтра информационного импульса.
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
-1 | -5 | -8 |
Рисунок 7. Функция корреляции чужой последовательности для фильтра информационной последовательности
Строим функцию корреляции чужой последовательности для фильтра синхроимпульса.
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
* | |||||||||||||||
-1 | -3 | -2 | -1 | -8 | -1 |
Рисунок 8. Функция корреляции чужой последовательности для фильтра синхропоследовательности
Заключение.
В результате курсовой работы мы закрепили навыки по темам анализ систему передачи непрерывных сообщений цифровыми методами, расчет характеристик помехоустойчивости и других показателей качества передачи информации по каналу связи с помехами. Разработали структурную схему системы передачи непрерывного сообщения в цифровой форме.
По теореме Шеннона, если производительность источника сообщений меньше пропускной способности канала, то существует такая процедура кодирования и декодирования, при которой вероятность ошибочного декодирования будет меньше допустимой. Поэтому для повышения помехоустойчивости приема используется помехоустойчивое кодирование.
Заметим, что наилучший способ приёма - идеальный приёмник Котельникова - может быть реализован при сигнале, известном точно за исключением, в данном случае, факта: какой из двух возможных сигналов - S1 (t) или S2 (t) - присутствует на входе приёмника в данный момент времени. Помехоустойчивость приёмника, характеризуемая вероятностью ошибки рош, определяется только отношением его энергии к спектральной плотности помехи. Поэтому применение сложных сигналов не может дать выигрыша помехоустойчивости при помехе в виде широкополосного шума и сигнале, известном точно. Однако применение сложных сигналов позволяет получить целый ряд других преимуществ – повышение помехоустойчивости по отношению к помехам от других подобных систем связи, при действии узкополосных помех, многолучевом распределении сигнала и т.п. Кроме того, использование сложного сигнала позволяет обеспечить синхронизацию устройства восстановления аналогового сообщения по принятому цифровому сигналу.
Сведем в таблицу 1 результаты, полученные в ходе выполнения курсовой работы:
Таблица 1. Результаты расчетов:
Величина | Значение |
1. Значение пик-фактора H | 5,88 |
2. Значение частоты дискретизации Fд, Гц | |
3. Число разрядов двоичного кода Nр | |
4. Длительность импульса, мкс | |
5.Ширина спектра Δfc, кГц | 124,8 |
6. Расчёт энтропии Н3(x), бит/символ | 10,114 |
7. Информационная эффективностьIэф | 0,843 |
8. Избыточность R(x) | 0,157 |
9. Производительность источника сообщений Vn, бит/с | 18205,2 |
10. Требуемое значение отношения сигнал/шум для обеспечения пропускной способности канала связи | |
11. Требуемое отношение q2 при оптимальном когерентном приёме | 28,6 |
12. Требуемое отношение q2 при оптимальном некогерентном приёме | 32,36 |