Моделі каналів передачі інформації. 1 страница
Вивчити за [1, гл. 3].
Додатково стосовно теми 1 рекомендується вивчити такі джерела:
[1, гл. 1…3] [8, р. 1]
Для повторення і закріплення матеріалу з теми 1 доцільно самостійно відповісти на такі контрольні питання
- Інформація
- Повідомлення
- Сигнал
- Структура систем ПІ; основні складові та їх роль.
- Результат перетворення повідомлення неелектричної природи в електричний сигнал.
- Як задається модель дискретного повідомлення без пам’яті?
- Як задається модель дискретного повідомлення з пам’яттю?
- Які ймовірності необхідно знати для опису джерела з пам’яттю?
- Як задається модель безперервного повідомлення?
- Що являється показником достовірності прийому дискретного повідомлення?
- Що являється показником якості прийому безперервного повідомлення?
- Як задається модель дискретного джерела з пам’яттю?
- Як задається модель дискретного джерела без пам’яті?
14. .Що собою являє та який має вигляд безперервний випадковий сигнал?
- Пояснити, що таке дискретизований сигнал
- Пояснити, що таке дискретний сигнал
- Що собою являє та який має вигляд квантований випадковий сигнал?
- Що собою являє та який має вигляд цифровий сигнал сигнал?
- Поясніть суть теореми Котельнікова.
- Сформулювати теорему Котельникова стосовно випадкових сигналів
- У чому полягають труднощі застосування теореми Котельникова по відношенню до реальних сигналів?
- Що треба здійснити перед дискретизацією для того, щоб реальний сигнал можна було перетворювати у відповідності до теореми Котельнікова?
- Поясніть процедуру відновлення безперервного процесу на основі його дискретних відліків.
- Як оцінити середній квадрат помилки дискретизації?
- Як знайти середній квадрат помилки, що виникає із-за обмеження спектру на вході АЦП?
- Квантування сигналів.
- Поясніть появу шуму при квантуванні.
- Як оцінити середній квадрат помилки квантування?
- Що таке норма сигналу?
- Визначити норму сигналу, заданого відліками S = 1,3,4,5
- Визначити метрику для випадку:
S1 = 0,1,4,5,
S2 = 1,2,2,1.
- Що таке метрика?
- Як визначити метрику сигналу для N-мірного лінійного простору?
- На що вказує величина косинусу кута між векторами сигналів?
- Як визначити метрику сигналу для функціонального простору?
- Що таке АКФ?
- Що таке коефіцієнт взаємної кореляції?
38. Що таке інтервал автокореляції.?
39. Що таке дисперсія?
- Що характеризує безперервне повідомлення як функцію часу?
- Що таке білий гаусівський шум
- Відобразити автокореляційну функцію БГШ
- Відобразити частотний спектр БГШ
44. Відобразити одномірну щільність розподілу ймовірності миттєвих значений БГШ.
45. Відобразіть рівномірну одномірну щільність розподілу ймовірностей миттєвих значень випадкового процесу.
46. Пояснити смисл теореми Вінера-Хінчина.
- Що таке об’єм сигналу?
- Що таке база сигналу?
- Що таке складний сигнал?
- Що таке простий сигнал?
- Яким чином може бути сформований складний сигнал?
- Що таке вузькосмуговий сигнал?
- Що таке шорокосмуговий сигнал?
54. Поясніть різницю між складним та широкосмуговим сигналом.
- Види модуляції при застосуванні гармонічного сигнала-носія.
- Види модуляції при застосуванні сигнала-носія у вигляді послідовності імпульсів.
- Що таке односмугова модуляція з частково подавленою несучою?
- Що таке безперервний канал
- Як визначаються математичні моделі дискретних каналів
- Про що свідчить відмінність від одиниці умовної ймовірності
- Про що свідчить рівність одиниці умовної ймовірності
- Що таке двійковий симетричний канал
- Що таке двійковий несиметричний канал
- Що таке канал з пам’яттю?
- Що таке канал без пам’яті?
- Що таке стаціонарний канал?
- Що таке нестаціонарний канал?
- Як описується вплив на сигнал лінійного каналу з параметрами, що змінюються,
69. Класифікація каналів за призначенням.
70. Класифікація каналів за частотою.
71. Класифікація каналів за видом сигналу на вході та виході.
72. Класифікація каналів за фізичною природою сигнала-носія.
73. Класифікація каналів за середовищем.
- Як довжина хвилі пов’язана з частотою?
- Що таке безперервний гаусовський канал; чим він відрізняється від ідеального каналу?
- Що таке гаусовський канал з випадковою початковою фазою?
- Що таке гаусовський канал з випадковою початковою фазою та випадковою амплітудою?
- Що таке гаусовський канал з лінійними спотвореннями?
- Що таке гаусовський канал з нелінійними спотвореннями?
- Що таке ємність каналу?
81. Які складові входять до дискретного каналу (на прикладі структурної схеми системи ПІ)?
- Що таке канал закритого типу?
- Що таке дротовий канал?
- Що таке хвильоводний канал?
- Що таке радіоканал?
- Що таке оптичний канал?
- Що таке інфрачервоний канал?
- Що таке радіорелейний канал?
- Що таке супутниковий канал?
- Що таке іоносферний канал, яку і чому він може забезпечувати дальність зв’язку?
- Що таке канал ДТР; яку і чому він може забезпечувати дальність зв’язку?
- Що таке метеорний канал?
- Що таке дальність прямої видимості та як вона визначається у оптичному діапазоні (або за межами атмосфери у радіодіапазоні)?
- Що таке дальність прямої видимості та як вона визначається у радіодіапазоні при наявності нормальної рефракції?
- Поясніть структуру супутникового каналу при застосуванні геостаціонарних ШСЗ.
- Поясніть структуру супутникового каналу при застосуванні високоеліптичних ШСЗ.
- Поясніть структуру супутникового каналу при застосуванні низькоорбітальних ШСЗ
- Що таке модем?
- Що таке кодек?
Здійснити розрахунки при розв’язанні таких задач.
1. Визначити інтервал дискретизації голосового сигналу, який поступає з виходу СТК і підлягає реєстрації у цифровій формі
2. Визначити інтервал дискретизації радіосигналу з середньою частотою 2 МГц, який застосовується для передачі первинного сигналу з шириною спектру 4 кГц.
3. Визначити необхідну розрядність АЦП (nАЦП)в системі, де оброблюється одно полярний сигнал, амплітуда якого може досягнути 2 В, допустима амплітуда шуму квантування складає 1,17мВ.
4. Визначити необхідну розрядність АЦП в системі, де оброблюється сигнал, амплітуда якого може приймати значення у межах від -1,5 до +1,5 В, середньостатистична амплітуда адитивного фонового шуму, який супроводжує сигнал,складає 25·10-3В.
5. Представити у десятирзрядному двійковому коді числа 1030 та 123 і визначити ступінь ортогональності цих двійкових повідомлень.
6. Яку форму АЧХ та частоту зрізу повинен мати фільтр на вході АЦП, якщо перетворенню у цифровий сигнал підлягає послідовність відеоімпульсів, мінімальна тривалість яких може становити 100мкс.
7. Викристовуючи векторне представлення сигналів довести ортогональність функцій Sin та Cos, взявши їх відліки на інтервалі 0…2π включно з кроком 0,25π.
8. Радіостанція метрового діапазону забезпечує можливість приймати її передачі на площі 5000км2 . Визначити висоту щогли, на якій знаходиться її антена.
9. На якій відстані у степовій місцевості спостерігач може побачити світло ліхтаря, який знаходиться на висоті 5м.
10. Визначити необхідну висоту щогл для розміщення антен радіорелейних станцій, що утворюють канал зв’язку довжиною 160 км; кількість проміжних станцій 3; всі щогли мають однакову висоту.
11. Доведіть розрахунками, що при ДТР може забезпечуватись зв’язок на відстані до 800км.
12. Які значення мають і як звуться частоти, довжина хвиль яких лежить у межах 10см…100см?
13. Розрахувати граничні довжини хвиль діапазонів низьких та ультрависоких частот і визначити у скільки разів відрізняється довжина хвилі цих діапазонів?
14. Як звуться хвилі діапазону частот 3...30 ГГц (…….кГц;……….МГц) (довести шляхом розрахунку)?
15. При використанні 8-ми разрядного АЦП здійснюється передача мовного сигналу, значення відліку якого дорівнює кількості літер у Вашому імені +200. Відобразити графічно процес передачі такого повідомлення із застосуванням ШІМ.
16. При використанні 10-ти розрядного АЦП здійснюється передача мовного сигналу, значення відліку якого дорівнює Вашому номеру у списку групи +100. Відобразити графічно процес передачі такого повідомлення із застосуванням ЧМ.
Вивчення теми 2.
При вивченнітеми 2 - інформаційні характеристики джерел повідомлень і каналів слід звернути увагу на такі основні визначення, поняття та теоретичні положення.
Порівняння різних систем, де створюється (виникає), зберігається або передається інформація, можливе при наявності деякої міри, що дозволяє оцінювати кількість інформації.
При розгляді інформаційних характеристик дискретних систем вважають, що на вході деякого блоку інформаційної системи можливі символи алфавіту аі А, де і=1,...m, а на виході – символи уj Y, де j=1,...n. Множини А та Y – ансамблі вхідних і вихідних повідомлень. Символи аі можуть перетворюватись у символи уj під впливом дії завад.
У найпростішому випадку символи аі взаємно незалежні. При цьому джерело, яке створює ансамбль повідомлень А, повністю можна описати сукупністю апріорних ймовірностей Р(аі), які і характеризують початкове незнання (невизначеність) про появу того чи іншого символу аі на вході системи, яка здійснює передачу інформації від джерела.
Завжди існує умовна імовірність Р(уj /ai) того, що між символами аі та уj нема однозначної відповідності, тобто існує імовірність переходу символу аі у будь–який символ уj. Знаючи Р(аі) та Р(yj/ai), легко знайти Р(аі /уj) - імовірність появи на вході блоку символу аі при умові, що на виході спостерігали символ уj . Це апостеріорні імовірності, що характеризують незнання, яке залишилось (невизначеність, що залишилася) про появу на вході системи символу ai при спостереженні символу уj на виході.
За кількість інформації про символ аі, яка міститься у символі уj, беруть деяку функцію імовірностей Р (аі) та Р(аі / уj):
I(ai; уj)= f (8)
У якості функції f зручно використовувати логарифм відношення
Р(аі / уj)/ Р (аі),
тобто
I(ai; уj)= . (9)
I(ai; уj) називають взаємною інформацією.
При такому представленні кількість інформації має властивість адитивності і симетрії. Із (9) витікає, що незалежні події не несуть одна про одну ніякої інформації.
У випадку, коли уj однозначно визначає аі (при Р(аі / уj)=1),
I(ai; уj)= I(ai)= = -log i) (10)
Величина І(аі) називається власною інформацією події аі. Це кількість інформації, яку доставляє подія аі. Чим менша імовірність події, тим більша її власна інформація. Власна інформація завжди позитивна, а взаємна може бути як позитивною, так і негативною.
Основою логарифму може бути будь-яке число. У техніці використовують основу 2 – тоді кількість інформації вимірюється у бітах.
У теоретичних розрахунках іноді зручно користуватися натуральним логарифмом – тоді одиницею виміру буденат.
Для практики більший інтерес представляє не взаємна інформація (9), а кількість інформації про множину А символів переданих, яка у середньому міститься у множині Y прийнятих символів. Тобто – середня кількість інформації на виході каналу (середня кількість інформації, доставленої отримувачу одним прийнятим символом).
I(A,Y)= . (11)
Це середня взаємна інформація, яка більша або дорівнює нулю. Останнє можливо при повній статистичній незалежності вхідної множини А та множини Y на виході каналу.
Середня власна інформація,відповідно, є
I(A)= . (12)
Вона характеризує кількість інформації, яка в середньому необхідна для визначення будь–якого символу із множини А.
Величину І(А) позначають Н(А) і називають ентропією дискретного джерела А. Ентропія є міра невизначеності символу до того, як він був прийнятий (тобто – кількість інформації, яку «виробляє» джерело). Ентропія позитивна величина, а в нуль вона перетворюється тоді, коли одна з імовірностей p(аi) дорівнює одиниці, а решта нулю. Це означає, що детермінована подія не містить інформації.
Для ентропії вірна нерівність
Н(А) . (13)
Із (13) витікає: при заданому алфавіті символів кількість інформації, яка у середньому міститься у одному символі, досягає максимуму тоді, коли усі символи рівноімовірні. Тоді Нmax=log m називають інформативною ємністю алфавіту.
Для двійкового джерела
Н(А)= - p log p - (1-p) log(1-p), (14)
де р - імовірність появи одного із символів.
Для такого джерела при р =1/2 і основі логарифму 2 отримуємо Нmax =1біт (двійкова одиниця кількості інформації).
Виходячи з (11) середню взаємну інформацію можна представити у такий спосіб
I(A;Y)=H(A) - H(A/Y), (15)
I(A;Y)=H(Y) - H(Y/A), (16)
I(A;Y)=H(A) + H(Y) - H(AY). (17),
де: H(A/Y) – середня кількість інформації, що втрачається в каналі, (ненадійність каналу);
H(Y/A) – шумова ентропія;
H(Y) – власна ентропія множини Y на виході каналу;
H(AY)) – ентропія об’єднання двох множин.
Середня взаємна та середня власна інформація вимірюється у біт/cимвол або біт/cтан.
Середня кількість інформації, що передається за одиницю часу, звєтьсяшвидкістю передачі інформації. Вимірюється вона у біт/c і визначається за формулою
I’(A;Y)= I(A;Y), (18)
де - Тс – тривалість сигналу, який використовують для передачі одного символу.
Величина
(19)
називається продуктивністю джерела (це середня кількість інформації, яку видає джерело у одиницю часу).
Максимальна кількість інформації, що передається у одиницю часу (за усіма багатомірними розподілами імовірності Р(А), які характеризують джерела),
С= max I (A;Y) (20)
називаєтьсяпропускною здатністю каналу. Вимірюється також у біт/c.
Вона може визначатися також в розрахунку на символ
Ссим= max I (A;Y). (21)
Вимірюється у біт/cимвол.
Швидкість передачі інформації не може перевищувати пропускну здатність.
Швидкість передачі інформації у m-ічному стаціонарному симетричному каналі без пам’яті, для якого перехідні ймовірності
p(уj/ ai ) = pпом/(m-1) при i ≠ j,
p(уj/ ai ) = 1 – pпом при i = j. (22)
де pпом – ймовірність помилкового прийому символу,
становить
I'(A;Y)= [Н(А)+(1- pпом)log(1- pпом)+ pпом log( )]. (23)
Пропускна здатність m-ічного симетричного каналу без пам’яті у розрахунку на один символ становить
Ссим=logm+(1- pпом)log(1- pпом)+ pпом log( ). (24)
Тоді пропускна здатність такого дискретного каналу у одиницю часу буде
СДК = [logm+(1- pпом)log(1- pпом)+ pпом log( )]. (25)
Для двійкового дискретного стаціонарного симетричного каналу без пам’яті (m=2)
CДДК = [1+(1- pпом) log (1- pпом) + pпом. log pпом]. (25а)
У реальних системах символи часто нерівноімовірні і залежні. Тому ентропія джерела Н(А) < Н . Відповідно кількість інформації, яку доставляє кожний символ, менша за максимальну у разів.
Наприклад, при незалежному використанні 32 літер алфавіту кожна з них доставляє log232=5 біт, але з урахуванням взаємозв’язку літер у тексті реальна ентропія літери у російській та українській мові не перевищує приблизно 3 біт.
Коли повідомлення складається із n символів, то кількість інформації у ньому дорівнює I= n H(A).При використанні алфавіту з максимальною ентропією для передачі такої ж кількості інформації потрібно
nmin= символів.
Відношення Н(А)/Hmax(A) = µ - коефіцієнт припустимого стиснення повідомлення.
Величина
R= 1 - µ =1 - (27)
називається надлишковістю джерела.
Економне (статистичне) кодування передбачає, що величина R наближається до нуля.
Теорема К. Шенонапро кодування у відсутності завад стверджує:
мінімальну середню кількість кодових символів, що припадають на один символ (стан) повідомлення, можна зробити як завгодно близькою до , де Н(А)- ентропія джерела, що складається із символів повідомлення, L- число символів кодового алфавіту.
Загальні правила економного кодування:
- у кожному із розрядів кодової комбінації різні символи алфавіту повинні використовуватись із рівними імовірностями;
- імовірність появи символів в кожному розряді кодового слова не повинна залежати від усіх попередніх символів.
При нерівноімовірних і незалежних символах ідея економного кодування полягає у тому, що символам, які зустрічаються часто, ставлять у відповідність короткі кодові комбінації, а менш імовірним – більш довгі. (Один з таких методів запропонували Р.М. Фано і К. Шенон ).
Теорема К. Шенона для дскретного джереланаголошує: якщо продуктивність джерела не перевищує пропускну здатність каналу, тобто H’(A) ≤ C, то існує хоча б одна процедура кодування і декодування, при якій ймовірність декодування та ненадійність каналу можуть бути скільки завгодно малими. Якщо H’(A) > C, то такої процедури не існує. Нажаль теорема лише вказує на принципову можливість такого кодування, але не дає конкретного способу кодування.
Інформаційні характеристики безперервних повідомлень і каналіввизначають знаючи щільності розподілу ймовірностей миттєвих значень відповідних процесів. Детально матеріал слід розглянути за [1, пп. 4.5…4.7] [8, р. 4], звернувши увагу на такі величини,як безумовна диференціальна ентропія, умовна диференціальна ентропія, епсилон-ентропіятаепсилон-продуктивність джерела. Принципово важливою характеристикоюбезперервного каналує йогопропускна здатність.
Для безперервного гаусовського каналу, який є складовою практично будь якої системи, вона оцінюється за формулою Шенона
СБК= (26)
де Δ k- смуга пропускання каналу,
Рс – потужність сигналу,
Рш – потужність шуму,
N0- спектральна щільність потужності білого гаусовського шуму.
Формула справедлива для каналу з адитивним білим гаусовським шумом і вказує на пряму залежність пропускної здатності безперервного каналу від смуги пропускання каналу та відношення потужності сигналу до потужності шуму.
При умові, що у наведених вище формулах логарифм береться за основою 2, пропускна здатність як дискретного, так і безперервного каналу у одиницю часу вимірюється у бітах на секунду (біт/c).
Теорема К. Шенона для безперервних повідомлень стверджує: якщо епсилон-продуктивність джерела при відомому критерії відповідності ε02 не перевищує пропускну здатність каналу, тобто Hε(A(t)) ≤ Cбк, то існує спосіб кодування і декодування, при якому похибка відтворення повідомлення може бути скільки завгодно близькою до ε02. Якщо Hε(A(t)) > Cбк, то такого способу не існує.
Додатково стосовно теми 2 вивчити такі джерела:
[1, гл. 4] [8, р. 2…4]
Для повторення і закріплення матеріалу з теми 2 доцільно самостійно відповісти на такі контрольні питання.
1. Кількість інформації і невизначеність.
2. Вимоги до міри кількості інформації.
3. Одиниці вимірювання кількості інформації.
4. Взаємна інформація дискретних повідомлень.
5. Довести властивість взаємності інформації.
6. Ентропія і надмірність повідомлень.
7. Ентропія джерела дискретних повідомлень.
8. Властивості ентропії.
9. Максимальна ентропія.
10. Середня взаємна інформація дискретних повідомлень.
11. Інформаційна продуктивність джерела.
- Умовна середня взаємна інформація дискретних повідомлень
13. Умовна ентропія джерела дискретних повідомлень.
14. Інформаційні характеристики двійкового джерела.
15. Середня взаємна інформація на виході двійкового каналу.
16. Швидкість передачі інформації по дискретному каналу.
17. Пропускна здатність дискретного каналу з завадами.
18. Пропускна здатність ідеального дискретного каналу.
19. Теорема Шеннона про кодування для дискретного джерела і каналу.
20. Що таке надмірність джерела?
21. На що вказує і в яких межах змінюється коефіцієнт стиснення?
22. Смисл економного кодування.
23. Метод Фано-Шеннона.
24. Що мають загального і чим відрізняються інформація і повідомлення, повідомлення і інформація, інформація і сигнал?
25. Взаємна інформація безперервних повідомлень.
26. Диференціальна ентропія безперевної випадкової величини.
27. Умовна диференціальна ентропія.
28. Епсилон-ентропія джерела.
29. Прикладне значення эпсилон-ентропії.
30. Епсилон-продуктивність джерела.
31. Узгодження джерел і каналів.
32. Пропускна здатність безперервного каналу з нескінченною смугою пропускання.
33. Пропускна здатність безперервного гаусовского каналу із завадами.
34. Теорема Шеннона про кодування для безперервного джерела і каналу.
- Як виглядає формула Шеннона для пропускної здатності безперервного каналу? При яких умовах вона справедлива і що означають величини, які там враховані?
- Що відбудеться з пропускною здатністю безперервного каналу, якщо температура середовища та приймача зросте при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо шум при фіксованій його дисперсії стане відмінний від БГШ за розподілом. Інші параметрів системи залишаюьтся незмінними? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо щільність ймовірності сигналу стане відмінною від нормального закону при фіксованій його дисперсії і незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо спектральна густина потужності шуму зросте при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо спектральна густина потужності шуму зменшиться при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо енергія сигналу зменшиться при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо енергія сигналу зросте при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо ширина спектру сигналу і смуга каналу зменшаться при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо ширина спектру сигналу і смуга каналу збільшаться при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо ширина спектру сигналу збільшиться, а смуга пропускання каналу та інші параметри системи не зміняться? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо ширина спектру сигналу зменшиться, а смуга пропускання каналу та інші параметри системи не зміняться? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо смуга пропускання каналу збільшиться при незмінних інших параметрах системи і ширині спектру сигналу? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо смуга пропускання каналу зменшиться при незмінних інших параметрах системи і ширині спектру сигналу? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо відстань між абонентами збільшиться при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо відстань між абонентами зменшиться при незмінних інших параметрах системи? Пояснити причини.
- Що відбудеться з пропускною здатністю безперервного каналу, якщо температура середовища та приймача зменшиться при незмінних інших параметрах системи? Пояснити причини.