Примітка: Знаходимо ентропію на елемент першої та другої підсистеми: , .
Розрахунково-графічна робота
з курсу «Теорія інформації»
Завдання 1
У алфавіті використовуються m букв: а) Скласти максимальну кількість повідомлень, комбінуючи по n букв у повідомленні, б) Яка кількість інформації припадає на один елемент таких повідомлень? в) Чому дорівнює кількість інформації на символ первинного алфавіту?
Варіант | |||||||||||||||||||||
m | |||||||||||||||||||||
n |
Завдання 2
Як визначити кількість інформації у одному повідомленні, якщо відомо максимально можлива кількість повідомлень N? Як визначити кількість інформації, якщо відома кількість якісних ознак n, з яких складені повідомлення, відома кількість символів m у кожному повідомленні, а також відомо кількість повідомлень k.
Примітка:Якщо повідомлення рівно ймовірні , то кількість інформації у одному повідомленні Якщо відома кількість якісних ознак та довжина повідомлень, то кілкість інформації у одному повідомленні , а у повідомленнях маємо , де k – кількість повідомлень.
Варіант | |||||||||||||||||||||
N | |||||||||||||||||||||
m | |||||||||||||||||||||
k |
Завдання 3
Алфавіт складається з символів: A, B, C, D... . Ймовірності появи літер вибрати самостійно. Визначити кількість інформації на символ повідомлення, що складається з такого алфавіту.
Варіант | |||||||||||||||||||||
m |
Примітка: Кількість інформації на символ абетки дорівнює ентропії обраного алфавіту. Через те, що символи алфавіту нерівно вірогідні, ентропію дорівнює:
Завдання 4
Число символів алфавіту m. Визначити кількість інформації на символ повідомлення, що складається з цього алфавіту: - якщо символи зустрічаються з рівними ймовірностями, - якщо символи алфавіту зустрічаються у повідомленні з різноймовірнимо (ймовірності вибираються самостійно):
Варіант | |||||||||||||||||||||
m |
Завдання 5
Чому дорівнює кількість інформації [в бітах] при отриманні 7 повідомлень рівномірного чотири розрядного трійкового (з основою 3) коду?
Примітка: пригадати та використати властивості логарифмів
Завдання 6
Повідомлення складені з рівноймовірного алфавіту, із змістом m якісних ознак. Чому дорівнює кількість символів n у прийнятому повідомленні, якщо відомо, що воно містить I бітів інформації. Чому дорівнює ентропія цього повідомлення.
Варіант | |||||||||||||||||||||
m | |||||||||||||||||||||
I |
Примітка: ,
Завдання 7
Чому дорівнює ентропія системи, яка складається з взаємозалежних підсистем, якщо:
1) кожна підсистема складається з елементів, кожний з яких з рівною вірогідністю може знаходитися у станах;
2) підсистема складається з елементів, підсистема - з елементів і так далі, підсистема - з елементів, кожен з них може з рівною ймовірністю знаходитись у станах;
3) кожна підсистема складається з різної кількості елементів, які з різною ймовірністю можуть знаходитись в одному зі станів.
(числові значення кількості взаємозалежних систем вибираються самостійно, але не більше 4, кількість елементів не більше 10, кількість станів не більше 4, ймовірності задаються самостійно)
Примітка: Знайдемо ентропію однієї підсистеми: . Визначимо ентропію окремих підсистем:
. Загальна ентропія системи дорівнює:
Знайдемо ентропію на один елемент підсистеми:
Знайдемо ентропію окремих підсистем:
Тоді загальна ентропія дорівнює сумі ентропій окремих підсистем:
Завдання 8
Визначити ентропію системи, складеної з двох підсистем. Перша підсистема складена з m елементів, кожен з яких може знаходитися у двох станах з ймовірностями які вибираються самостійно. Друга підсистема складена з n елементів, кожен з яких може знаходитися у трьох станах з ймовірностями які також вибираються самостійно. Оберіть ймовірності підсистем так, щоб їх сума була рівні одиниці.
Примітка: Знаходимо ентропію на елемент першої та другої підсистеми: , .
Ентропія першої підсистеми
Ентропія другої підсистеми
Загальна ентропія
Завдання 9
Визначити ентропію повідомлень з m літер, якщо загальна кількість літер в алфавіті дорівнює n і всі повідомлення рівно ймовірні.
Варіант | |||||||||||||||||||||
m | |||||||||||||||||||||
n |
Завдання 10
Визначити диференційну ентропію неперервного повідомлення, розподіленого за нормальним законом , якщо його середня потужність, в нормованих одиницях, дорівнює
Примітка:
Диференційна ентропія неперервного повідомлення:
Варіант | |||||||||||||||||||||
q |
Завдання 11
Вимірювана величина змінюється в межах від до і розподілена за законом рівноймовірності. Знайти диференційну ентропію величини , якщо відомо кількість нормованих одиниць.
Примітка:
Варіант | |||||||||||||||||||||
b |
Завдання 12
Джерело інформації генерує повідомлення з різноймовірних символів алфавіту , які розраховуються на основі ПІБ кожного студента. Обчислити ентропію джерела, його надмірність за умови взаємної незалежності символів і якщо відома кількість символів , а також його продуктивність де - час передачі інформації. Для студентів 1-10 в списку групи , для студентів 11-22 в списку групи - .
Примітка:
Спочатку необхідно розрахувати ймовірності появи символів у свому ПІБ:
Ентропія:
Надмірність джерела: , продуктивність джерела:
Завдання 13
На вході мережі, що передає сигнали, рівень потужності дорівнює , а на деякій відстані . Розрахувати послаблення сигналу у децибелах.
Варіант | |||||||||||||||||||||