Лабораторная №1. «Энтропия. Свойства энтропии».

Лабораторный практикум

По курсу «Теория информации и кодирование»

Для студентов специальностей

351400 «Прикладная информатика (в экономике)»

220200 «Автоматизированные системы обработки информации и управления»

075500 «Комплексное обеспечение информационной безопасности автоматизированных систем»

Астрахань 2005

Авторы: Ефремов Н.М., к.ф.-м.н., доцент кафедры ПМК,

Лежнина Ю.А., ассистент кафедры ПМК

Сборник представляет собой методические указания к выполнению лабораторных работ, содержит необходимый теоретический материал, примеры, задания. Может быть использован для проведения лабораторных работ, а также для самостоятельной работы студентов.

Рецензент: зав. каф. ПМК проф. Попов Г.А.

Методические указания утверждены на заседании каф. ПМК

Содержание.

Содержание. 3

Общие требования к выполнению лабораторных работ. 4

Лабораторная №1. «Энтропия. Свойства энтропии». 5

Лабораторная работа №2. «Обработка алфавита введенного сообщения» 10

Лабораторная работа №3. «Оптимальное кодирование». 14

Лабораторная работа №4. «Код Хемминга». 19

Лабораторная работа №5. «Циклические коды». 22

Лабораторная работа №6. «Коды БЧХ». 27

Приложение. 32

Список литературы.. 36

Общие требования к выполнению лабораторных работ

Лабораторные работы выполняются на персональной ЭВМ с использованием языка программирования высокого уровня и заключаются в составлении программ, решающих определённый класс задач. Каждая программа должна обладать достаточным интерфейсом для удобства работы пользователя. В частности, это означает, что после запуска программы на каждом шаге работы пользователю должны быть даны чёткие указания или рекомендации по возможным вариантам его действий, а также необходимые комментарии промежуточных и окончательных результатов. При этом должна быть предусмотрена защита от неверного ввода с указанием на допущенную ошибку и приглашением повторить действие.

При отчёте о выполнении лабораторной работы студент должен:

показать в действии отлаженную программу, удовлетворяющую описанным выше требованиям; уверенно ориентироваться в алгоритме и самом тексте программы на языке высокого уровня; знать необходимый теоретический материал.

При выполнении конкретных лабораторных работ преподаватель может уточнить или дополнить требования, приведённые выше, также систему оценивания и поощрений.

Лабораторная №1. «Энтропия. Свойства энтропии».

Теоретическая часть

Определение 1.1. Вероятностной схемой Х называется

Х х1 х2 ... хn
Р р1 р2 ... рn

где х1, х2, …, хn- полная группа попарно несовместных событий, а р1, р2, …, рn – соответствующие вероятности.

Определение 1.2. Количеством информации, содержащимся в сообщении х, называется Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru . (Основание логарифма, если не оговорено противное, принимается равным 2.)

Определение 1.3. Энтропией вероятностной схемы Х, называется Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru .

Значение функции f(t) = t∙log t при t = 0 считаем равным нулю, доопределяя её в этой точке по непрерывности. Таким образом, эта функция определена, по крайней мере, на отрезке [0;1].

Пусть имеются две схемы Х и У

Х х1 х2 ... хn
Р р1 р2 ... рn
У у1 у2 ... уm
Р q1 q2 ... qm

Определение 1.4. Энтропией произведения вероятностных схем Х и У, называется

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Если схемы Х и У независимы, то энтропия произведения вероятностных схем равна сумме энтропий каждой схемы: Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru .

Определение 1.5. Условной энтропией вероятностной схемы У относительно схемы Х называется:

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru ,

где p(yj | xi) – условная вероятность события yj при условии, что получено сообщение xi.

Энтропия произведения и условная энтропия связаны между собой соотношениями:

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru .

ПРИМЕР

Задание. Событие А в каждом из n повторных независимых испытаний происходит с вероятностью р. Найти энтропию числа появлений события А. Составить соответствующую вероятностную схему. Выяснить характер изменения энтропии в зависимости от изменения р на промежутке [0;1] при значении n = 1, построив график соответствующей функции H(р). Определить её наименьшее и наибольшее значение.

Рассмотрим энтропию числа появлений события А в серии из n испытаний.

Если n=1 и Х- число появлений события А в серии из n испытаний, то

Х
Р q p

где q=1-p.

По определению 1.3, функция Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru . Построим график Н(р) (рис.1):

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Рис.1 График функции Н(р)

При р=0,5 функция Н(р) достигает максимума Н(0,5)=1, при р=0 или р=1 функция Н(р) достигает минимума Н(0)=Н(1)=0. Функция возрастает на промежутке [0;0,5] и убывает на отрезке [0,5;1].

Таким образом, наименьшее значение, равное нулю, энтропия рассматриваемой вероятностной схемы принимает при р=0 и при р=1, то есть в тех случаях, когда исход опыта с вероятностной схемой Х однозначно определён до его проведения. Наибольшее же значение, равное одному биту, энтропия данной схемы принимает только при р=0,5 , то есть в том случае, когда с равными вероятностями можно предполагать, что в результате испытания произойдёт или не произойдёт событие А, что соответствует наибольшей неопределённости исхода опыта с вероятностной схемой Х до его проведения. При приближении р к 0,5 , то есть с увеличением неопределённости, энтропия возрастает, а при приближении р к концам отрезка [0;1], то есть с уменьшением неопределённости, энтропия убывает. Следовательно, приведённые выше рассуждения подтверждают тезис о том, что энтропия является мерой неопределённости вероятностной схемы до проведения испытаний с ней.

практическая часть

1. Событие А в каждом из n повторных независимых испытаний происходит с вероятностью р. Найти энтропию числа появлений события А. Составить соответствующую вероятностную схему. Выяснить характер изменения энтропии в зависимости от изменения р на промежутке [0;1] при фиксированном значении n, построив график соответствующей функции H(р). Определить её наименьшее и наибольшее значение.(Значения параметра n задаются преподавателем.)

2. Событие А в каждом из независимых испытаний происходит с вероятностью р. Найти энтропию числа испытаний до первого появления события А. Составить соответствующую вероятностную схему. Выяснить характер изменения энтропии в зависимости от изменения р на промежутке (0;1], построив график соответствующей функции H(р). Определить её наименьшее и наибольшее значение.

3. В партии из n изделий имеется k (k ≤ n) стандартных. Наудачу отобраны m изделий (m ≤ n). Найти энтропию числа стандартных изделий среди отобранных. Выяснить характер изменения энтропии в зависимости от изменения k на промежутке [0; n] при фиксированных значениях n и m, построив график соответствующей функции H(k). Для этого при каждом значении k составить необходимую вероятностную схему. Определить наименьшее и наибольшее значение H(k). (Значения параметров n и m задаются преподавателем.)

4. Интенсивность простейшего потока событий равна λ. Найти энтропию числа событий из этого потока, появившихся за промежуток времени длительности t. Составить соответствующую вероятностную схему. Выяснить характер изменения энтропии в зависимости от изменения t на промежутке [0;5λ] при фиксированном значении λ, построив график соответствующей функции H(t). Определить её наименьшее и наибольшее значение.(Значения параметра λ задаются преподавателем.)

5. Интенсивность простейшего потока событий равна λ. Найти энтропию числа событий из этого потока, появившихся за промежуток времени длительности t. Составить соответствующую вероятностную схему. Выяснить характер изменения энтропии в зависимости от изменения λ на промежутке [0;3t] при фиксированном значении t, построив график соответствующей функции H(λ). Определить её наименьшее и наибольшее значение.(Значения параметра t задаются преподавателем.)

При выводе графика на экран должна быть тщательно прорисована система координат с обозначением и разметкой осей; показаны координаты экстремальных точек. Также аккуратно должны быть оформлены таблицы с вероятностными схемами.

Вопросы

1. Количество информации в сообщении; основные свойства.

2. Количество информации в сообщении относительно другого сообщения; основные свойства.

3. Энтропия, условная энтропия; основные свойства.

4. Взаимная информация вероятностных схем; основные свойства.

Лабораторная работа №2. «Обработка алфавита введенного сообщения»

Теоретическая часть.

Так как информацию можно рассматривать как неопределённость, снимаемую при получении сообщения, то можно дать следующее определение.

Определение 2.1. Пусть проводится k независимых испытаний с вероятностной схемой Х. Тогда количеством информации, которое несёт в себе сообщение о результатах этой серии опытов, называется Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru .

В частном, но с практической точки зрения очень важном, случае, когда вероятностная схема Х указывает вероятности появления символов алфавита от некоторого стохастического источника сообщений, причём буквы появляются независимо друг от друга, k интерпретируется как длина сообщения, полученного от данного источника, Н(Х) – среднее количество информации, которое несёт в себе одна буква достаточно длинного сообщения, I - количество информации, которое несёт в себе сообщение из k символов.

Для случая равновероятных и взаимно независимых m символов Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru .

Если схемы Х и У статистически зависимы, то возможно измерение количества информации о системе Х, которое дает наблюдение за системой У.

Определение 2.2. Количеством информации, которое несет схема У относительно схемы Х называется:

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Определение 2.3. Информационной избыточностью называется величина

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Частные виды избыточности.

1. Избыточность, обусловленная неравномерным распределением символов сообщения: Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

2. Избыточность, обусловленная статистической связью между символами сообщения:

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

3. Полная информационная избыточность: D=Dp+Ds– DpDs.

ПРИМЕР

Задание. Произвести статистическую обработку данного сообщения, считая, что источник сообщений периодически, достаточно долго выдаёт следующую последовательность символов 12342334551233. Определить энтропию, приходящуюся в среднем на одну букву и на одно двухбуквенное сочетание, количество информации, которое несёт в себе сообщение о получении первой буквы относительно второй. Найти длину кода при равномерном кодировании и избыточность.

Пусть имеется сообщение:

123423345512331234233455123312342334551233... .

Составим схему появления однобуквенных сочетаний:

Х
n
w Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Энтропия схемы Х равна

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Составим схему Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru появления двухбуквенных сочетаний

ХУ
n
w Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Энтропия, приходящаяся на одно двухбуквенное сочетание, составляет

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Количество информации, которое несет появление первой буквы о второй, найдем по определению 2.3:

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Найдем длину кода при равномерном кодировании однобуквенных сочетаний[1]:

m=5, Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

При этом возникает избыточность округления Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

Подсчитаем информационную избыточность:

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru , Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru ,

Лабораторная №1. «Энтропия. Свойства энтропии». - student2.ru

практическая часть

Составить программу, позволяющую вводить сообщение произвольной длины из файла и с клавиатуры с последующей статистической обработкой введённого текста. Статистическая обработка текста включает в себя: выделение букв(включая пробелы и знаки препинания) алфавита данного сообщения; подсчёт и выведение на экран частоты и относительной частоты появления этих букв и указанных их сочетаний в порядке убывания вероятности. Определить энтропию, приходящуюся в среднем на одну букву и на одно двухбуквенное сочетание, количество информации, которое несёт в себе сообщение о получении первой буквы относительно второй. Найти длину кода при равномерном кодировании и избыточность.

При выводе на экран в соответствующих таблицах должны присутствовать столбцы: номер по порядку; символ; частота; относительная частота.

Вопросы

  1. Вероятностная схема; произведение вероятностных схем.
  2. Количество информации в сообщении; основные свойства.
  3. Количество информации в сообщении относительно другого сообщения; основные свойства.
  4. Энтропия, условная энтропия; основные свойства.
  5. Взаимная информация вероятностных схем; основные свойства.

Наши рекомендации