Логарифмом числа а по основанию b называется показатель степени, в которую надо возвести число a, чтобы получить число b
a logab = b, a > 0, b > 0, a ≠ 1
Вычисление логарифмов чисел по основанию 2 с помощьюэлектронного калькулятора
log 2 6 = log 6 / log 2, где log 6 и log 2 – десятичные логарифмы
Программа вычисления логарифма числа 6 по основанию 2 ( log 2 6 ) с помощью инженерного калькулятора: 6, log, / , 2, log, =
Количество информации в случае различных вероятностей событий определяется по формуле:
Формула Шеннона: (американский учёный, 1948 г.)
где Pi – вероятность i-го события, N – количество возможных событий
Задача.В озере живут караси и окуни. Подсчитано, что карасей 1500, а окуней - 500. Сколько информации содержится в сообщениях о том, что рыбак поймал карася, окуня, поймал рыбу?
Решение.
События поимки карася или окуня не являются равновероятными, так как окуней в озере меньше, чем карасей.
Общее количество карасей и окуней в пруду 1500 + 500 = 2000.
Вероятность попадания на удочку карася
p1 = 1500/2000 = 0,75, окуня p2 – 500/2000 = 0,25.
I1 = log2(1/p1), I1 = log2(1/p2), где I1 и I2 – вероятности поймать карася и окуня соответственно.
I1 = log2(1 / 0,75) » 0,43 бит, I2 = log2(1 / 0,25) » 2 бит – количество информации в сообщении поймать карася и поймать окуня соответственно.
Количество информации в сообщении поймать рыбу (карася или окуня) рассчитывается по формуле Шеннона
I = - p1log2p1 - p2log2p2
I = - 0,75*log20,75 - 0,25*log20,25 = - 0,75*(log0,75/log2)-0,25*(log0,25/log2) =
= 0,604 бит » 0.6 бит.
Ответ: в сообщении содержится 0,6 бит информации
Отчет
Отчет должен быть оформлен в текстовом редакторе и содержать:
¾ наименование работы;
¾ цель работы;
¾ задание;
¾ последовательность выполнения работы;
¾ ответы на контрольные вопросы;
¾ вывод о проделанной работе.
Контрольные вопросы
1. Какое количество информации несет в себе жесткий диск емкостью 4 терабайта, если производитель рассчитывает 1000 за 1024?
2. Чем отличается вероятностный подход к измерению информации от алфавитного?
3. Какие единицы измерения информации используют для флэш-накопителей?
Практическое занятие № 3
Тема программы: Способы измерения информации.
Тема: Скорость передачи информации.
Цель: научиться измерять и вычислять скорость передачи информацию.
Время выполнения: 2 часа
Оборудование: ПК.
Раздаточный материал: дидактический материал
Программное обеспечение: операционная система, текстовый редактор.
Теоретические основы
Скорость передачи информации определяется количеством элементов двоичной информации,, передаваемых за 1 с. В синхронной передачи данных по коммутируемым каналам рекомендуется использовать скорости из следующего ряда: 600, 1200, 2400, 4800, 9600 бит/с. Для асинхронной передачи по коммутьируемым каналм рекомегндуется скорость 300 бит/с.
В синхронной передачи данных по арендованным каналам рекомендуется использовать скорости из следующих рядов:
а) предпочтительные: 600, 1200, 2400, 4800, 9600, 14400 бит/с;
б) дополнительные: 3000, 6000, 7200, 12000 бит/с;
в) допустимого диапазона: Nx600 бит/с (1<=N<=24)
Следует отличать скорость передачи информации от модуляционной (линейной) скорости, измеряемой в Бодах (количество элементов модулированного сигнала, передаваемого за 1 с). Для простых видов модуляции скорость передачи информации совпадает с модуляционной скоростью.
При синхронной передаче скорость должна отличаться от номинального значения не более, чем на 0,01%, а при асинхронной – не более, чем на 2,5%.
Оба компьютера, как правило, могут одновременно обмениваться информацией в обе стороны. Этот режим работы называется полным дуплексным.
Дуплексный режим передачи данных – режим, при котором передача данных осуществляется одновременно в обоих направлениях.
В отличие от дуплексного режима передачи данных, полудуплексный подразумевает передачу в каждый момент времени только в одном направлении.
Кроме собственно модуляции и демодуляции сигналов модемы могут выполнять сжатие и декомпрессию пересылаемой информации, а также заниматься поиском и исправлением ошибок, возникнувших в процессе передачи данных по линиям связи.
Одной из основных характеристик модема является скорость модуляции (modulation speed), которая определяет физическую скорость передачи данных без учета исправления ошибок и сжатия данных. Единицей измерения этого параметра является количество бит в секунду (бит/с), называемое бодом.
Любой канал связи имеет ограниченную пропускную способность (скорость передачи информации), это число ограничивается свойствами аппаратуры и самой линии (кабеля).
Объем переданной информации вычисляется по формуле Q=q*t, где q – пропускная способность канала (в битах в секунду), а t – время передачи
Пример 1. Скорость передачи данных через ADSL-соединение равна 128000 бит/c. Через данное соединение передают файл размером 625 кбайт. Определить время передачи файла в секундах.
Решение:
1) выделим в заданных больших числах степени двойки и переведем размер файла в биты, чтобы «согласовать» единиц измерения:
128000 бит/c = 128 · 1000 бит/с = 27 · 125 · 8 бит/с = 27 · 53 · 23 бит/с = 210·53 бит/с
625 кбайт = 54 кбайт = 54 · 213 бит.
2) чтобы найти время передачи в секундах, нужно разделить размер файла на скорость передачи:
t=(54 · 213)бит / 210·53 бит/с = 40 с.
Ответ: 40 с .
Пример 2. Скорость передачи данных через ADSL-соединение равна 512000 бит/c. Передача файла через это соединение заняла 1 минуту. Определить размер файла в килобайтах.
Решение:
1) выделим в заданных больших числах степени двойки; переведем время в секунды (чтобы «согласовать» единицы измерения), а скорость передачи – в кбайты/с, поскольку ответ нужно получить в кбайтах:
1 мин = 60 с = 4 · 15 с = 22 · 15 с
512000 бит/c = 512 · 1000 бит/с = 29 · 125 · 8 бит/с = 29 · 53 · 23 бит/с = 212 · 53 бит/с = 29 · 53 бит/с = (29 · 53) / 210 кбайт/с = (53 / 2) кбайт/с
2) чтобы найти объем файла, нужно умножить время передачи на скорость передачи:
Q=q*t = 22 · 15 с *(53 / 2) кбайт/с = 3750 кбайт
Ответ: 3750 кбайт.
Пример 3. C помощью модема установлена связь с другим компьютером со скоростью соединения 19200, с коррекцией ошибок и сжатием данных.
а) Можно ли при таком соединении файл размером 2,6 килобайт передать за 1 секунду? Обоснуйте свой ответ.
б) Всегда ли при таком соединении файл размером 2,3 килобайт будет передаваться за 1 секунду? Обоснуйте свой ответ.
в) Можно ли при таком соединении оценить время передачи файла размером 4 Мб? Если можно, то каким образом?
Решение:
а) Для начала узнаем, какое количество килобайт мы можем передать за 1 секунду: 19200/1024/8 = 2,3 (Кбайт). Следовательно, если бы не было сжатия информации, то данный файл за одну секунду при данной скорости соединения было бы невозможно передать. Но сжатие есть, 2.6/2.3 < 4, следовательно, передача возможна.
б) Нет не всегда, так как скорость соединения это максимально возможная скорость передачи данных при этом соединении. Реальная скорость может быть меньше.
в) Можно указать минимальное время передачи этого файла: 4*1024*1024/4/19200, около 55 с (столько времени будет передаваться файл на указанной скорости с максимальной компрессией). Максимальное же время передачи оценить вообще говоря нельзя, так как в любой момент может произойти обрыв связи.
Практические задания
Задание 1. Решите задачу о передаче информации с помощью модема.
Вариант 1 | Скорость передачи данных через АDSL-соединение равна 512000 бит/с. Через данное соединение передают файл размером 1500 Кб. Определите время передачи файла в секундах. |
Вариант 2 | Скорость передачи данных через АDSL-соединение равна 1024000 бит/с. Через данное соединение передают файл размером 2500 Кб. Определите время передачи файла в секундах. |
Вариант 3 | Скорость передачи данных через АDSL-соединение равна 1024000 бит/с. Передача файла через данное соединение заняла 5 секунд. Определите размер файла в килобайтах. |
Вариант 4 | Скорость передачи данных через АDSL-соединение равна 512000 бит/с. Передача файла через данное соединение заняла 8 секунд. Определите размер файла в килобайтах. |
Задание 2. Решите задачу о передаче графической информации.
Вариант 1 | Определите скорость работы модема, если за 256 с он может передать растровое изображение размером 640х480 пикселей. На каждый пиксель приходится 3 байта. |
Вариант 2 | Сколько секунд потребуется модему, передающему информацию со скоростью 56 000 бит/с, чтобы передать цветное растровое изображение размером 640 х 480 пикселей, при условии, что цвет каждого пикселя кодируется тремя байтами? |
Вариант 3 | Определите скорость работы модема, если за 132 с он может передать растровое изображение размером 640х480 пикселей. На каждый пиксель приходится 3 байта. |
Вариант 4 | Сколько секунд потребуется модему, передающему информацию со скоростью 28800 бит/с, чтобы передать цветное растровое изображение размером 640 х 480 пикселей, при условии, что цвет каждого пикселя кодируется тремя байтами? |
Отчет
Отчет должен быть оформлен в текстовом редакторе и содержать:
¾ наименование работы;
¾ цель работы;
¾ задание;
¾ последовательность выполнения работы;
¾ ответы на контрольные вопросы;
¾ вывод о проделанной работе.
Контрольные вопросы
1. Дайте определение пропускной способности (передача информации)?
2. В чем измеряется пропускная способность?
3. Зависит ли скорость передачи информации от объема передаваемой информации?
Практическое занятие № 4
Тема программы: Способы измерения информации.
Тема: Поиск энтропии случайных величин.
Цель: научиться вычислять энтропию случайной величины.
Время выполнения: 2 часа
Оборудование: ПК.
Программное обеспечение: операционная система, калькулятор, текстовый редактор.
Теоретические основы
Энтропия в теории информации — мера хаотичности информации, неопределённость появления какого-либо символа первичного алфавита. При отсутствии информационных потерь численно равна количеству информации на символ передаваемого сообщения.
Так, возьмём, например, последовательность символов, составляющих какое-либо предложение на русском языке. Каждый символ появляется с разной частотой, следовательно, неопределённость появления для некоторых символов больше, чем для других. Если же учесть, что некоторые сочетания символов встречаются очень редко, то неопределённость ещё более уменьшается (в этом случае говорят об энтропии n-ого порядка. Концепции информации и энтропии имеют глубокие связи друг с другом, но, несмотря на это, разработка теорий в статистической механике и теории информации заняла много лет, чтобы сделать их соответствующими друг другу.
Энтропия независимых случайных событий x с n возможными состояниями (от 1 до n) рассчитывается по формуле:
Эта величина также называется средней энтропией сообщения. Величина называется частной энтропией, характеризующей только i-e состояние.
Таким образом, энтропия события x является суммой с противоположным знаком всех произведений относительных частот появления события i, умноженных на их же двоичные логарифмы (основание 2 выбрано только для удобства работы с информацией, представленной в двоичной форме). Это определение для дискретных случайных событий можно расширить для функции распределения вероятностей.
Шеннон вывел это определение энтропии из следующих предположений:
§ мера должна быть непрерывной; т. е. изменение значения величины вероятности на малую величину должно вызывать малое результирующее изменение энтропии;
§ в случае, когда все варианты (буквы в приведенном примере) равновероятны, увеличение количества вариантов (букв) должно всегда увеличивать полную энтропию;
§ должна быть возможность сделать выбор (в нашем примере букв) в два шага, в которых энтропия конечного результата должна будет является суммой энтропий промежуточных результатов.
Шеннон показал, что любое определение энтропии, удовлетворяющее этим предположениям, должно быть в форме:
где K — константа (и в действительности нужна только для выбора единиц измерения).
Шеннон определил, что измерение энтропии (H = − p1 log2 p1 − … − pn log2 pn), применяемое к источнику информации, может определить требования к минимальной пропускной способности канала, требуемой для надежной передачи информации в виде закодированных двоичных чисел. Для вывода формулы Шеннона необходимо вычислить математическое ожидания «количества информации», содержащегося в цифре из источника информации. Мера энтропии Шеннона выражает неуверенность реализации случайной переменной. Таким образом, энтропия является разницей между информацией, содержащейся в сообщении, и той частью информации, которая точно известна (или хорошо предсказуема) в сообщении. Примером этого является избыточность языка — имеются явные статистические закономерности в появлении букв, пар последовательных букв, троек и т.д.
В общем случае b-арная энтропия (где b равно 2,3,... ) источника = (S,P) с исходным алфавитом S = {a1, …, an} и дискретным распределением вероятности P = {p1, …, pn} где pi является вероятностью ai (pi = p(ai)) определяется формулой:
Определение энтропии Шеннона очень связано с понятием термодинамической энтропии. Больцман и Гиббс проделали большую работу по статистической термодинамике, которая способствовала принятию слова «энтропия» в информационную теорию. Существует связь между понятиями энтропии в термодинамике и теории информации. Например, демон Максвелла также противопоставляет термодинамическую энтропию информации, и получение какого-либо количества информации равно потерянной энтропии.
СВОЙСТВА ЭНТРОПИИ
1.Энтропия является вещественной и неотрицательной величиной.
2.Энтропия – величина ограниченная.
3.Энтропия обращается в нуль лишь в том случае, если вероятность одного из состояний равна единице; тогда вероятности всех остальных состояний, естественно, равны нулю. Это положение соответствует случаю, когда состояние источника полностью определено.
4.Энтропия максимальна, когда все состояния источника равновероятны.
5. Энтропия источника и с двумя состояниями u1 и u2 изменяется от нуля до единицы, достигая максимума при равенстве их вероятностей:
р(и1) = р= р(u2) = 1 — р = 0,5.
6.Энтропия объединения нескольких статистически независимых источников информации равна сумме энтропии исходных источников.
7. Энтропия характеризует среднюю неопределенность выбора одного состояния из ансамбля. При ее определении используют только вероятности состояний, полностью игнорируя их содержательную сторону. Поэтому энтропия не может служить средством решения любых задач, связанных с неопределенностью.
8. Энтропия как мера неопределенности согласуется с экспериментальными данными, полученными при изучении психологических реакций человека, в частности реакции выбора. Установлено, что время безошибочной реакции на последовательность беспорядочно чередующихся равновероятных раздражителей (например, загорающихся лампочек) растет с увеличением их числа так же, как энтропия. Это время характеризует неопределенность выбора одного раздражителя. Замена равновероятных раздражителей неравновероятными приводит к снижению среднего времени реакции ровно настолько, насколько уменьшается энтропия.
Дифференциальной энтропией случайной величины X называется величина:
HД(x)=H(x)-H(y)= -
Если произвести квантование случайных величин Х1, Х2…Хn по уровню с числом уровней квантования равным m , то возможное число реализаций длительностью Тn станет конечным и равным М = тn.
Каждая из реализаций С1, С2,….Сi,…Сm будет иметь определенную вероятность появления в эксперименте по наблюдению реализаций. Тогда неопределенность (энтропия) и количество информации в реализации (в среднем по всем реализациям) определяются равенством
Энтропия и количество информации на одну степень свободы (на одну выборку) равны
Избыточностьпоказывает, какая доля максимально возможной при заданном объеме алфавита неопределенности не используется источником.
=(Hmax-Hu)/Hmax ,
Где Нu – энтропия рассматриваемого источника, Нmax – максимально возможное значение его энтропии, которое может быть достигнуто подбором распределения и ликвидацией взаимозависимости элементов алфавита. Так, для дискретного источника с М элементами
Hmax=log M
Выполнение расчетных задач
Задача №1
Доказать, что H(x,y)≤H(x)+H(y).
Решение:
По определению, .
Для статистически зависимых событий .
- это частная энтропия Y при условии, что известно состояние X=xi.
Наличие информации о состоянии X не может увеличить неопределенность состояния Y, но может уменьшить его в случае зависимости Y от X. Значит, условная энтропия не больше безусловной энтропии , то есть . Тогда средняя условная энтропия ,
то есть .
Значит,
Задача №2
Показать, что для регулярной марковской цепи энтропия H(x)(r) за r шагов равняется энтропии за один шаг, умноженной на число шагов r.
Решение:
Регулярная цепь Маркова полностью характеризуется матрицей переходных вероятностей и предельным стационарным распределением вероятностей состояний .
В стационарном режиме энтропия за один шаг не зависит от номера шага и равна ,
- стационарная вероятность k-го состояния,
- энтропия в k-м состоянии.
Энтропия за r шагов равна сумме энтропий за каждый шаг. Так как энтропия за каждый шаг одинакова, то сумма энтропий равна .
Задача №3
Вычислить энтропию Hд(x) распределения px(x) изображенного на рисунке.
Построить график зависимости Hд(x) в функции параметра d.
Ответ:
Решение:
Из условия нормировки .
Плотность данного распределения
Дифференциальная энтропия
.
Задача 4
В результате полной дезорганизации управления m самолетов летят произвольными курсами. Управление восстановлено, и все самолеты взяли общий курс со среднеквадратической ошибкой отклонения от курса σ=30. Найти изменение энтропии, считая, что в первом случае имело место равномерное распределение вероятностей углов, а во втором случае – нормальное.
Ответ: 4.86 бита
Решение.
Начальное распределение вероятностей углов курсов самолетов равномерное в интервале от до с плотностью вероятности .
Дифференциальная энтропия этого распределения
бит.
Конечное распределение вероятностей углов курсов самолетов нормальное с параметрами и плотностью вероятности .
Дифференциальная энтропия этого распределения
Изменение энтропии бит.
Энтропия уменьшилась на 4,86 бит.
Задача 5
Измерительное устройство вырабатывает временные интервалы, распределенные случайным образом в пределах от 100 до 500 мс. Как изменится энтропия случайной величины при изменении точности измерения с 1 мс до 1 мкс?