Синтаксическая мера информации
Синтаксический аспект связан со способом представления информации вне зависимости от ее смысловых и потребительских качеств и рассматривает формы представления информации для ее передачи и хранения (в виде знаков и символов). Данный аспект необходим для измерения информации. Информацию, рассмотренную только в синтаксическом аспекте, называют данными.
Эта мера количества информации оперирует с обезличенной информацией, не выражающей смыслового отношения к объекту.
Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении.
Бит –минимальная единица количества информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза. Например, каждое бросание монеты дает нам информацию в 1 бит.
В цифровых ЭВМ информация представляется в виде набора бит, позволяющих описывать различную информацию.
Байт – основная единица измерения информации в ЭВМ.
1 байт = 8 битам.
Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Существуют производные единицы информации: килобайт (Кбайт, Кб), мегабайт (Мбайт, Мб), гигабайт (Гбайт, Гб), терабайт (Тбайт, Тб), петабайт (Пбайт, Пб).
1 Кб = 1024 байта = 210 (1024) байтов.
1 Мб = 1024 Кбайта = 220 (10242) байтов.
1 Гб= 1024 Мбайта = 230 (10243) байтов.
1 Тб= 1024 Гбайта = 240 (10244) байтов.
1 Пб = 1024 Тбайт = 250 (10245) байтов.
Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности (неполноту знаний), которая исчезает после получения сообщения в виде данного сигнала. Эту меру неопределенности в теории информации называют энтропией.
Случайность любого события заключается в том, что реализация того или иного исхода имеет некоторую степень неопределенности.
Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a. Мерой его неосведомленности о системе является некоторая функция H(a).
После получения некоторого сообщения b получатель приобрел дополнительную информацию Ib(a), уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b) неопределенность состояния системы стала Hb(a).
Тогда количество информации Ib(a) о системе, полученной в сообщении b, определится как Ib(a)=H(a)-Hb(a), т.е. количество информации измеряется уменьшением неопределенности состояния системы.
Иными словами, энтропия системы H(a) может рассматриваться как мера недостающей информации.
В частном случае, для системы, имеющей N возможных состояний, количество информации, может быть вычислено по формуле Шеннона:
i = - (p1*Log2p1+ p2*Log2p2+….+ pn*Log2pn) (1.3)
где, n – количество возможных событий,
p – вероятности отдельных событий.
Наиболее просто определить количество информации в случае, когда все исходы события могут реализоваться с равной долей вероятности. В этом случае для вычисления информации используется формула Хартли:
i = log2N(1.1)
где, i – количество информации,
N – множество сообщений.
Согласно этой формуле процесс получения информации рассматривается как выбор одного сообщения из конечного наперёд заданного множества N равновероятных сообщений, а количество информации i, содержащееся в выбранном сообщении, определяется как двоичный логарифм N.
Наиболее простую форму для формулы (1.1) можно представить следующим образом:
2I = N (1.2)
Пример_1: Из колоды выбрали 8 карт и положили на стол рисунком вниз. Верхнюю карту перевернули. Сколько информации будет заключено в сообщении о том, какая карта оказалась сверху?
Решение: Все карты одинаковы, поэтому любая из них могла быть перевернута с одинаковой вероятностью. Событие, заключающееся в открытии карты, для нашего случая могло иметь 8 возможных вариантов. Следовательно, информация о реализации одного из них равняется
I = log2 8 = 3 бита
Пример_2: Бросают монету. При броске может выпасть «орел» или «решка». Сколько информации будет заключено в сообщении о том, что выпал «орел» или «решка»?
Решение: Воспользуемся формулой Хартли. Для данной задачи N=2, следовательно, I = log2 2 = 1 бит.
Пример_3: Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке находится 50 белых, 25красных, 25 синих шариков
1) всего шаров 50+25+25=100
2) вероятности шаров 50/100=1/2, 25/100=1/4, 25/100=1/4
3)I= -(1/2 log21/2 + 1/4 log21/4 + 1/4 log21/4) = -(1/2(0-1) +1/4(0-2) +1/4(0-2)) = 1,5 бит
Пример_4: В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?
т.к. N = 16 шаров, то I = log2 N = log2 16 = 4 бит.