Прагматическая мера информации

На прагматическом уровне интересуют последствия от получения и использования данной информации абонентом.

Проблемы этого уровня — это проблемы эффективности. Основная сложность здесь состоит в том, что ценность или потребительская стоимость информации может быть совершенно разной для различных получателей. Кроме того, она существенно зависит от истинности и прогностичности информации, своевременности ее доставки и использования. Высокие требования в отношении скорости доставки информации часто диктуются тем, что управляющие воздействия должны осуществляться в реальном масштабе времени, т. е. со скоростью изменения состояния управляемых объектов или процессов. Задержки в доставке или использовании информации могут иметь катастрофические последствия.

В направлении определения прагматического содержания информации предложен ряд количественных мер, которые еще недостаточно конструктивны, чтобы найти широкое практическое применение.

А.А. Харкевич предложил связать меру ценности информации с изменением вероятности достижения цели при получении этой информации:

Прагматическая мера информации - student2.ru

Качество информации

Качество информации – обобщенная положительная характеристика информации, отражающая степень ее полезности для пользователя.

Показатель качества – это характеристика отношения «информация – потребитель», одно из важных положительных свойств информации. С научной точки зрения показатель качества характеризует отношение «информация – отражаемый объект» (явление).

Полнота информации

Полнота информации — характеризует степень достаточности данных для принятия решения или создания новых данных на основе имеющихся. Полнота (достаточность) информации означает, что она обеспечивает принятие правильного (оптимального) решения. Неполный набор данных оставляет большую долю неопределенности, т.е. большое число вариантов выбора, а это потребует применения дополнительных методов, например, экспертных оценок, бросание жребия и т.п.. Избыточный набор данных затрудняет доступ к нужным данным, создает повышенный информационный шум, что также вызывает необходимость дополнительных методов, например, фильтрацию, сортировку. И неполный и избыточный наборы затрудняют получение информации и принятие адекватного решения.

Актуальность информации

Актуальность определяется степенью сохранения ценности информации в момент ее использования. Информация существует во времени, так как существуют во времени все информационные процессы. Информация, актуальная сегодня, может стать совершенно ненужной по истечении некоторого времени.

Доступность информации

Доступность информации — это возможность получения информации при необходимости. Доступность складывается из двух составляющих: из доступности данных и доступности методов. Отсутствие хотя бы одного дает неадекватную информацию.

Достоверность информации

Достоверность информации — это свойство, характеризующее степень соответствия информации реальному объекту с необходимой точностью.

Точность информации

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:

1. формальная точность, измеряемая значением единицы младшего разряда числа;

2. реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется;

3. максимальная точность, которую можно получить в конкретных условиях функционирования системы;

4. необходимая точность, определяемая функциональным назначением показателя.

Содержательность

Содержательность отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т.е. С= Ic / Vд.

С увеличением содержательности информации растет семантическая пропускная способность информационной системы (для получения одних и тех же сведений требуется преобразовать меньший объем данных).

Своевременность

Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.

В литературных источниках встречаются следующие показатели:

- адекватность, точность, корректность интерпретации, приема и передачи;

- адресность;

- готовность;

- дуализм;

- живучесть (способность сохранять свое качество с течением времени);

- защищенность и помехоустойчивость;

- значимость;

- идентичность;

- избирательность;

- интерпретируемость и понятность интерпретатору информации;

- информативность;

- кодируемость и экономичность (кодирования, актуализации сообщений);

- конфиденциальность;

- кумулятивность;

- массовость (применимость ко всем проявлениям);

- релевантность (способность соответствовать запросам потребителя);

- репрезентативность (правильность отбора информации в целях адекватного отражения источника информации);

- сжимаемость и компактность;

- скрытность;

- сохранность;

- уникальность (эталонная информация должна храниться в единственном экземпляре).

- устойчивость;

- целостность;

- ценность (предполагает достаточный уровень потребителя).

- эргономичность (удобство формы или объема с точки зрения потребителя);

- ясность (выразительность сообщений на языке интерпретатора);

Количество информации

Свойство полноты информации негласно предполагает, что имеется возможность измерять количество информации. Количеством информации называют числовую характеристику информации, отражающую ту степень неопределенности, которая исчезает после получения информации.

За единицу информации принимается один бит (англ. bit — binary digit — двоичная цифра). Это количество информации, при котором неопределенность, т.е. количество вариантов выбора, уменьшается вдвое. За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации. Но данная единица используется редко в компьютерной технике, что связано с аппаратными особенностями компьютеров.

Бит — слишком мелкая единица измерения информации. На практике чаще применяются более крупные единицы, например, байт, являющийся последовательностью из восьми бит.

Именно восемь битов, или один байт, используется для того, чтобы закодировать символы алфавита, клавиши клавиатуры компьютера. Один байт также является минимальной единицей адресуемой памяти компьютера, т.е. обратиться в память можно к байту, а не биту.

Широко используются еще более крупные производные единицы информации:

Прагматическая мера информации - student2.ru

Информация и энтропия

Клод Шеннон предложил вероятностный подход к пониманию коммуникаций и создал математическую теорию энтропии, исследуя проблему рациональной передачи информации через зашумлённый коммуникационный канал. Его идеи послужили основой разработки двух основных направлений:

- теории информации, которая использует понятие вероятности для изучения статистических характеристик данных и коммуникационных систем;

- теории кодирования, в которой используются алгебраические и геометрические методы для разработки эффективных кодов.

Значительный вклад в теорию информации внесли отечественные ученые А.Н. Колмогоров, А.А. Харкевич, В.А. Котельников, работы которых хорошо известны специалистам во всем мире.

Мера информации по Хартли

Впервые дать меру количества информации попытался в 1928 г. Р.Хартли.

Он исходил из того, что количественная мера информации должна согласовываться с интуитивным представлением о содержании информации в сообщении (сигнале).

Например, чем длиннее телеграмма, тем больше информации она обычно содержит.

Следовательно, мера информации должна монотонно возрастать с увеличением длительности сообщения (сигнала), которую естественно измерять числом символов в дискретном сообщении и временем передачи в непрерывном случае. Кроме того, на содержание количества информации должны влиять и статистические характеристики, так как сигнал должен рассматриваться как случайный процесс.

При этом Хартли наложил ряд ограничений:

1. рассматриваются только дискретные сообщения;

2. множество различных сообщений конечно;

3. символы, составляющие сообщения равновероятны и независимы.

Если алфавит, с помощью которого строятся сообщения, состоит из m символов, то количество всех возможных сообщений N длиной в k символов определяется:

N= mk ,

Пусть, например, алфавит состоит из трех символов: a, b, c и k=2. Тогда количество различных сообщений будет составлять N=32=9. Это будут aa, ab, ac, ba, bb, bc, ca, cb, cc. Если k=3 то мы уже получим N=33=27 различных сообщений. C увеличением длительности сообщений растет и количество информации.

Тогда количество информации

Прагматическая мера информации - student2.ru

Это формула меры информации по Хартли.

Основание логарифма определяет единицу измерения информации:

- в случае использования логарифма по основанию 2 единицей измерения информации является бит;

- в случае десятичного основания – дит;

- в случае использования натурального логарифма ( Прагматическая мера информации - student2.ru ), единицу измерения информации принято называть нат.

Мера информации по Шеннону

Клод Шеннон попытался снять те ограничения, которые наложил Хартли и учел вероятность появления символов в сообщении.

Формула Шеннона для определения количества информации:

Прагматическая мера информации - student2.ru ,

где Прагматическая мера информации - student2.ru - вероятность появления i-го символа в сообщении Прагматическая мера информации - student2.ru ; символы образуют полную группу событий, то есть, Прагматическая мера информации - student2.ru

Формула Хартли является частным случаем формулы Шеннона.

В самом деле, при равновероятных символах, то есть при pi=1/m формула Шеннона переходит в формулу Хартли: Прагматическая мера информации - student2.ru

Чтобы сообщения были равновероятными, необходимо, чтобы относительные частоты появления отдельных символов во всех возможных сообщениях были равны. При ограниченной длине сообщений это условие не выполняется. Но при достаточно длинных сообщениях условие равной вероятности возможных сообщений будет выполняться приближенно.

Формула Шеннона для количества информации на отдельный символ сообщения совпадает с энтропией.

Тогда количество информации сообщения состоящего из k символов будет равняться I=k*H.

Наши рекомендации