Известно, что количественной мерой устранения неопределенности (энтропии), или мерой организации системы, в математике и кибернетике является информация, представляющая собой совокупность сведений о некоторой физической системе. Получение или недостаток информации всегда связан с уменьшением или увеличением разнообразия или неопределенности. Леон Бриллюэн в своей работе [73] отмечал, что недостаток информации увеличивает число взаимоисключающих возможных состояний системы, т.е. увеличивает энтропию. Кроме того, как считают авторы [74, с.56]: «по определению К. Шеннона, информация есть мера того количества неопределенности, которая уничтожается после получения сообщения. …при получении информации степень недетерминированности системы уменьшается: информация эффективно воздействует на процесс раскрытия неопределенности в системе».
Предположим, что ЛПР оценивает вероятность реализации множества возможных состояний S j-го перегона на расчетный срок tP как p1, p2, …, pn.
(3.2)
где – вероятность того, что система примет состояние Si, .
По мнению Е.С. Вентцель [75], в качестве меры априорной неопределенности системы (или прерывной случайной величины S) в теории информации применяется специальная характеристика, называемая энтропией.
В данной монографии под энтропией, или степенью неопределенности, понимается возможность исследуемой системы (мультимодального коридора – на макроуровне и МТЗ – на микроуровне), оказаться случайным образом в том или ином состоянии.
Энтропия технического состояния j-го перегона определяется по формуле:
(3.3)
Энтропия системы Н(S) минимальна, т.е. равна нулю, в случае, если в точности известно заранее состояние системы. В этом случае все вероятности p1, p2, …, pn в формуле (3.3) обращаются в нуль, кроме одной, например pk, которая равна единице. Член обращается в нуль, так как log 1 = 0.
Энтропия системы достигает максимума, когда все состояния равновероятны , максимальная энтропия системы равна
. (3.4)
В данной работе принимается, что железнодорожное направление (МТЗ) – это сложная система, состояния которой представляют собой все возможные комбинации состояний каждого перегона. Она состоит из независимых систем – перегонов, которые принимают свои состояния независимо один от другого.
В этом случае для определения энтропии сложной системы можно использовать теорему сложения энтропий, которая при m перегонах принимает вид
. (3.5)
Таким образом, методику для определения энтропии исследуемой системы (рис. 3.3 и 3.4) представим в виде следующих действий:
1. Выделить дискретные величины возможных состояний системы Si во всем диапазоне ее изменения: S1, S2, … Sn и переменные величины, определяющие интересующую систему.
2. Оценить вероятность их реализации p1, p2, …, pn на расчетный срок tP.
3. Определить энтропию системы Н по формуле (3.3).
4. Оценить полученное значение Н, используя процедуру максимизации энтропии, т.е. определить относительную энтропию (коэффициент сжатия информации) по формуле [76]
(3.6)
Относительная энтропия определяет степень информационной загруженности системы по отношению к возможной максимальной нагрузке. Кроме того, относительная энтропия, как и рассмотренная ниже избыточность, может характеризовать степень близости закона распределения к равномерному.
5. Определить избыточность, показывающую, «какая доля или процент передаваемой информации является избыточной» [76]. В данном исследовании под избыточностью понимается некая доля имеющегося объема информации о системе, которая может быть выражена либо в долях (3.7), либо в процентах:
(3.7)
6. Провести разведочный информационный анализ, рекомендуемый в [77] для выбора характеристики исследуемой системы в зависимости от величины избыточности. В табл. 3.2. изложены рекомендации, приведенные в [78].
Форма представления исходной информации |
Вероятностно-определенная |
Вероятностно-определенная |
Рис. 3.3. Взаимосвязь формы представления информации и
выбора характеристики системы
Сбор исходных данных и их обработка |
Выделяются дискретные величины возможных состояний системы Si (определяющие интересующую систему) во всем диапазоне ее изменения, S1, S2, …Sn. |
Определение диапазона возможного изменения технического состояния |
Назначение множества технических состояний и «степень возможности» каждого из них |
Энтропия технического состояния |
Относительная энтропия |
Избыточность информации |
Разведочно -информационный анализ |
Вероятностно-определенная |
Nmax - максимально возможная пропускная способность, зависящая от основных параметров объекта. Nmin - пропускная способность, полученная с учетом всех видов возможных отказов, обеспечивающая освоение потребных объемов перевозок на текущий момент времени |
– энтропия ТС для j-го перегона – для ж.д. направления |
Сбор первичной статистической информации о состоянии элементов |
Определяет степень информационной загруженности системы по отношению к возможной максимальной нагрузке ; n – количество возможных состояний в диапазоне {Nmin, Nmax} |
Показывает, какая доля или процент передаваемой информации является избыточной |
Рис. 3.4. Алгоритм определения степени достаточности исходной информации о техническом состоянии (ТС) исследуемой системы и/или ее элементов
Таблица 3.2