Оценка информативности контролируемых параметров.

Если для контроля технического состояния использовать все контролируемые параметры (без какого-либо их отсева), то получаемые системы контроля будут перегружены датчиками, а программы диагностирования весьма громоздки. В этой связи очевидна необходимость уметь выбирать из выделенных признаков такое их минимальное количество, которое было бы необходимо и достаточно для распознавания каждого состояния объекта. В этом случае и объект контроля, и средства контроля будут наиболее простыми и эффективными.

Исходя из сказанного, становится очевидной необходимость отбора из первоначально выделенных признаков такого их минимального количества, которых было бы необходимо и достаточно для распознавания каждого состояния объекта. Именно в этом случае и объект контроля, и средства контроля будут наиболее простыми и эффективными.

Выбор минимального количества признаков состояний обычно проводится на основе элементов теории информации, и в частности, на основе метода И.М. Синдеева. Необходимо отметить, что данный метод может быть использован не только для решения задачи минимизации количества контролируемых параметров (признаков состояний), но и для решения задачи определения места отказа системы.

Информационную неопределенность системы, могущей находиться в N состояниях, количественно можно оценить энтропией H(S), которая определяется по формуле

Оценка информативности контролируемых параметров. - student2.ru ,

где Pi - вероятность того, что объект контроля находится в i-м состоянии; log2 - логарифм с основанием 2.

За единицу энтропии принимается неопределенность состояния простейшей системы, состоящей из двух равновероятных состояний. То есть при N = 2, P1 = P2 = 0.5 по формуле получим

Оценка информативности контролируемых параметров. - student2.ru .

Определенная таким образом единица энтропии называется двоичной единицей и обозначается "бит".

При контроле технического состояния часто принимается допущение о равновероятности отказа ее элементов, то есть о равной вероятности состояний. Для случая N равновероятных состояний (P1 = P2 =....PN = 1/N) величина энтропии системы H(S) будет равна

Оценка информативности контролируемых параметров. - student2.ru .

Используя предыдущую зависимость, можно сказать, что энтропия системы H(S), например при N = 8, будет равна

Оценка информативности контролируемых параметров. - student2.ru .

Очевидно, что по мере проверки наличия тех или иных признаков (то есть по мере проверки численных значений контролируемых параметров) информационная неопределенность системы будет уменьшаться. Так, если перед проверкой неопределенность системы оценивается энтропией H(S), то после проверки признака Xi уменьшившаяся энтропия Оценка информативности контролируемых параметров. - student2.ru будет равна

Оценка информативности контролируемых параметров. - student2.ru ,

где Оценка информативности контролируемых параметров. - student2.ru - вероятность того, что система находится в тех состояниях, в которых признак xi критичен, то есть xi= 1.

Очевидно, что величина Оценка информативности контролируемых параметров. - student2.ru может быть определена по формуле

Оценка информативности контролируемых параметров. - student2.ru ,

Оценка информативности контролируемых параметров. - student2.ru - вероятность того, что система находится в тех состояниях, к которым признак xj некритичен, то есть xi= 0.

Очевидно, что величина Оценка информативности контролируемых параметров. - student2.ru может быть определена по формуле

Оценка информативности контролируемых параметров. - student2.ru .

Оценка информативности контролируемых параметров. - student2.ru - энтропия тех m состояний системы, к которым признак xj критичен, то есть xi=1. Величина Оценка информативности контролируемых параметров. - student2.ru по аналогии равна

Оценка информативности контролируемых параметров. - student2.ru .

Оценка информативности контролируемых параметров. - student2.ru - энтропия тех n состояний системы, к которым признак xj некритичен, то есть xi=0. Величина Оценка информативности контролируемых параметров. - student2.ru по аналогии равна

Оценка информативности контролируемых параметров. - student2.ru ,

где m - число единиц в строке данного признака xj; n - число нулей в строке данного признака xj.

Тогда величину информации Ixi, которую несет проверка признака (параметра) xi, можно количественно оценить как разность энтропии системы перед проверкой признака H(S) и энтропией системы после проверки этого признака Оценка информативности контролируемых параметров. - student2.ru . То есть с учетом предыдущих формул, а также, учитывая, что m + n = N, можно записать

Оценка информативности контролируемых параметров. - student2.ru .

Подставив вместо Оценка информативности контролируемых параметров. - student2.ru равнозначное выражение

Оценка информативности контролируемых параметров. - student2.ru ,

и выполнив преобразования, окончательно получим формулу для расчета Оценка информативности контролируемых параметров. - student2.ru

Оценка информативности контролируемых параметров. - student2.ru .

Информативность того или иного признака (параметра) помимо величины Оценка информативности контролируемых параметров. - student2.ru можно оценить и другими показателями, например, показателем Оценка информативности контролируемых параметров. - student2.ru . В отличие Оценка информативности контролируемых параметров. - student2.ru , измеряемом в битах, величина Оценка информативности контролируемых параметров. - student2.ru является безразмерной, но пропорциональной Оценка информативности контролируемых параметров. - student2.ru . Количественно величина Оценка информативности контролируемых параметров. - student2.ru рассчитывается по формуле

Оценка информативности контролируемых параметров. - student2.ru ,

где mi, ni - соответственно количество единиц и нулей в j-й строке, соответствующей признаку (параметру) xi в таблице.

Наши рекомендации