Энтропийное значение погрешности
Развитие теории вероятностей применительно к процессам получения измерительной информации привело к созданию вероятностной [4, 52] теории информации. С точки зрения этой теории смысл измерения состоит в сужении интервала неопределенности от значения, известного до его проведения, до величины d, называемой энтропийным интервалом неопределенности, ставшей известной после измерения. Энтропийный интервал определяется по формуле
(6.4)
где Dэ — энтропийное значение погрешности;
— энтропия действительного значения х измеряемой величины вокруг полученного после измерения значения хд, т.е. энтропия погрешности измерений; р(х) — плотность распределения вероятности измеряемой величины.
Основное достоинство информационного подхода к описанию измерений состоит в том, что размер энтропийного интервала неопределенности может быть найден строго математически для любого закона распределения. Это устраняет исторически сложившийся произвол, неизбежный при волевом назначении различных значений доверительной вероятности. Например, для нормального распределения и . Для распределения Симпсона
Соотношение между энтропийным Dэ и средним квадратическим s значениями погрешности различно для разных законов распределения, и его удобнее характеризовать энтропийным коэффициентом k=Dэ/s данного распределения (табл. 6.1).
Таблица 6.1
Значения коэффициента k для различных законов распределения
Закон распределения | k | Вид распределения | k |
Нормальное (Гаусса) | 2,07 | Равномерное | 1,73 |
Треугольное (Симпсона) | 2,02 | Арксинусоидальное | 1,11 |
Лапласа | 1,93 | Дискретное двузначное | |
Стьюдента (число степеней свободы — 4) | 1,90 | Коши |