Что означает «точность» и «неопределенность» в измерениях?
Измерение - это сравнение неизвестного значения величины со стандартной единицей той же величины и выражение результата в виде доли или кратного числа этой единицы. Это сравнение, сделанное с помощью измерительного инструмента, никогда не бывает совершенным. Инструмент является точным до какой-то степени и точность его самого является определенной только в тех пределах, которые выражаются количественно как неопределенность. Это можно проиллюстрировать следующим примером: единица массы, килограмм, определяется его международным эталоном, металлическим цилиндром, хранящимся в Международном бюро мер и весов (МБМВ). Копии этого эталона используются в качестве национальных эталонов килограмма.
Копии не являются совершенными и их массы слегка отличаются от международного эталона. Предположим, что масса копии X равняется 1 кг + 0,01 мг, поэтому точность копии - 0,01 мг. Но эта информация не является полной, потому что разница между значениями массы эталона и его копии была определена измерительным инструментом (весами), и измерительный процесс также несовершенен. Всегда имеются какие-то случайные различия (например, маленькие отклонения в условиях окружающей среды) и некоторое несовершенство измерительных приборов.
Повторяемые измерения при явно идентичных условиях будут показывать (слегка) различные результаты. Вместо 1 кг + 0,01 мг, весы могут показать 1 кг + 0,009 мг или 1 кг + 0,011 мг или другие значения. Неопределенность измерения можно оценить применяя статистические методы, приведенные в «Руководстве по выражению неопределенности измерения» (GUM). Полный результат массы копии X показывает: т = 1,000 000 01 кг ± 0,002 мг. Значение неопределенности ± 0,002 мг показывает, что измерения, сделанные при явно идентичных условиях будут давать результат в интервале от 1,000 000 01 кг - 0,002 мг до 1,000 000 01 кг + 0,002 мг с определенной вероятностью (обычно 95%). Предполагается, что 95 из 100 измерений будут находиться в данном интервале.
Оценка неопределенности измерения имеет возрастающую важность, потому что она дает возможность тем, кто использует результаты измерения, оценить надежность этих результатов. Без такой оценки результаты измерения не могут быть сравнимы ни между собой, ни с эталонными, приведенными в спецификациях или стандартах. Предположим, что масса копии X была определена с использованием других весов в другом месте и получен результат т(Х) = 1,000 000 кг. Означает ли это точно 1 кг? Может быть, чувствительность этих весов не так высока как чувствительность других? Какая имеется разница между двумя этими результатами? На эти вопросы нельзя ответить, потому что отсутствует информация по неопределенности.
Для того, чтобы получить сравнимые результаты из оценок неопределенностей измерения, эксперты из семи международных организаций, занимающихся метрологией или стандартизацией, разработали «Руководство по выражению неопределенности измерения», (GUM). Руководство устанавливает основные правила для оценки и выражения неопределенности в измерении, которая может быть соблюдена на различных уровнях точности и в различных областях применения, от магазина до фундаментальных исследований. Некоторые базовые идеи, заложенные в концепции, приведены ниже. Однако, как говорится в Руководстве: «Оценка неопределенности - это ни рутинная, ни чисто математическая задача, она зависит от детальных знаний природы величины (которую необходимо измерить) и самого измерения».
Правила учитывают, что неопределенность в результате измерения обычно состоит из нескольких компонентов, которые могут быть сгруппированы в две категории, в зависимости .от способа оценки их численных значений. Одна категория состоит из случайных ошибок, появляющихся из непредсказуемых изменений, которые оказывают влияние на величину, такие как окружающая температура и давление воздуха. Другая категория состоит из несовершенным образом скорректированных систематических эффектов. Руководство описывает математическое рассмотрение этих двух категорий компонентов, вносящих вклад в неопределенность измерения.
Важно знать точность измерительных инструментов для того, чтобы сделать правильный выбор. Точность измерительного инструмента - то есть, его способность давать меру, близкую к «истинному» значению, представленному стандартом, - часто выражается как процент пределов измерений. Это значение используют, чтобы характеризовать класс точности инструмента. Вольтметр класса 1 означает, что ошибка показания инструмента должна быть не больше, чем 1% измеряемого интервала. Если измеряемый интервал- от 0 до 100 В, то можно ожидать погрешность в 1 В для любого инструмента в данном интервале измерений. Измерения в области нижнего предела измерений будут приводить к более высокой относительной неточности, к примеру, точность измерения 5 В равняется 20%. Это ставит вопрос о том, является ли точность в 1 В для измерения 5 В достаточной для применения в нужном случае.
Если нет, то нужно использовать другой измерительный инструмент или другой интервал измерений для того же самого инструмента. Предположим, что можно установить интервал измерений от 0 до 10 В. Точность в этом интервале будет 0,1 В. Тогда показания прибора в 5 В будут точными до 0,1 В или 2% от 5 В.