Методика выполнения измерений. Погрешности: определение, их классификация.

Методика выполнения измерений.Методика выполнения измерения (МВИ) представляет собой установленную совокупность операций и правил, выполнение которых обеспечивает получение результатов измерений с гарантированной точностью в соответствии с принятым методом. Общие требования к разработке, оформлению, аттестации, стандартизации МВИ и метрологическому надзору за ними регламентирует ГОСТ Р 8. 563—96 «ГСИ. Методики выполнения измерений».МВИ — это, как правило, документированная измерительная процедура. МВИ в зависимости от сложности и области применения излагают в следующих формах: отдельном документе (стандарте, рекомендации и т. п.); разделе стандарта: части технического документа (разделе ТУ, паспорта). Документ, регламентирующий МВИ, оговаривает назначение МВИ; условия измерений; требования к погрешности измерений; метод измерений; требования к СИ, вспомогательным устройствам, материалам; операции при подготовке и выполнении измерений; операции обработки и вычисления результатов измерений; нормативы и процедуру контроля погрешности результатов выполняемых измерений; требования к квалификации операторов; требования к безопасности и экологичности выполняемых работ. Одним из основных исходных требований при разработке МВИ является требование к точности измерений. Наиболее распространенным способом выражения требований к точности измерений являются границы допускаемого интервала, в котором с заданной вероятностью должна находиться погрешность измерений. Разработка МВИ предусматривает аттестацию МВИ, которая представляет собой процедуру установления и подтверждения соответствия МВИ предъявляемым к ней метрологическим требованиям.

Погрешности: определение, их классификация. Погрешность измерений - это отклонение результата измерений от истинного значения измеряемой величины. Погрешность средств измерений зависит от условий проведения измерений. При этом различают основные и дополнительные погрешности.

Основная погрешность- погрешность, существующая при так называемых нормальных условиях, которые указаны в нормативных документах, регламентирующих правила испытания и эксплуатации данного средства измерений.

Дополнительная погрешностьвозникает при отклонении условий испытания и эксплуатации средства измерения от нормальных. Она нормируется значением погрешности, вызванной отклонением одной из влияющих величин от ее нормирующего значения или выходом ее за пределы нормальной области значений.


По способу выражения различают абсолютные и относительные погрешности.

Абсолютная погрешность измерения - погрешность измерений, выраженная в единицах измеряемой величины (1.1)

Относительная погрешность измерения - погрешность измерения, выраженная отношением абсолютной погрешности измерения к действительному значению измеряемой величины, в процентах

Чтобы можно было сравнить по точности измерительные приборы с разными пределами измерений, введено понятие приведенной погрешности измерительного прибора, под которой понимают отношение абсолютной погрешности к нормирующему значению, которое принимается равным верхнему пределу измерений (если нулевая отметка находится на краю или вне шкалы) или диапазону измерения (если нулевая отметка находится внутри диапазона измерений), в процентах

По характеру изменения при повторных измерениях погрешности измерений делятся на систематические и случайные.

Систематическая погрешность измерения - составляющая погрешности измерения, остающаяся постоянной или закономерно изменяющаяся при повторных измерениях одной и той же величины. В соответствии с этим определением систематические погрешности разделяются на постоянные и переменные. Переменные в свою очередь могут быть прогрессирующими, периодическими и изменяющимися по сложному закону.

Постоянными систематическими погрешностями называются такие, которые остаются неизменными в течение всей серии данных измерений, например, погрешность из-за неточной подгонки образцовой меры, погрешность из-за неточной установки указателя прибора на нуль и т. п.

Переменные систематические погрешности изменяются в процессе измерений. Если при измерениях погрешность монотонно убывает или возрастает, то она называется прогрессирующей. Так, например, монотонно меняется погрешность из-за разряда батареи или аккумулятора, если результат измерений зависит от напряжения питания. Периодическая систематическая погрешность - погрешность, значение которой является периодической функцией времени. Ее примером может являться погрешность, вызванная суточными изменениями напряжения питания электрической сети. Систематическая погрешность может изменяться и по некоторому сложному закону. Таковы, например, погрешности, вызванные неточностью нанесения шкалы прибора, погрешность электрического счетчика при различном значении нагрузки, погрешность, вызванная изменениями температуры окружающей среды, и др.



Наши рекомендации