Погрешности средств измерений. Класс точности прибора
В результате воздействия большого числа факторов, влияющих на изготовление и эксплуатацию средств измерений, показания приборов отличаются от истинных значений измеряемых ими величин. Эти отклонения характеризуют погрешность средств измерений. Погрешности СИ в отличие от погрешности измерений имеют другую физическую природу, так как они от носятся к СИ, с помощью которого осуществляют измерение. Они являются лишь составной частью погрешности измерения.
Классификация погрешностей средств измерений в зависимости от разных признаков:
Погрешности измерительных средств | ||||
От характера проявления | От условий применения | От режима применения | От формы представления | От значения измеряемой величины |
- систематическая -случайная | - основная - дополнительная | - статическая - динамическая | - абсолютная -относительная -приведенная | - аддитивная - мультипликативная - линейности -гистерезиса |
В понятия абсолютной, относительной, систематической и случайной погрешностей вкладывается тот же смысл, что и в понятия погрешностей измерений.
Приведенная погрешность средства измерений равна отношению абсолютной погрешности прибора ΔХ к некоторому нормирующему значению XN :
γ = ΔX/XN или γ = 100% ΔХ/XN .
Таким образом, приведенная погрешность является разновидностью относительной погрешности прибора. В качестве нормирующего значения XN принимают диапазон измерений, верхний предел измерений, длину шкалы и др.
Основная погрешность — погрешность средства измерений, используемого в нормальных условиях. При эксплуатации СИ на производстве возникают значительные отклонения от нормальных условий, вызывающие дополнительные погрешности.
Нормальными условиями для линейных измерений считаются:
• температура окружающей среды 20°С
• атмосферное давление 101325 Па (760 мм рт.ст.)
• относительная влажность окружающего воздуха 58%
• ускорение свободного падения 9,8 м/с
• направление линии и плоскости измерения - горизонтальное
• относительная скорость движения внешней воздушной среды равна нулю.
В тех случаях, когда средство измерения применяется для измерения постоянной или переменной во времени величины, для его характеристики используют понятия статическая и динамическая погрешности соответственно. Динамическая погрешность определяется как разность между погрешностью измерения в динамическом режиме и его статической погрешностью, равной значению величины в данный момент времени. Динамические погрешности возникают вследствие инерционных свойств средств измерения.
Для рассмотрения зависимости погрешности средства измерения от значения измеряемой величины используют понятие номинальной и реальной функций преобразования — соответственно Y = fн(Х) и Y = fр(X).
Номинальная функция преобразования приписана измерительному устройству, указывается в его паспорте и используется при выполнении измерений.
Реальной функцией преобразования называют ту, которой обладает конкретный экземпляр СИ данного типа.
Реальная функция преобразования имеет отклонение от номинальной функции и связана со значением измеряемой величины. Систематическую погрешность в функции измеряемой величины можно представить в виде суммы погрешности схемы, определяемо самой структурной схемой средства измерений, и технологических погрешностей, обусловленных погрешностями изготовления его элементов. Технологические погрешности принято разделять на аддитивную, мультипликативную, гистерезиса и линейности.
Аддитивной погрешностью (получаемой путем сложения), или погрешностью нуля, называют погрешность, которая остается постоянной при всех значениях измеряемой величины.
Мультипликативная погрешность (получаемая путем умножения), или погрешность чувствительности СИ, линейно возрастает или убывает с изменением измеряемой величины. В большинстве случаев аддитивная и мультипликативная составляющие присутствуют одновременно.
Погрешность гистерезиса, или Погрешность обратного хода, выражается в несовпадении реальной функции преобразования при увеличении (прямой ход) и уменьшении (обратный ход) измеряемой величины. Если взаимное расположение номинальной и реальной функций преобразования средства измерений вызвано нелинейностью, то эту погрешность называют погрешностью линейности.
Аддитивная и мультипликативная погрешности | Погрешность гистерезиса | Погрешность линейности |
В разных точках диапазона средств измерений погрешность может принимать различные значения. В этом случае необходимо нормировать пределы допускаемых погрешностей, т.е. устанавливать границы, за пределы которых погрешность не должна выходить ни при изготовлении, ни в процессе эксплуатации. Для этого служит класс точности СИ.
Класс точности — это обобщенная характеристика, определяемая пределами допускаемых основных и дополнительных погрешностей, а также другими свойствами, влияющими на точность, значения которых устанавливают в стандартах на отдельные виды средств измерений.
Способы установления классов точности изложены в ГОСТ 8.401 “ГСИ. Классы точности средств измерения. Общие требования”. Стандарт не распространяется на средства измерений, для которых предусматриваются раздельные нормы на систематическую и случайные составляющие, а также на средства измерений, для которых нормированы номинальные функции влияния, а измерения проводятся без введения поправок на влияющие величины. Классы точности не устанавливаются и на средства измерений, для которых существенное значение имеет динамическая погрешность.
Класс точности не является непосредственным показателем точности измерений, так как точность измерений зависит еще от метода и условий измерений.
В зависимости от вида погрешности средства измерений существует несколько способов нормирования погрешности.
Если аддитивная погрешность СИ преобладает над мультипликативной, удобнее нормировать абсолютную или приведенную погрешности соответственно:
ΔХ = ±α ΔX/XN = ±p.
Нормирование по абсолютной погрешности не позволяет сравнивать по точности приборы с разными диапазонами измерений, поэтому принято нормировать приведенную погрешность, где р — отвлеченное положительное число, выбираемое из ряда
(1,5; 2; 2,5; 4; 5; 6) 10* (п = 1, О, - 1, - 2 и т.д.);
XN — нормирующее значение, равное конечному значению шкалы прибора, диапазону измерений или длине шкалы, если она нелинейная.
Если мультипликативная погрешность преобладает над аддитивной, то нормируется предел допускаемой относительной погрешности:
δ = ΔX/XN =±q,
где q — отвлеченное положительное число, выбираемое из ряда, приведенного для р.
При одновременном проявлении аддитивной и мультипликативной погрешностей нормируется предел относительной или абсолютной погрешностей, определяемых формулами соответственно:
,
где Хк — конечное значение шкалы прибора; с и d — положительные числа, выбираемые из ряда, приведенного для р; Xизм — значение измеряемой величины на входе(выходе) средств измерений или число делений, отсчитанных по шкале; а и b положительные числа, не зависящие от Xизм.
Обозначение классов точности в документации и на средствах измерений приведены в табл.
Если пределы допускаемой погрешности средств измерений задаются в виде графиков, таблиц или в сложной форме, то классы точности обозначаются римскими цифрами или прописными буквами латинского алфавита.
Регулировка и градуировка средств измерений
В большинстве случаев в измерительном приборе (преобразователе) можно найти или предусмотреть такие элементы, вариация параметров которых наиболее заметно сказывается на его систематической погрешности, главным образом погрешности схемы, аддитивной и мультипликативной погрешностях.
В общем случае в конструкции измерительного прибора должны быть предусмотрены два регулировочных узла: регулировка нуля и регулировка чувствительности. Регулировкой нуля уменьшают влияние аддитивной погрешности, постоянной для каждой точки шкалы, а регулировкой чувствительности уменьшают мультипликативные погрешности, меняющиеся линейно с изменением измеряемой величины. При правильной регулировке нуля и чувствительности уменьшается и влияние погрешности схемы прибора. Кроме того, некоторые приборы снабжаются устройствами для регулировки погрешности схемы (пружинные манометры).
Таким образом, под регулировкой средств измерения понимается совокупность операций, имеющих целью уменьшить основную погрешность до значений, соответствующих пределам ее допускаемых значений, путем компенсации систематической составляющей погрешности средств измерений, т.е. погрешности схемы, мультипликативной и аддитивной погрешностей.
Градуировкой называется процесс нанесения отметок на шкалы средств измерений, а также определение значений измеряемой величины, соответствующих уже нанесенным отметкам, для составления градуировочных кривых или таблиц.
Различают следующие способы градуировки:
- использование типовых (печатных) шкал, которые изготовляются заранее в соответствии с уравнением статической характеристики идеального прибора;
- индивидуальная градуировка шкал. Индивидуальную градуировку шкал осуществляют в тех случаях, когда статическая характеристика прибора нелинейна или близка к линейной, но характер изменения систематической погрешности в диапазоне измерения случайным образом меняется от прибора к прибору данного типа так, что регулировка не позволяет уменьшить основную погрешность до пределов ее допускаемых значений. Индивидуальную градуировку проводят в следующем порядке. На предварительно отрегулированном приборе устанавливают циферблат с еще не нанесенными отметками. К измерительному прибору подводят последовательно измеряемые величины нескольких наперед заданных или выбранных значений. На циферблате нанося отметки, соответствующие положениям указателя при этих значениях измеряемо величины, а расстояния между отметками делят на равные части. При индивидуальной градуировке систематическая погрешность уменьшается во всем диапазоне измерения, а в точках, полученных при градуировке, она достигает значения, равного погрешности обратного хода;
- градуировка условной шкалы. Условной называется шкала, снабженная некоторыми условными равномерно нанесенными делениями, например, через миллиметр или угловой градус. Градуировка шкалы состоит в определении при помощи образцовых мер или измерительных приборов значений измеряемой величины соответствующих некоторым отметкам, нанесенным на ней. В результате определяют зависимость числа делений шкалы, пройденных указателем, от значений измеряемой величины. Эту зависимость представляют в виде таблицы или графика. Если необходимо избавиться и от погрешности обратного хода. Градуировку осуществляют раздельно при прямом и обратном ходе.