Выборка и ее характеристики
Как уже отмечалось, случайная погрешность может при данном наблюдении появиться, а может и не появиться, может быть больше или меньше по величине, может быть положительной или отрицательной.
Корректно ответить на вопрос о том, как учесть случайные погрешности, помогут теория вероятностей и математическая статистика. Но эти науки изучаются лишь на 3-м курсе.
Отметим некоторые особенности, которыми очень часто (но не всегда!) обладают случайные погрешности:
а) случайные погрешности могут принимать непрерывный ряд значений. Отметим, что на практике ряд наблюдаемых значений дискретен. Но эта дискретность обусловлена грубостью градуировки измерительных приборов и определяется в конечном счете систематической погрешностью;
б) случайные погрешности одинаковой величины, но разного знака встречаются одинаково часто;
в) чем больше погрешность, тем реже она появляется.
Эти особенности приводят к тому, что случайные погрешности подчиняются так называемому нормальному закону распределения, или, иначе, закону распределения Гаусса.
Примечание. Впервые нормальный закон распределения погрешностей был предложен Лежандром в 1806 г. Работы Гаусса по нормальному закону, в которых он дал вероятностное обоснование этого закона, относятся к 1809 – 1821 гг.
Итак, перечисленные выше свойства случайных погрешностей наталкивают на мысль о том, что при измерении какой-либо физической величины необходимо провести не одно, а несколько наблюдений этой величины. В результате имеем ряд наблюдений Х1, Х2, . . . .ХN.
Этот ряд в статистике называют выборкой, а N - объемом выборки.
Каждый результат наблюдений отягощен случайной погрешностью. Если мы обозначим истинное значение измеряемой величины через m (его мы никогда не знаем ), то можно записать этот ряд так:
x1 = m + 1 ; x2 =m + 2 ; ............. .xN = m + N ,
где i - обозначение случайной погрешности при i - м наблюдении.
Если теперь сложить правые и левые части этих равенств и поделить суммы на N (найти среднее арифметическое), то, вводя общепринятые обозначения, получим
- 14 -
= i = ( N.m ) + i = m + i ...
Если теперь вспомнить, что случайные погрешности имеют разные знаки и, одинаковые по величине, но разного знака встречаются при большом объеме выборки одинаково часто, то можно заметить, что среднее арифметическое ближе к истинному значению m , чем произвольно взятое xi . Более того, чем больше N ,тем лучше идет компенсация случайных погрешностей i , в сумме i и тем ближе к m . Иначе, = m. .
В статистике доказано, что если i подчиняются нормальному закону распределения, то является наиболее полной оценкой истинного значения m , и лучшей оценки найти нельзя.
Как же характеризовать рассеяние, разброс случайных значений xi относительно истинного значения m ?
Искать среднее арифметическое ср= i - трудно, ибо эта сумма сама может быть положительной и отрицательной, может менять свою величину с ростом N, а в пределе стремиться к нулю. Остаются две возможности:
либо , либо i)2 .
В принципе используются обе. Но, как показано в статистике, в случае нормального закона распределения вторая возможность является наилучшей.
Итак, в качестве характеристики случайного рассеяния результатов наблюдений (характеристики случайных погрешностей) мы будем брать величину S = , называемую средним квадратичным отклонением наблюдений (СКО). S характеризует разброс результатов наблюдений относительно , являющегося
- 15 -
оценкой истинного значения m . Но мы уже знаем, что ближе лежит к m , чем произвольное i . Для характеристики случайного отклонения относительно m вводят величину СКО результата измерения . В статистике доказывается, что
= .