Нормальный закон распределения
Определение. Нормальнымназывается распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности
Нормальный закон распределения также называется законом Гаусса.
Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.
Можно легко показать, что параметры и , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х.
Найдем функцию распределения F(x).
График плотности нормального распределения называется нормальной кривойили кривой Гаусса.
Нормальная кривая обладает следующими свойствами:
1) Функция определена на всей числовой оси.
2) При всех х функция распределения принимает только положительные значения.
3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю.
4) Найдем экстремум функции.
Т.к. при y’ > 0 при x < m и y’ < 0 при x > m , то в точке х = т функция имеет максимум, равный .
5) Функция является симметричной относительно прямой х = а, т.к. разность
(х – а) входит в функцию плотности распределения в квадрате.
6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.
При x = m + s и x = m - s вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб.
В этих точках значение функции равно .
Построим график функции плотности распределения.
Построены графики при т =0 и трех возможных значениях среднего квадратичного отклонения s = 1, s = 2 и s = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается..
Если а > 0, то график сместится в положительном направлении, если а < 0 – в отрицательном.
При а = 0 и s = 1 кривая называется нормированной. Уравнение нормированной кривой:
14.независимые случайные величины.
Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.
Понятие зависимости случайных величин является очень важным в теории вероятностей.
Условные распределения независимых случайных величин равны их безусловным распределениям.
Определим необходимые и достаточные условия независимости случайных величин.
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.
Аналогичную теорему можно сформулировать и для плотности распределения:
Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих.
Определение. Корреляционным моментом mxyслучайных величин Х и Y называется математическое ожидание произведения отклонений этих величин. Практически используются формулы:
Для дискретных случайных величин: Для непрерывных случайных величин:
Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю.
Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y. Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин.
Для того, чтобы устранить этот недостаток применятся другая характеристика – коэффициент корреляции.
Определение. Коэффициентом корреляции rxy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.
Коэффициент корреляции является безразмерной величиной. Коэффициент корреляции независимых случайных величин равен нулю.
Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий.
Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.
Основные понятия мат статистики
Пусть наблюдается (при неизменных условиях) определенный признак некоторой совокупности однородных объектов. Такая совокупность называется генеральной. Совокупность n объектов, отобранных (случайным образом) из генеральной совокупности, называется выборкой (репрезентативной) объема n.
Операция расположения значений СВ (признака) по неубыванию называется ранжированием статистических данных. Упорядоченная таким образом по неубыванию последовательность выборочных значений СВ : , где , , называется вариационным ряд Размахом выборки W называется разность между максимальным и минимальным значениями элементов выборки: .В случае, когда число значений признака (СВ ) велико или признак является непрерывным (т.е. когда СВ может принимать любое значение в некотором интервале), составляют интервальный статистический ряд
Эмпирической функцией распределения называется функция , определяющая для каждого значения частость события : ,
где — объем выборки, — число выборочных значений , меньших ( ).
Полигоном частот называют ломаную, отрезки которой соединяют точки с координатами , ,…, ; полигоном относительных частот — ломаную, соединяющую точки . Гистограммой частот (относительных частот) называют ступенчатую фигуру, состоящую из прямоугольников, основаниями которых служат частичные интервалы длины , а высоты равны отношению плотность частоты ( — плотность относительной частоты). Площадь гистограммы частот равна объему выборки, а площадь гистограммы относительных частот равна единице.
.