Неравенства Маркова и Чебышева
По данному з-ну распределения СВ могут быть определены ее характеристиками: мат. ожидание, дисперсия и др.
С др. стороны знание числовых хар-к если не полностью, то в некотором смысле характеризует з-н распределения. Целью рассматривания далее неравенств является оценка з-на распределения по заданным числовым характеристикам. Теорема 1: если СВ Х может принимать только неотриц. значения, и у нее есть мат. ожидание, то для любой положит. величины δ той же размерности, что и Х выполняется неравенство: Р(Х<ε)≥1- .В этом случае выполняется и след. неравенство: Р(Х>ε)< - НЕРАВЕНСТВА МАРКОВА. Теорема 2: если Х – СВ, дисперсия которой конечна, то для любого числа ε>0, выполняется след. неравенства Чебышева:
Р(|Х-М(Х)|>ε)< Р(|Х-М(Х)|<ε)≥ 1-
Если бы была известна ф-ия распределения F(x)=p(X≤x), то вероятность во втором неравенстве Чебышева можно было бы найти точно. р(|Х-М(Х)|<3δ)≥ 1- . Т.е с достаточно близкой к 1 вероятностью р=0,8889 можно утверждать что отклонение СВ от ее мат. ожидания будет по модулю меньше чем 3δ.
Выпуклые и вогнутые функции и их свойства.
Функция f(x) определённая на выпуклом множестве х называется выпуклой(вогнутой), если для любых точек х’,x” из этого множества и любого 0≤λ≤1, справедливы неравенства f(λx’+(1-λ)x”)≤λfx’+(1-λ)fx” – для вогнутой.
f(λx’+(1-λ)x”)≥λfx’+(1-λ)fx”, где x=(x1,x2,..xn).
Если Fi(x), i=1,к являются выпуклыми на выпуклом множестве Х, то выпуклой на Х будет линейная комбинация этих функций. Теорема 3. Если φ(х) – выпуклая (вогнутая) функция, при х≥0, то будет выпуклым и множество решений системы φ(х)≤в (φ(х) ≥в), х≥0. Теорема 4. выпуклая (вогнутая) функция f(x) определённая на выпуклом множестве Х достигает своего глобального min (max), в каждой точке Х, в которой градиент функции обращается в 0. Теорема 5. Локальный min выпуклой функции (max) вогнутой функции, определяют на выпуклом множестве совпадает с её глобальным min (max) на этом множестве.
Градиент функции и его свойства.
Градиентом функции z=f(x1,y2) в точке М(х0,у0) называется вектор, расположенный в плоскости, имеющий своими координатами частные производные функции z вычисленные в этой точке. Обозначается grad f
Теорема 1:Направление градиента является направлением наискорейшего возрастания функции z=f(x1,y2); модуль градиента равен наибольшей скорости возрастания функции z.
Теорема 2: grad z=f(x1,y2), в каждой точке m0(х1,у2) направлен по нормали к линии уровня поверхности z=f(x1,y2), проходящей через эту точку.
Выборочный метод. Основные понятия. Полигон и гистограмма. Эмпирическая ф-ия распределения.
Генеральной сов-тьюназыв. сов-ть, сеть однородных объектов, подлежащих изучению.
Выборочной сов-тью (выборкой)назыв. сов-ть объектов, случайно отобранных из генеральной сов-ти.
Выборка назыв. случайной,если из генеральной сов-ти элементы берутся наугад и каждый из них может попасть в нее с одинаковой вероятностью.
Объем сов-ти (ген. или выборочной)назыв. число ее объектов.
Выборка бывает повторной(с возвращением исслед. объекта в ген. сов-ть) и бесповторной(без возвращения). На практике чаще исп-ся бесповторная выборка.
Выборка должна быть репрезентативной (представительной), т.е. такой, по которой можно уверенно судить об интересующем признаке всей генеральной сов-ти. Выборка бывает репрезентативной если ее осущ. случайным образом. При изучении некоторого признака выборочной сов-ти проводятся испытания (наблюдения).
Пусть поср-ом независимых испытаний, проведенных в одинаковых условиях получен ряд значений признака. Обозначим признак сов-ти через Х, а его значение в виде возрастающей или убывающей последовательности х1, х2, …, хn, где n – V выборки.
Члены х1, х2, …, хn назыв. вариантами, а сама последовательность – дискретным вариационным рядом.
Если значения признака Х неупорядочены, то будем иметь простую стат. сов-ть называемую простым стат. дискретны рядом.Среди вариант могут оказаться равные, тогда вариационный ряд лучше записать в виде таблицы.
Относительной частотой ωi варианты хiназыв. отношение ее частоты к V выборки, т.е. ωi=ni/n, i = .Очевидно, сумма относительных частот всех вариант равна 1.
Задание выборочной сов-ти в виде таблицы иногда называют стат. рядом распределения.Всякий такой рядможно изобразить графически. Для этого на оси абсцисс наносят варианты, а на оси ординат – частоты. Соединив координаты соотв. вариант и частот получим ломаную линию – полигон распределения.
Кроме дискрет. вариационных рядов рассматриваются интервальные вариационные ряды, в которых значения признака могут меняться непрерывно в некотором интервале. Точные значения признака остаются неизвестными. В общем виде интервальный вариационный ряд можно предст. в виде таблицы. Разности х1-х0, х2-х1,…, хк-хк-1 назыв. интервальными разностями.Разность между наибольшим и наименьшим значением признака Х, т.е. хк-х0 назыв. размахом вариации.
Плотностью распределения частот на интервале (хi-1, xi)назыв. частное ni/xi-xi-1, где i = .
Интервальный вариационный ряд будет наиболее простым, если все интервальные разности равны между собой. Плотность распределения частот на i-том интервале в этом случае равна ni/h, h –интервальная разность.
Графически интервальный вариационный ряд изображается в виде гистограммы, т.е. ступенчатой диаграммы. Для этого на оси абсцисс откладывают интервалы значений признака и на каждом из них, как на основании строят прямоугольник с высотой равной соотв. частоте. Для исследования вариационных рядов важным явл. рассмотрение основных его хар-к: Средней арифмет. признака ( ) – (мат. ожидание) Дисперсия (D(X)) Ср. квадрат. отклонение (δ) Нач. и центральные моменты и др.
Их определения и св-ва аналогичны используемым в теории вероятностей при условии, что в определениях слово вероятность заменятся словами относительная частота.
Модой (М0)называют величину признака, которая чаще всего встречается в исследуемой сов-ти. Если несколько соседних значений ряда имеют наибольшую частоту, то модой явл. их среднее арифметическое. Ряд бывают бимодальным (2 признака один.) или полимодальным. Если же все значения признака встречаются одинаково часто, то ряд моды не имеет. Для интервальных вариационных рядов определяют модальный интервал. В рядах с одинаковыми длинами интервалов мод. интервал находится по наиб. частоте, а в рядах с неодинаковыми интервалами – по наименьшей плотности распределения. Медианой (Ме)назыв. значение признака, находящееся в середине вариационного ряда. Эмпирическая ф-ия распределения.
Эмпирической ф-ей распределения (ф-ей распределения выборки)назыв. ф-ия определяющая для каждого значения х относительную частоту события Х<x. Обознач. F*(x). Т.о. F*(x)= ,где nx – число вариант меньших х, n – объем выборки.
Св-ва ф-ии F*(x):
1. Значения F*(x) принадлежат отрезку [0,1];
2. F*(x) – не убывающая ф-ия;
3. Если а – наим., b – наиб. варианты, то F*(x)=0 при х≤а и F*(x)=1 при х≥b
Ф-ию F(x) распределения генеральной сов-ти в отличие от эмпирической F*(x) распределения выборки назыв. теоретической ф-ей распределения.
Вопросы:
1.События и их класс-ция. Класс-кое опред-ие вер-сти.
2.Элементы комбинаторики: перестановки, сочетания, размещения, правило умножения и правило сложения.
3.Действия над событиями. Соотношения между событиями. Теорема сложения вероятностей.
4.Частота события и ее св-ва. Стат. определ. вероятности.
5.Условная вероятность. Теорема умножения вероятностей. Вероятность появления хотя бы одного события.
6.Формула полной вероятности. Формулы Байеса.
7.Повторные независимые испытания. Формула Бернулли. Наивероятнейшее число появления события.
8.Формула Пуассона. Локальная и интегральная т Лапласа.
9.Понятие СВ и ее ф-ии распр-ия. Св-ва ф-ии расп-ния.
10.Дискретные СВ (з-н распределения, ф-ия распределения). Числовые хар-ки дискретной СВ (мат. ожид, ….)
11.Биномиальный закон распределения.
12.Распределение Пуассона.
13.Непрерывные СВ. Плотность распределения. Числовые хар-ки (мат. ожид., дисперсия, ср. квадрат отклонение)
14.Равномерное распределение. Показательное распределение. Вероятность попадания СВ в заданный интервал.
15.Нормальное распределение. Вероятность попадания в заданный интервал нормальной СВ. Правило 3-ех сигм.
16.Понятие о з-не больших чисел. Нер-ва Маркова и Чебышева.
17.Теоремы Чебышева и Бернулли. Центральная -ая т.
18.Выборочный метод. Основные понятия. Полигон и гистограмма. Эмпирическая ф-ия распределения.
19.Оценка параметров по выборке. Понятие несмещенности, состоятельности и эффективности оценки.
20.Основные хар-ки генеральной и выборочной сов-тей.
21.Связь между хар-ми генер и выборочной сов-тей.
22.Точечные и интервальные оценки. Доверительная вероятность и доверительный интервал.
23.Доверительный интервал для оценки математического ожидания нормального распределения.
24.Понятие корреляционной зависимости. Корреляционная таблица. Линейная корреляция.
25.Метод наименьших квадратов для определения параметров линейной зависимости.
26.Статистическая гипотеза. Основные понятия.
27.Уровень значимости и мощность критерия. Этапы проверки статистической гипотезы.
28.Проверка гипотезы о значимости выборочного коэффициента корреляции.
29.Проверка гипотезы о нормальном распределении генеральной сов-ти. Критерий согласия Пирсона.
30.Понятие о дисперсионном анализе (однофакторный дисперсионный анализ, 2-ухфакторный дисперс анализ).
31.Предмет математического программирования.Краткая классификация методов математ программирования.
32.Примеры эк задач линейного программирования. Составление моделей задач линейного программирования.
33.Различные формы записи задач лин программирования.
34.Геометрическая интерпретация и графический сп-б решения задач линейного программирования.
35.Св-ва решений задач линейного программирования.
36.Симплексный метод решения задач лин программир.
37.Построение начального опорного плана задач линейного программирования.
38.Понятие двойственности в линейном программировании. Построение двойственных задач.
39.Теоремы двойственности и их экономическое содержание. Связь между задачами двойственной пары.