Закон распределения функции СВ
Одной из важных задач в теории вер-стей является определение з-на р-я ф-и одной или нескслуч величин. Для непрерывнслуч вел Х: пусть сл вел У есть ф-я от Х, т.е. Y=f(X) – строго монотонна, непрерывна и диф-ма на отрезке [a,b], f(a)=c, f(b)=d. Полагаем что f ’(x)>0. Тогда ф-я р-я G(y) сл вел У: , где g(y) – плотность вер-стисл вел У. Для нахождения числовых хар-стиксл вел Y = f(X) не обязательно знать з-н ее р-я, достаточно знать з-н р-я аргумента: М(У)=M[f(X)]=∫f(x)φ(x)dx, D(Y)=D[f(X)]=∫ [f(x)-M(Y)]^2 φ(x)dx (интегралы считать от - ∞ до +∞). Из множ-ва задач на составление з-на р-я ф-инескслуч вел важное для практики значение имеет задача опред-я з-на р-я суммы двух случ вел Z= X+ Y. В случае, если Х и Y - независимые случ вел-ны, говорят о композиции з-нов р-я.
Понятие о ЗБЧ. Сходимость по вер-сти и распределению
З-н больших чисел – раздел теор вер-сти, в кот изуч-ся факторы, влияющие на измерение чисел →∞. Это ряд строгих матем.теорем, каждая из которых при тех или иных условиях устанавливают факт приближения средних характеристик СВ к некоторым неопределенным постоянным. ЗБЧ(предельные теоремы): 1. Поведение средних характеристик СВ при многократном появлении опыта. 2. Теоремы, которые определяют характер СВ.
1. сходимость по вероятности: Последовательность СВ {хn(w)} сходится по вероятности СВ х(w) и обозначается lim хn(w)=х(w)
хn(w)→х(w). Если для любого Е> 0, limP((хn(w))<E)=1
2. сходимость по распределению: {хn(w)}, хn(w)→х сходится, если limFn(x)=f(x), где Fn – функция распределения СВ, х(w) – функция распределения СВ(Х).
Неравенство Маркова, Чебышева
Нер-во Маркова.
Если X≥0 и имеет мат ожидание, то для любого А>0 верно неравенство: Р(x>A)≤ M(X)\A. Док-во: Расположим дискретнсл вел Х в порядке возрастания. Пусть есть А>0, Xk<A<X(k+1). M(X)=p1x1+p2x2+…+pkxk+…+pnxn. Где р1, р2…рn – вер-сти, что Х примет значения соответственно х1, х2…хn. Отбрасим первые k неотрицательных слагаемых. P(k+1)*X(k+1)+PnXn<M(X). Заменим Xk+1…Xn меньшим числом А, вынесем за скобки: А(Pk+1+…+Pn)<M(X), разделим на А, а то что в скобках = Р(x>A). Получим нер-во Маркова.
Нер-во Чебышева.
Для любой случ вел, имеющей мат ожидание и дисперсию, справедливо нер-во Чебышева: P(|X-M(X)|>ε)≤D(X)\ ε^2, где ε>0.
Теорема Чебышева
Если дисперсии n независимых случ вел Х1, X2,..., Хn ограничены одной и той же постоянной, то при n→∞ средняя арифметическая случ вел-н сходится по вер-сти к средней
арифметической их мат ожиданий а1, а2,...,аn, т.е.:
Теорема Бернулли
Частостьсоб-я в n повторных независимых испытаниях, в каждом из котор оно может произойти с одной и той же вер-стьюр, при n→∞, сходится по вер-сти к вер-сти р этого соб-я в отдельном испытании: limP(|m\n-p|≤ε)=1. Смысл теор Бернулли - при большом числе n повторных независимых испытаний практически достоверно, что частостьсоб-я m\n — величина случайная, как угодно мало отличается от неслучайной величр – вер-стисоб-я, т.е. практически перестает быть случайной.
P=m/n–классическая вероятность
P=limm/n– стат.вероятность