Интегральная теорема Лапласса
Теоремы сложения вероятностей
Для любыхсобытий А и В верно равенство
P(A +B) =P(A)+P(B) -P(AB)
События А и В называются несовместными, если они не могут
произойти одновременно.
События А и В называются совместными, если они могут
произойти одновременно.
Если события А и В несовместны,
то верно равенство P(A +B) =P(A)+P(B)
Если события А1, А2, …, Аn попарно несовместные
(т.е Аi, Aj несовместные для i ≠ j ), то верно равенство
Р(А1 + А2 + … + Аn) = Р(А1) + Р(А2) + … + Р(Аn)
Теоремы умножения событий
Условной вероятностьюназывается вероятность события В при условии,
что событие А произошло и обозначаетсяP a (B).
Для любых событий А,В верно равенство
P(AB) =P(A) ⋅P a (B)
Если события А, В независимы, то верно равенство
P(AB) =P(A) ⋅P(B)
Если А1, А2, …, Аn − независимые события,
то верно равенство Р(А1 ⋅ А2 ⋅ … ⋅ Аn)= Р(А1) ⋅ Р(А2) ⋅…⋅ Р(Аn)
3. Полная группа событий – события А1+А2+… образуют полн группу, если в результате испытаний появится хотя бы одно из этих событий
4.Противоположные события – два единственно возможных события, образующих полную группу
5. Вероятность выпадения хотя бы одного события 1-q^n – разность между 1 и произведением вероятностей противоположных событий
6. Комбинаторика– наука о том, сколько различных комбинаций подчиняющихся заданным
условиям можно составить из данных объектов.
1. Перестановка – это множество, составленное из n элементов, в котором зафиксирован
порядок расположения элементов. Две различные перестановки отличаются друг от друга только
порядком расположения элементов.
P n = n!
Размещение − это подмножество заданного конечного множества, в котором зафиксирован
порядок расположения элементов. Два различных размещения отличаются друг от друга либо
составом элементов, либо их порядком.А
А=n!/(n-m)!
Сочетание − это подмножество заданного конечного множества, в котором не учитывается
порядок расположения элементов. Два различных сочетания отличаются друг от друга только
составом элементов.
C=n!/k!(n-k)!
8.Полная вероятность – P(A)=P(B1)*Pb1(A)+P(B2)*Pb2(A)+…+P(Bn)*Pbn(A)
событие А может наступить при условии появления одного из событий В, пол вер-ть: сумма произведений каждого из событий В на соответствующие условные вероятности
9.Формула Байса (гипотеза) Pa(B1)=P(B1)*Pb1(A)/P(A)
Например определить из какого из 3-х ящиков был вынут шар
10.Формула Беррнулли Pn(k)=(n!/k!(n-k)!)*p^k*q^(n-k)
вероятность наступления события k раз в n испытаниях.
должна быть постоянная вероятность в независимых событиях
n- общее число испытаний
k-число благоприятных исходов
p-вер-ть благопр. события,
q- вер-ть противоположного события.
Локальная теорема Лапласса
P(k)=1/корень(npq)*Ф(x)
Интегральная теорема Лапласса
событии е появится не менее к1 и не более к2
n – велико
p – постоянная
P(k1,k2)=Ф(х2)-Ф(х1) где
х1=(k1-np)/корень(npq)
х2=(k2-np)/корень(npq)
19.Наивероятнейшее число появлений событиz определяется нерасенством
np-q<=k0<np+q
20. Соотношение между возможными значениями случайной величины и их вероятностями называется законом распределения дискретной случайной величины.
Закон распределения может быть задан аналитически, в виде таблицы или графически.
Таблица соответствия значений случайной величины и их вероятностей называется рядом распределения.
Графическое представление этой таблицы называется многоугольником распределения. При этом сумма все ординат многоугольника распределения представляет собой вероятность всех возможных значений случайной величины, а, следовательно, равна единице.
21. Дискретная случайная величина Х называется распределенной по
биномиальному закону, если она имеет возможные значения
0, 1, … , n и вероятности появления этих значений вычисляются по
формуле Бернулли:
22. Формула Пуассонаописывает вероятность появления массовых редких событий, когда число испытаний велико, а вероятность крайне мала
P(A)= (λ^k)*e^- λ/(k!)
где λ= n*p
23.Математическое ожидание – это сумма произведений значений дискретной случайной величины на соответствующие вероятности
М(х)=х1р1+х2р2+…+xnpn
свойства:
· мат ожидание пост величины есть сама постоянная величина.
· постоянный множитель можно выносить за скобки.
· M(x+-y)=M(x)+-M(y)
· M(x1*x2*x3*…*xn)= M(x1)* M(x2)*… M(xn)
24.ДисперсиейДСВ Х называют математическое ожидание квадрата ее
отклонения от математического ожидания:
D(Х) = M(Х^2) – M^2(Х)
Свойства дисперсии D(Х):
1. D(С) = 0, где С – постоянная СВ.
2. D(СХ) = С^2 ⋅ D(Х)
3. Если Х, Y независимы, то D(Х ± Y) = D(Х) ± D(Y).
В частности D(С + Х) = D(Х)
Средним квадратическим отклонением ДСВ Х называется корень
квадратный из ее дисперсии
σ(X) = корень(D(X))
25.Интегральной функцией распределенияназывают функцию F(х), определяю-
щую вероятность того, что случайная величина Х примет значение,
меньшее х, то есть
F(х) = Р( Х < х ),
Свойства функции распределения:
1. Значения F(x) принадлежат отрезку [0; 1]
0 ≤ F(x) ≤ 1
2. F(x) – неубывающая функция: x2 ≥ х1 ⇒ F(x2) ≥ F(x1),
3.P(X=a)= lim F(x) F(a) x→ a; x > a
⇒ если F(х) − непрерывна, то Р(Х = а) = 0,
то есть вероятность попадания в точку = 0.
4. P(a≤ X<b) = F(b)−F(a)
Если F(х) − непрерывна, то Р(Х = а) = 0 и Р(Х = b) = 0
⇒ P(a ≤ X ≤ b)=P(a<X<b)=P(a<X ≤ b)=P(a ≤ X<b)=F(b) −F(a)
26.Дифференциальная функция распределения (плотность вероятности)
f(x)=F’(x)
Свойства:
1. f(x)>=0
2. интеграл от – ∞ до + ∞ ∫ (f(x)dx)=1
3. F(x)=интеграл от – ∞ до х ∫ (f(t)dt)
4. P(a<=X<b)= интеграл от a до b ∫ (f(x)dx)
27-28. Случайная величина называется непрерывной, если ее функция
распределения F(х) является непрерывно дифференцируемой.
мат.ожидание М(Х) − теоретически ожидаемое значение Х,
(среднее арифметическое Х по многим опытам ≈ М(Х) )
M(X)= ∫ x* f(x)dx (интеграл от – ∞ до + ∞ )
дисперсию D(Х) − характеризует рассеяние значений Х
вокруг М(Х), (в квадратных единицах)
D(X)= ∫ (x- M(X))^ 2* f(x)dx (интеграл от – ∞ до + ∞ )
среднее квадратическое отклонение (с.к.о.) σ(Х) (корень из дисперсии)
− характеризует рассеяние значений Х
вокруг М(Х), (в основных единицах)
29. Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности
Нормальный закон распределения также называется законом Гаусса.
-параметры(а-мат ожидание, σ - дисперсия)
Кривая Гаусса
31. Мода и медиана,мода - самое часто встречающееся значение роста. Кстати для нормального распределения мода, медиана и среднее значение совпадают.
32. Непрерывная СВ Х называется распределенной по
равномерному законуна промежутке [a,b], если ее плотность
вероятности f(х) имеет вид ( 2 ), а функция распределения F(х)
имеет вид ( 1 ).
( 1 ) F(x)= 0 при -∞<x<a
(x-a)/(b-a) при a<=x<=b
1 при x>b
(2) f(x)=F’(x)=0 при -∞<x<a
1/(b-a) при a<=x<=b
0 при x>b
Правило трёх сигм
Вероятность того, что случайная величина отклонится от своего математического ожидания на большую величину, чем утроенное среднее квадратичное отклонение, практически равна нулю. Правило справедливо только для случайных величин, распределенных по нормальному закону.
34. Зако́н больши́х чи́сел в теории вероятностей утверждает, что эмпирическое среднее (среднее арифметическое) достаточно большой конечной выборки из фиксированного распределения близко к теоретическому среднему (математическому ожиданию) этого распределения. В зависимости от вида сходимости различают слабый закон больших чисел, когда имеет место сходимость по вероятности, и усиленный закон больших чисел, когда имеет место сходимость почти всюду.
Общий смысл закона больших чисел — совместное действие большого числа случайных факторов приводит к результату, почти не зависящему от случая.