Предмет теории вероятностей.. 5
Введение. 5
Предмет теории вероятностей.. 5
Краткий исторический очерк.. 7
Глава 1. Основные понятия и правила теории вероятностей.. 13
Классическое определение вероятности.. 13
Элементы комбинаторики.. 15
Действия над событиями.. 18
Теоремы сложения и умножения вероятностей.. 20
Формула полной вероятности. Формула Байеса. 24
Схема с повторением испытаний (схема Бернулли) 26
Глава 2. Случайные величины.. 30
Дискретные и непрерывные случайные величины.. 30
Закон распределения дискретной случайной величины.. 32
Математическое ожидание дискретной случайной величины.. 33
Дисперсия дискретной случайной величины.. 36
Закон распределения и числовые характеристики непрерывной случайной величины 38
Глава 3. Основные законы распределения. 45
Биномиальный закон.. 45
Равномерный закон.. 46
Закон Пуассона. 47
Показательный закон.. 49
Нормальный закон.. 53
Глава 4. Совместные распределения случайных величин.. 55
Закон распределения случайной точки дискретного типа на плоскости 55
Закон распределения случайной точки непрерывного типа на плоскости 57
Ковариация двух случайных величин. 60
Коэффициент корреляции.. 60
Совместное распределение нескольких случайных величин. Многомерный нормальный закон 66
Глава 5. Закон больших чисел. Предельные теоремы.. 68
Закон больших чисел в форме Чебышева. 68
Теорема Бернулли.. 72
Центральная предельная теорема. 74
Глава 6. Элементы математической статистики.. 77
Предмет математической статистики.. 77
Выборка из генеральной совокупности. Вариационный ряд. Гистограмма относительных частот 78
Выборочная функция распределения. 80
§ 4. Выборочные оценки параметров случайной величины. Основные требования к оценкам 81
Состоятельные несмещенные оценки для математического ожидания, дисперсии, ковариации 82
Два распределения, связанные с нормальным законом.. 84
Квантиль распределения. 86
Доверительные интервалы для математического ожидания и дисперсии 86
Общая схема проверки гипотез по данным опыта. 88
Проверка гипотезы о законе распределения случайной величины по данным опыта 89
Ошибки первого и второго рода. Мощность критерия. 91
Метод наименьших квадратов (МНК) 92
Дополнения. 94
I. Образцы решения типовых задач. 94
II. Задачи для самостоятельного решения. 118
III. Задания для контрольной работы.. 148
Приложения. Ошибка! Закладка не определена.
Библиографический список.. Ошибка! Закладка не определена.
Введение
Предмет теории вероятностей
Теория вероятностей изучает закономерности в массовых случайных явлениях. Поясним это на двух простых примерах.
1. Проводится испытание – бросается монета. Если испытание проводится один раз, то предсказать его исход – выпадение герба или цифры – невозможно, здесь царит случай. Пусть теперь испытание проводится много раз, причем так, что при каждом следующем испытании воспроизводится комплекс условий, при которых проводилось предыдущее; в этом случае говорят, что проводится серия независимых испытаний. Замечательным является то, что в этой ситуации случай исчезает: можно предсказать, что герб выпадет примерно в 50% случаев, причём этот прогноз тем точнее, чем больше проводится испытаний. Этот прогноз подтверждается многократными проверками, проводившимися в разное время учёными. Так, французский учёный Ж.Л.Л.Бюффон бросал монету 4040 раз, герб выпадал в 2048 случаях; шведский учёный К.Пирсон бросал монету 24000 раз, герб выпадал в 12012 случаях; и так далее.
2. Пусть испытание состоит в бросании игральной кости, представляющей собой куб, грани которого занумерованы цифрами 1–6. При однократном бросании предсказать исход невозможно, однако можно предсказать, что в длинной серии независимых бросаний каждая из цифр выпадает примерно в 1/6 части случаев, этот прогноз тем точнее, чем больше бросаний.
Проиллюстрированное на двух примерах явление, состоящее в том, что процент наступления случайного события в длинной серии независимых испытаний не случаен, представляет собой один из универсальных законов природы, получивший название закона больших чисел. Теория вероятностей представляет собой математическую модель этого закона. Вводимое в самом начале этой теории понятие "вероятность случайного события" и связанные с ним правила позволяют дать строгую математическую формулировку закона больших чисел, дают подходы к вычислению в ряде важных для практики случаев процента наступления случайного события в длинной серии испытаний до того, как эти испытания проводятся, и тем самым – подходы к прогнозированию результата этих испытаний. Методы прогнозирования по массовым случайным явлениям, развиваемые в теории вероятностей, широко применяются в настоящее время в различных областях науки и практической деятельности человека.
Данное учебное пособие написано на основе курсов лекций, прочитанных одним из авторов в Омском государственном техническом университете, другим автором в Омском филиале Московского государственного университета коммерции. Основная задача, которую ставили перед собой авторы, – не стремясь к максимальной строгости и охвату материала, предложить простую методику разъяснения ряда трудных для понимания узловых понятий и идей теории вероятностей. надеемся, что эта задача отчасти выполнена.
В дополнениях I-III приведены образцы решения типовых задач, набор задач для использования на практических занятиях и варианты контрольных заданий для студентов заочной формы обучения.
Пособие предназначено для студентов инженерных и экономических специальностей широкого профиля, может быть использовано в качестве элементарного руководства инженерами и экономистами, применяющими в своей деятельности методы теории вероятностей.
Краткий исторический очерк
Истоки теории вероятностей теряются в глубине веков. Еще в древнем Египте собирались статические данные о народонаселении. Этот факт говорит о том, что уже тогда была замечена возможность практических выводов по результатам массовых случайных явлений. Однако многие столетия дальше сбора статистических данных дело не шло. В этот период никаких специальных методов не возникает, идет накопление материала.
В XVI веке появление работ Д. Кардано и Н. Тарталья[1] знаменует собой первый шаг в развитии вероятностных представлений. В работах этих ученых впервые формулируются простейшие задачи из области азартных игр.
На роль случайностей в измерениях впервые обратил внимание великий Галилей[2]. И хотя он не дал аналитического анализа оценки ошибок наблюдений, многие высказанные им положения оказали большое влияние на выработку основных понятий теории ошибок и теории вероятностей.
Дальнейшее развитие теории вероятностей можно условно разбить на 4 периода[3].
первый период начинается с середины XVII века и продолжается до начала XVIII в. Он характеризуется возникновением теории вероятностей как науки.
До середины XVII в. не было никакого общего метода решения вероятностных задач. Однако следующие 50 лет ознаменовались выдающимися достижениями в этой области. В разработку вопросов теории вероятностей были вовлечены крупнейшие ученые того времени. В первую очередь здесь следует назвать Паскаля[4], Ферма[5] и Гюйгенса[6]. В своих трудах они уже широко использовали теоремы сложения и умножения, ввели понятие математического ожидания, а также выяснили фундаментальное значение для теории вероятностей понятий зависимости и независимости случайных событий.
В 1657г. Гюйгенс пишет первую книгу по теории вероятностей "О расчете в азартных играх". Примечательно его высказывание: "… при внимательном изучении предмета читатель заметит, что имеет дело не только с игрой, но что здесь закладываются основы очень интересной и глубокой теории".
Итак, в рассматриваемый период теория вероятностей превращается в науку. Она начинает использоваться для решения важных практических задач, находит свои первые применения в демографии (наука о народонаселении), страховом деле и теории ошибок.
Начало второго периода связано с появлением в 1713г. книги Я.Бернулли[7] "Искусство предположений". В этой работе была строго доказана одна из важнейших теорем теории вероятностей, которая является простейшей формой
закона больших чисел. Эта теорема утверждает, что относительная частота события при достаточно большом числе испытаний сходится в определенном смысле к вероятности этого события. Теорема Бернулли позволила придать определенный смысл понятию вероятности и применить теорию вероятностей к самым разнообразным задачам статистики.
Выдающимся ученым Муавру[8] и Лапласу[9] принадлежит заслуга доказательства одной из простейших форм центральной предельной теоремы. Они впервые ввели в рассмотрение нормальный закон, который играет исключительную роль в самых разнообразных задачах теории вероятностей.
Великий немецкий математик К.Ф. Гаусс[10] доказал, что ошибки измерений подчиняются нормальному закону, и тем самым внес неоценимый вклад в теорию ошибок. Он также разработал метод обработки экспериментальных данных, который носит название "Метода наименьших квадратов". Здесь следует также отметить, что вывод нормального закона для случайных ошибок независимо от Гаусса и практически одновременно с ним получил малоизвестный американский математик Р. Эдрейн (1775–1843).
Второй период в развитии теории вероятностей завершается работами Пуассона[11], который доказал более общую, чем у Я. Бернулли, форму закона больших чисел. Ему также принадлежит заслуга применения методов теории вероятностей к задачам стрельбы. Имя Пуассона носит название один из важнейших законов распределения, который играет большую роль во многих задачах практики.
Следует отметить, что попытка Пуассона и некоторых других ученых применять теорию вероятностей к социальным явлениям вызвала оживленные споры и серьезные возражения в среде математиков и социологов. Появилось большое количество работ, посвященных неоправданным применениям теории вероятностей к жизни общества. Это привело к тому, что к теории вероятностей стали относиться скептически. А если еще учесть, что в это время недостаточно ясны были области приложения теории вероятностей в естественных науках, то становится понятным, почему интерес к ней на Западе резко упал.
Третий период в развитии теории вероятностей тесно связан с работами Петербургской математической школы. Следует отдать должное выдающемуся математику В.Я.Буняковскому (1804–1889), роль которого в распространении вероятностных идей в России переоценить нельзя. Он является автором первого курса теории вероятностей на русском языке и учителем великого русского математика П. Л. Чебышева[12], которого по праву можно назвать руководителем дореволюционной математической школы в России. Работы Чебышева в области теории вероятностей явились крупнейшим событием в математике. Они положили начало целому циклу глубоких исследований в области закона больших чисел. Его идеи оставили яркий след в развитии математики и предопределили надолго наперед направление и методы исследований массовых случайных явлений. "Вывел русскую теорию вероятностей на первое место в мире Пафнутий Львович Чебышев", – так оценил роль этого замечательного ученого академик А.Н. Колмогоров[13].
Наиболее выдающимися учениками Чебышева, оставившими неизгладимый след в развитии теории вероятностей, являются А.А. Марков[14] и А.М. Ляпунов[15]. Маркову принадлежит обобщение закона больших чисел на случай зависимых случайных величин. Его работы положили начало бурно развивающейся в настоящее время теории случайных функций. Ляпунову мы обязаны первым доказательством центральной предельной теоремы при весьма общих условиях.
Современный, четвертый период характеризуется исключительным подъемом интереса к теории вероятностей в самых различных областях человеческой деятельности. Этот интерес стимулировал бурное развитие многих направлений теории вероятностей.
Российская школа теории вероятностей, которая в настоящее время по праву занимает в мировой науке ведущее место, решила ряд принципиальных вопросов. В частности, академикам С. Н. Бернштейну и А. Н. Колмогорову принадлежат основополагающие работы в аксиоматическом построении теории вероятностей.
Большой вклад в развитие теории вероятностей внесли российские ученые А.Я. Хинчин, Б.В. Гнеденко, Е. Б. Дынкин, В.С. Пугачев, А.Н. Ширяев, А.А. Боровков, Ю.А. Розанов, Ю.В. Прохоров, И.И.Гихман, А.В. Скороход и другие. теория вероятностей продолжает интенсивно развиваться в настоящее время.
Глава 1. Основные понятия и правила теории вероятностей
Элементы комбинаторики
Для решения задач с использованием классического определения вероятности необходимо знать основные правила и формулы комбинаторики – раздела математики, изучающего, в частности, вопрос о количестве комбинаций из n элементов по т, которые можно составлять тем или иным способом. Мы рассмотрим три таких способа.
1. Сочетания
Комбинации из n элементов по т, отличающиеся только составом, называются сочетаниями. Число сочетаний из n элементов по т равно
, (2)
где n! = .
Пример 1. В группе 30 человек. необходимо выбрать трех делегатов на конференцию. Сколько существует способов это сделать?
Решение. Каждый способ – это новая тройка студентов, отобранная из 30 человек. Очевидно, эти тройки отличаются только по составу, то есть являются сочетаниями из 30 элементов по 3.Их количество находим по формуле (2):
способов.
Пример 2. В шахматном турнире участвует 16 человек. Сколько партий должно быть сыграно в турнире, если между любыми двумя участниками должна быть сыграна одна партия?
Решение. Каждая партия играется двумя участниками из 16. Пары игроков отличаются от других пар только составом, то есть представляют собой сочетания из 16 элементов по 2. По формуле (2) найдем:
партий.
2. Размещения
Комбинации из n элементов по т, отличающиеся составом или порядком элементов, называются размещениями. Число размещений из n элементов по т равно
. (3)
Пример 1. В группе 30 человек необходимо выбрать старосту, его заместителя и профорга. Сколько существует способов это сделать?
Решение. каждый способ – это новая тройка студентов, отобранная из 30 человек. Очевидно, эти тройки отличаются как по составу, так и по порядку, то есть являются размещениями из 30 элементов по 3. Их количество находим по формуле (3):
способов.
Пример 2. Расписание одного дня состоит из 5 уроков. Определить число вариантов расписания при выборе 11 дисциплин.
решение.Каждый вариант расписания представляет набор 5 дисциплин из 11, отличающихся от других вариантов как составом дисциплин, так и порядком их следования, то есть является размещением из 11 элементов по 5. Число вариантов расписания, то есть число размещений из 11 по 5 находим по формуле (3):
вариантов.
3. перестановки
Комбинации из n элементов по n, отличающиеся порядком, называются перестановками. Число перестановок из n элементов равно
(4)
Пример 3. Порядок выступления семи участников конкурса определяется жребием. Сколько различных вариантов жеребьевки при этом возможно?
решение. каждый вариант жеребьевки отличается только порядком участников конкурса, то есть является перестановкой из 7 элементов. Их число находим по формуле (4):
вариантов.
Приведем пример на вычисление вероятности случайного события с использованием формул комбина-торики.
Пример 4. Из 30 студентов 10 имеют спортивные разряды. Какова вероятность того, что выбранные наудачу 3 студента – разрядники?
решение. Пусть событие А состоит в том, что все 3 выбранных наудачу студента – разрядники. Общее число вариантов выбора трех студентов из 30 равно , так как комбинации из 30 студентов по 3 отличаются только составом студентов. Точно так же число случаев, благоприятствующих событию А, равно . По формуле (1) имеем
Действия над событиями
Пусть с испытанием связаны события А, В.
Определение 1. Суммой событий А, В называется третье событие С, состоящее в наступлении хотя бы одного из событий А, В:
С = А + В.
Пример 1. Испытание: берут наугад точку в области D (рис 2). Рассмотрим события:
А – попадание в область d1;
В – попадание в область d2;
С– попадание в заштрихованную область.
Тогда С = А + В.
Определение 2. Произведением двух событий А, В называется третье событие С, состоящее в одновременном наступлении этих событий: С = А · В.
Пример 2. Испытание: берут наугад точку в области D (рис 2). Рассмотрим события:
А – попадание в область d1;
В – попадание в область d2;
С – попадание в общую часть областей d1 и d2.
Тогда С = А · В.
Определение 3. Событие В называется противоположным событию А, если оно состоит не в наступлении события А:
В = .
Пример 3. Испытание: берут наугад точку в области D (рис 3).
Событие А: попадание в область d1;
Событие В: попадание в область d2.
Тогда В = .
Замечание. Укажем другие обозначения для введенных операций:
А + В Û А или В;
А · В Û А и В;
Û не А.
Сумма событий – операция "или";
произведение событий – операция "и";
переход к противоположному событию – операция "не".
Из определения суммы и произведения событий вытекают следующие свойства введенных трех операций.
1) А + А = А; 8) А · W = А;
2) А + Æ = А; 9) А · В = В · А;
3) А + W = W; 10) (А · В) · С = А · (В · С);
4) А + В = В + А; 11) (А + В) · С = А · С + В · С;
5) (А + В) + С = А + (В + С); 12) ;
6) А · А = А; 13) .
7) А · Æ = Æ;
Докажем свойства 12 и 13, остальные 1–11 очевидны.
Событие А + В состоит в наступлении хотя бы одного из событий: А, В, следовательно событие состоит в ненаступлении ни одного из событий А, В. Тот же смысл имеет произведение , то есть , что и требовалось.
Событие состоит в одновременном наступлении событий А, В, следовательно событие состоит в ненаступлении хотя бы одного из событий А или В. Тот же смысл имеет сумма , то есть , что и требовалось.
Множество элементов, удовлетворяющих указанным свойствам, называется алгеброй Буля. Алгебра Буля играет важную роль в математической логике, являющейся одной из теоретических основ ЭВМ.
В математической логике применяются следующие названия указанных операций: "или" – дизъюнкция; "и" – конъюнкция; "не" – отрицание.
Решение.
I способ. По определению вероятности (1) (гл.1§1) и по формуле (2) имеем:
а) Р(бб) ;
б) Р(чч) .
II способ. По формулам (6) и (7) имеем:
а) Р(бб) = Р (1й белый и 2й белый) = Р(1й белый) ·Р (2й б/ 1й б) =
.
б) Р(чч) = Р (1й черный и 2й черный) = Р(1й ч) ·Р (2й ч/ 1й ч) =
.
в) Р(одного цвета) =Р (1й б и 2й б или 1й ч и 2й ч) = Р(бб + чч) =
= Р(бб) + Р (чч) = = .
г) I способ.
Р (разного цвета) = Р (б·ч + ч·б) = Р (б·ч) + Р(ч·б) =
.
II способ.
Р (разного цвета) = 1 – Р (одного цвета) = 1 – = .
Рис. 7
Испытание: из наугад выбранной урны наугад берут один шар. Найти вероятность того, что шар белый.
обозначим: событие А – выбран белый шар, Р(А) – ?.
Введем три предположения (гипотезы):
Н1 – выбран шар из I-ой урны;
Н2 – выбран шар из II-ой урны;
Н3 – выбран шар из III-ей урны.
Очевидно, эти гипотезы являются несовместными событиями, одно из которых обязательно реализуется в результате испытания, то есть
.
Найдем вероятности следующих событий:
, , .
Р(А·Н1) = Р(Н1)Р(А/Н1), ;
Р(А·Н2) = Р(Н2)Р(А/Н2), ;
Р(А·Н3) = Р(Н3)Р(А/Н3), .
Откуда имеем:
Р(А) = Р (АН1 + АН2 + АН3) = Р (АН1) + Р (АН2) + + Р (АН3) .
Перенесем эту задачу в следующую общую ситуацию: событие А может наступить при одной из n взаимоисключающих гипотез Н1, Н2, …, Нn. Рассуждая аналогично, применяя формулы сложения, умножения событий, получаем формулу
Р(А) = Р(Н1)Р(А/Н1)+Р(Н2)Р(А/Н2) + … +Р(Нn)Р(А/Нn), (9)
которая называется формулой полной вероятности.
Вычисление вероятностей гипотез при наличии дополнительной информации. Формула Байеса.
Рассмотрим две задачи.
рис. 8
1. Известно, что в соседней комнате проводилось следующее испытание: из наугад выбранной урны (рис. 8) брали наугад один шар. Какова вероятность того, что его брали: а) из первой урны (Н1); б) из второй урны (Н2)?
В этой ситуации оба предположения следует считать равновозможными:
.
2. Известно, что в соседней комнате проводилось то же испытание, и был вынут белый шар. какова вероятность, что шар взят: а) из первой урны; б) из второй урны.
В этой ситуации гипотезы нельзя считать равновозможными: в первой урне значительно больше белых шаров, чем во второй. Как в этой ситуации найти вероятности гипотез?
Эта задача может быть в общем виде сформулирована так:
1) в данном испытании интересующее нас событие А может наступить при одной из n взаимоисключающих гипотез Н1, Н2, …, Нn;
2) известно, что испытание проведено и его результат известен: наступило событие А. Как найти вероятности Р(Н1/А), Р(Н2/А), …, Р(Нn/А)?
Утверждение. В указанной ситуации справедлива формула:
, (10)
которая называется формулой Байеса.
Доказательство. По формуле (7) имеем
Р(А·Нk) = Р(А) · Р(Нk/А),
Р(А·Нk) = Р(Нk) · Р(А/Нk).
Откуда, учитывая формулу (9), получаем
.
Решение.
Р (40≤ x≤ 60) = Р(x = 40) + Р(x = 41) + Р(x = 42) + … +
+ Р(x = 60) = .
Мы видим: если в схеме Бернулли число испытаний n велико, то подсчет вероятностей вида P(m1 ≤ x≤ m2) с помощью формулы Бернулли весьма затруднен.
укажем приближенную формулу для подсчета таких вероятностей, доказанную независимо французскими математиками Муавром и Лапласом.
для этого вначале введем функцию, которая называется функцией Лапласа и обозначается Ф(х):
. (12)
Укажем график и некоторые свойства этой функции.
10. Ф(0) = 0;
20. Ф (– х) = – Ф(х);
30. если | x | ≥ 3, то Ф (х) » ± 0,5 с большой точностью.
Для функции Лапласа имеются таблицы.
Теорема 2. В схеме Бернулли при достаточно большом числе испытаний справедлива приближенная формула:
P(m1 ≤ x ≤ m2) » . (13)
эта формула называется интегральной формулой Муавра-Лапласа. Доказательство этой формулы приводится в §3 главы 3. Вычисления показывают, что эта формула является практически точной при n ≥ 30.
Вернемся к решению примера 2.
решение. Здесь n =100, p = q = . По формуле Муавра-Лапласа найдем
Р (40 ≤ x ≤ 60)
Замечание. Интегральная формула Муавра-лапласа указывает правила вычисления вероятности неравенств вида P(m1 ≤ x ≤ m2) в схеме Бернулли при большом числе испытаний. Укажем правило вычисления вероятностей P(x=k) в этой ситуации.
Рассмотрим функцию
.
Очевидно, φ(х) связана с функцией Лапласа равенством
.
При большом числе испытаний справедлива приближенная формула
. ( )
эта формула называется локальной формулой Муавра-Лапласа. Для функции (13') имеются таблицы.
Глава 2. Случайные величины
Пример 2.
.
Помнить: математическое ожидание характеризует центральное значение случайной величины с учетом возможных значений и их вероятностей: маловероятные значения вносят малый вклад в формирование математического ожидания, наиболее вероятные значения вносят основной вклад.
Свойства математического ожидания.
10. М [ a ] = а.
Математическое ожидание неслучайной величины равно самой величине.
20. М [ а x ] = a M [ x ].
Неслучайный множитель выносится за знак математического ожидания.
30. M [ x + h ] = M [ x ] + M [ h ].
Математическое ожидание суммы случайных величин равно сумме математических ожиданий.
40. Если x, h статистически независимы, то
|
Доказательство.
1. Имеем: , откуда получаем ma = 1· a = a.
2. Пусть
, тогда ,
откуда М [ а x ] = ax1· p1 + ax2· p2 +…+ axn· pn = a M [ x ].
Для наглядности далее будем предполагать, что x, h принимают два возможных значения:
; h .
3. x + h : ;
M [ x + h ] ;
I1 = p11 x1 + p12 x1 + p21 x2 + p22 x2 = (p11 + p12)x1 + (p21 + p22)x2.
;
доказано: р11 + р12 = р1, аналогично получим: р21 + р22 = р2,
тем самым I1 = p1x1 + p2x2 = M [ x ].
Также доказывается, что I2 = M [ h ].
4. В силу теоремы умножения для независимых событий имеем: x · h : .
Тогда
M [ x · h ] = p1q1x1y1 + p1q2x1y2 + p2q1x2y1 + p2q2x2y2 =
= (p1x1 + p2x2) · (q1y1 + q2y2) = M [ x ] · M [ h ].
Пример.
Испытание: берут наугад точку x на числовой оси так, что значения на отрезке [0, 1] равновозможны, остальные значения невозможны. Очевидно, x – непрерывная случайная величина.
Найдем
.
Закон распределения непрерывной случайной величины может быть задан двумя способами:
1. с помощью функции распределения F (x);
2. с помощью плотности вероятности f (x).
Функция распределения
Пусть с испытанием связана непрерывная случайная величина x.
Зафиксируем произвольное число х. В зависимости от случая возможны три исхода испытания:
x > x, x = x, x < x.
Каждое из этих трех событий случайно, поэтому имеет смысл говорить об их вероятности. Обозначим
F (x) = p (x < x).
Функция F(x) называется функцией распределения случайной величины x.
Рис. 11
свойства функции распределения
10. 0 ≤ F (x) ≤ 1;
20. F (x) монотонно не убывает (рис. 11);
30. F (– ¥) = 0, F (+ ¥) = 1;
40. P (a<x< b) = F (b) – F (a).
доказательство.
1. Это свойство вытекает из того, что вероятность любого события есть число, принадлежащее [0, 1].
2. Это свойство вытекает из того, что при увеличении х интервал ( – ¥, х) расширяется, поэтому вероятность попадания в этот интервал не уменьшается.
3. F (– ¥) ,
F (+ ¥) .
4. Имеем:
F (b) = P (x < b) = =
= P (x < a) + P (x = a) + P (x Î (a, b)) = F (a) + 0 + P (a<x< b).
Отсюда вытекает требуемое равенство 40.
Замечание. Функция распределения F (x) имеет смысл и для дискретных случайных величин. Например, функция распределения случайной величины
x :
представляет собой кусочно-постоянную функцию, график которой изображен на рис. 12 (кружок означает, что в этом месте отсутствует точка на графике).
Рис. 12
Проверим это для случаев х >3, 2≤ х< 3. В первом случае имеем
F (x) = P (x < x) = P (x = 1 или x = 2 или x = 3) =
= P (x = 1) + P (x = 2) + P (x = 3) = 0,25 + 0,25 + 0,5 = 1.
Во втором случае
F (x) = P (x = 1 или x = 2) = Р (x = 1) + Р (x = 2) =
= 0,25 + 0,25 = 0,5.
Оставшиеся случаи 1≤ х< 2, x<1 предлагаем рассмотреть самостоятельно.
Плотность вероятности
[ ] Пусть с испытанием связана непрерывная случайная величина x.
Плотностью вероятности случайной величины x в точке х называется предел отношения вероятности попадания в отрезок [x, x + Dx] к длине отрезка Dx при условии, что отрезок стягивается к точке х:
.
Нестрого говоря, плотность вероятности – это вероятность попадания в отрезок длины 1.
Свойства плотности вероятности:
10. f (x) ≥ 0 при всех х.
20. P (x Î (a,b)) =
вероятность попадания в интервал равна заштрихованной площади (рис. 13).
Рис. 13
30. Площадь S бесконечной фигуры, ограниченной графиком плотности f (x) и осью абсцисс, равна 1 (рис. 13): S = 1.
Доказательство.
1. Это свойство вытекает из того, что предел неотриц