ЭЛЕМЕНТЫ ТЕОРИИ...

233
В. И. Бидерман ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ Хабаровск 2017

Upload: others

Post on 04-Feb-2020

10 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

В. И. Бидерман

ЭЛЕМЕНТЫТЕОРИИ

ВЕРОЯТНОСТЕЙ

Хабаровск 2017

Page 2: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИФедеральное государственное бюджетное образовательное учреждение

высшего образования«Тихоокеанский государственный университет»

В. И. Бидерман

Элементытеории вероятностей

Утверждено издательско-библиотечным советом университетав качестве учебного пособия

ХабаровскИздательство ТОГУ

2017

Page 3: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

УДК 519.21(07)ББК 22.171

Б 597

Р е ц е н з е н т ы:Кафедра «Высшая математика» ДВГУПС (завкафедрой

д-р физ.-мат. наук, доц. П. В. Виноградова);Е. А. Мясников, канд. физ.-мат. наук, доц. кафедры М и ММЭ ХГАУиП.

Н а у ч н ы й р е д а к т о р канд. физ.-мат. наук, доц. В. Я. Прудников

Бидерман, В. И.Б597 Элементы теории вероятностей : учебное пособие / В. И. Бидерман;

[науч. ред. В. Я. Прудников]. − Хабаровск : Изд-во Тихоокеан. гос.ун-та, 2017. − 232 с.

ISBN 978-5-7389-2152-0

Пособие соответствует федеральному государственному образовательномустандарту в области математики для технических специальностей и техниче-ских и экономических направлений бакалавриата и предназначено для студен-тов университета дневной, заочной и дистанционной форм обучения.

Рассматриваются классические разделы теории вероятностей. Пособие со-держит большое количество задач, иллюстрирующих изучаемые темы.

УДК 519.21(07)ББК 22.171

c© Бидерман В. И., 2017

c© Тихоокеанский государственныйISBN 978-5-7389-2152-0 университет, 2017

Page 4: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Оглавление

Предисловие . . . . . . . . . . . . . . . . . . . 4

1 Элементы комбинаторики 51.1 Операции над множествами . . . . . . . . . . . . . . . . . . . 51.2 Правило суммы . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Правило произведения . . . . . . . . . . . . . . . . . . . . . . 91.4 Понятие факториала . . . . . . . . . . . . . . . . . . . . . . . 111.5 Перестановки . . . . . . . . . . . . . . . . . . . . . . . . . . . 121.6 Размещения без повторения . . . . . . . . . . . . . . . . . . . 121.7 Перестановки с повторениями двух типов . . . . . . . . . . . 131.8 Сочетания без повторения . . . . . . . . . . . . . . . . . . . . 141.9 Размещения с повторением . . . . . . . . . . . . . . . . . . . 15

2 Введение в теорию вероятностей 182.1 Понятие события. Классификация событий . . . . . . . . . . 182.2 Классическое определение вероятности . . . . . . . . . . . . 202.3 Статистистическое определение вероятности . . . . . . . . . 262.4 Геометрическое определение вероятности . . . . . . . . . . . 28

3 Алгебра событий 343.1 Сложение вероятностей событий . . . . . . . . . . . . . . . . 343.2 Умножение вероятностей событий . . . . . . . . . . . . . . . 373.3 Примеры применения алгебры событий . . . . . . . . . . . . 41

3.3.1 Связь между вероятностями противоположных событий 413.3.2 Вероятность работы схем теории надежности . . . . . 44

3.4 Формула полной вероятности . . . . . . . . . . . . . . . . . . 463.5 Формула Байеса . . . . . . . . . . . . . . . . . . . . . . . . . 50

4 Схема Бернулли 544.1 Формула Бернулли . . . . . . . . . . . . . . . . . . . . . . . . 544.2 Формула Пуассона . . . . . . . . . . . . . . . . . . . . . . . . 564.3 Локальная и интегральная теоремы Лапласа . . . . . . . . . 604.4 Вероятность отклонения относительной частоты события

от постоянной вероятности в независимых испытаниях . . . 654.5 Наивероятнейшее число наступлений события

в схеме независимых испытаний . . . . . . . . . . . . . . . . 67

3

Page 5: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5 Дискретные случайные величины 705.1 Понятие случайной величины . . . . . . . . . . . . . . . . . . 705.2 Закон распределения дискретной случайной величины . . . 71

5.2.1 Определение закона распределения дискретной слу-чайной величины . . . . . . . . . . . . . . . . . . . . . 71

5.2.2 Табличное задание закона распределения . . . . . . . 725.2.3 Графическое задание закона распределения . . . . . . 77

5.3 Функция распределения дискретной случайной величиныи ее свойства . . . . . . . . . . . . . . . . . . . . . . . . . . . 785.3.1 Определение функции распределения дискретной

случайной величины . . . . . . . . . . . . . . . . . . . 785.3.2 Свойства функции распределения . . . . . . . . . . . 82

5.4 Числовые характеристики дискретной случайной величины 835.4.1 Математическое ожидание распределения дискретной

случайной величины . . . . . . . . . . . . . . . . . . . 835.4.2 Вероятностный смысл математического ожидания . . 875.4.3 Понятие индикатора события . . . . . . . . . . . . . . 885.4.4 Свойства математического ожидания . . . . . . . . . 895.4.5 Мода дискретной случайной величины . . . . . . . . . 915.4.6 Дисперсия дискретной случайной величины . . . . . . 935.4.7 Свойства дисперсии . . . . . . . . . . . . . . . . . . . 975.4.8 Среднее квадратическое отклонение . . . . . . . . . . 98

5.5 Одинаково распределенные независимые случайныевеличины . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

5.6 Примеры распределений дискретных случайных величин . . 1035.6.1 Биномиальное распределение вероятностей . . . . . . 1035.6.2 Распределение Пуассона . . . . . . . . . . . . . . . . . 108

6 Непрерывные случайные величины 1126.1 Определение непрерывной случайной величины . . . . . . . 1126.2 Плотность распределения вероятностей непрерывной

случайной величины и ее свойства . . . . . . . . . . . . . . . 1156.3 Числовые характеристики непрерывной случайной

величины . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1196.3.1 Математическое ожидание непрерывной случайной ве-

личины . . . . . . . . . . . . . . . . . . . . . . . . . . 1196.3.2 Дисперсия непрерывной случайной величины . . . . . 123

6.4 Равномерное распределение . . . . . . . . . . . . . . . . . . . 1266.4.1 Определение и график функции плотности

равномерного распределения . . . . . . . . . . . . . . 126

4

Page 6: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

6.4.2 Интегральная функция равномерного распределения 1266.4.3 Математическое ожидание равномерного распределения1276.4.4 Дисперсия равномерного распределения . . . . . . . . 1276.4.5 Среднее квадратическое отклонение равномерного рас-

пределения . . . . . . . . . . . . . . . . . . . . . . . . 1286.5 Нормальное распределение . . . . . . . . . . . . . . . . . . . 130

6.5.1 Определение и график функции плотностинормального распределения . . . . . . . . . . . . . . . 130

6.5.2 Нормированное нормальное распределение . . . . . . 1336.5.3 Интегральная функция нормального распределения . 1346.5.4 Математическое ожидание нормального распределения 1376.5.5 Дисперсия нормального распределения . . . . . . . . 1376.5.6 Среднее квадратическое отклонение нормального

распределения . . . . . . . . . . . . . . . . . . . . . . 1386.5.7 Вероятность попадания нормально распределенной

случайной величины в заданный интервал . . . . . . 1396.5.8 Вероятность отклонения нормально распределенной

случайной величины от ее центра рассеивания . . . . 1406.5.9 Правило трех сигм . . . . . . . . . . . . . . . . . . . . 1416.5.10 Примеры решения задач, связанных с нормальным

распределением . . . . . . . . . . . . . . . . . . . . . . 1426.5.11 О роли нормального закона в теории вероятностей и

ее приложениях . . . . . . . . . . . . . . . . . . . . . . 1476.6 Показательное распределение . . . . . . . . . . . . . . . . . . 149

6.6.1 Определение и график функции плотностипоказательного распределения . . . . . . . . . . . . . 149

6.6.2 Интегральная функция показательного распределения 1496.6.3 Математическое ожидание показательного распреде-

ления . . . . . . . . . . . . . . . . . . . . . . . . . . . 1516.6.4 Медиана показательного распределения . . . . . . . . 1526.6.5 Дисперсия показательного распределения . . . . . . . 1536.6.6 Среднее квадратическое отклонение показательного рас-

пределения . . . . . . . . . . . . . . . . . . . . . . . . 1546.6.7 Вероятность попадания показательно распределенной

случайной величины в заданный интервал . . . . . . 1546.6.8 Понятие о роли показательного распределения в тео-

рии надежности . . . . . . . . . . . . . . . . . . . . . . 1556.7 Понятие о моментах . . . . . . . . . . . . . . . . . . . . . . . 160

5

Page 7: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

7 Закон больших чисел 1707.1 Неравенство Маркова . . . . . . . . . . . . . . . . . . . . . . 1707.2 Неравенство Бьенеме − Чебышева . . . . . . . . . . . . . . . 1727.3 Теорема Чебышева . . . . . . . . . . . . . . . . . . . . . . . . 1757.4 Теорема Бернулли . . . . . . . . . . . . . . . . . . . . . . . . 1797.5 Сходимость по вероятности . . . . . . . . . . . . . . . . . . . 181

8 Двумерные случайные величины 1838.1 Понятие двумерной случайной величины . . . . . . . . . . . 1838.2 Дискретные двумерные случайные величины . . . . . . . . . 184

8.2.1 Закон распределения дискретной двумерной случай-ной величины . . . . . . . . . . . . . . . . . . . . . . . 184

8.2.2 Функция распределения дискретной двумерной слу-чайной величины . . . . . . . . . . . . . . . . . . . . . 188

8.3 Понятие независимости случайных величин . . . . . . . . . . 1958.4 Условное распределение вероятностей . . . . . . . . . . . . . 1998.5 Условное математическое ожидание . . . . . . . . . . . . . . 2038.6 Функции, уравнения и линии регрессии . . . . . . . . . . . . 2048.7 Общая характеристика зависимости случайных величин . . 2088.8 Вывод уравнения линейной регрессии . . . . . . . . . . . . . 2108.9 Свойства ковариации . . . . . . . . . . . . . . . . . . . . . . 2138.10 Свойства коэффициента корреляции . . . . . . . . . . . . . . 2168.11 Понятие корреляции случайных событий . . . . . . . . . . . 220

Заключение . . . . . . . . . . . . . . . . . . . 222

Библиографический список . . . . . . . . . . . . 223

Приложение 1 . . . . . . . . . . . . . . . . . . 225

Приложение 2 . . . . . . . . . . . . . . . . . . 226

Предметный указатель . . . . . . . . . . . . . 227

6

Page 8: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Предисловие

В условиях, когда при переходе на бакалавриат резко уменьшается коли-чество аудиторных часов как лекционных, так и практических, а содержа-ние курса математики при этом меняется незначительно, становится невоз-можным традиционное чтение лекций, при котором только при помощимела и тряпки или их современных заменителей: фломастера и губки −можно довести до слушателя это самое содержание.

Если к исчезновению аудиторных часов еще добавить проблемы школь-ной математики, выпавшие на долю практически каждого из решившихстать бакалаврами или специалистами, то остается только надеяться, чтоданное пособие в виде курса лекций совместно со временем, проведеннымстудентом на лекциях и практических занятиях в учебных аудиториях,поможет ему не только выполнить тот объем самостоятельной работы, ко-торый свалится на его голову, но и поможет ему найти дорогу от школьнойматематики к математике высшей.

Настоящее пособие предназначено для студентов технических специаль-ностей и технических, а также экономических направлений бакалавриата.

Пособие посвящено классическим темам теории вероятностей: алгебресобытий и случайным величинам. В качестве введения включены элемен-ты комбинаторики, необходимой для изучения алгебры событий. Пособиесостоит из восьми глав, в которых рассматриваются вопросы теории и боль-шое количество задач, иллюстрирующих эту теорию.

Причиной написания данного пособия, помимо вышеуказанных, явля-ется попытка за счет использования логических конструкций и большеговнимания к деталям сделать решение задач теории вероятности доступнымне только студентам-отличникам, но и всем тем, кто в силу лаконичностиизложения не может разобраться в классической литературе по теории ве-роятностей.

При написании пособия автор пользовался классическими учебника-ми теории вероятностей и литературой по истории теории вероятностей.Информацию об этих источниках можно найти как в библиографическомсписке, так и в сносках в конце страниц.

Как любое учебное пособие, это пособие имеет свои достоинства и своинедостатки. Но автор надеется, что достоинства окажут большее влияние,чем недостатки, и среди читателей найдутся те, для кого чтение предлага-емого пособия станет первым, но не последним шагом в мир теории веро-ятностей. И, в конечном итоге, они смогут читать классическую литерату-ру по теории вероятностей, обратив свое внимание на библиографическийсписок литературы, который поможет им найти дорогу в этот мир.

7

Page 9: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

1 Элементы комбинаторики

На зачете по комбинаторике.

Сколькими способами могут зайти в аудиторию

пять студентов?

Ответ студента: Существует пять способов: через

дверь, окно, подкоп, люк в потолке и пролом стены.

Из математического фольклора1

Комбинаторикой называется раздел математики, изучающий соеди-нения между элементами конечных множеств с количественной точки зре-ния.

Название комбинаторика происходит от латинского слова combina, чтов переводе на русский означает − сочетать, соединять.

В математику его ввел В. Лейбниц2, опубликовав в 1666 году «Рассуж-дения о комбинаторном искусстве».

Знание комбинаторики необходимо там, где приходится иметь дело сконечными множествами. Так, в частности, в задачах теории вероятностии математической статистики, которые в курсе математики являются сле-дующим объектом изучения, предполагается умение решать задачи комби-наторики.

В дальнейшем нам понадобятся следующие

1.1 Операции над множествами

Определение 1.1. Объединением элементов двух множеств A иB называется множество всех элементов этих множеств, каждый изкоторых является элементом A или элементом B, или принадлежит итому, и другому множеству одновременно.Обозначается объединение множеств следующим образом:

A ∪B = x : x ∈ A или x ∈ B или x ∈ A и B.

Если множество A является кругом, а множество B квадратом, то гра-фически объединение множеств A ∪B можно изобразить (рис. 1.1) так:

1Правильный ответ можно найти на странице 12.2См. Гнеденко Б. В. Курс теории вероятностей. М. : Наука, 1988. С. 85.Лейбниц Готфрид Вильгельм (нем. Gottfried Wilhelm von Leibniz, 1646 - 1716) − немецкий

философ, логик, математик, механик, физик, юрист, историк, дипломат, изобретатель и языковед.Наряду с И. Ньютоном основоположник математического анализа. Создатель комбинаторики какнауки, заложил основы математической логики. (См. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyre\T2A\cyrishrt\T2A\cyrb\T2A\cyrn\T2A\cyri\T2A\cyrc,_\T2A\CYRG\T2A\cyro\T2A\cyrt\T2A\cyrf\T2A\cyrr\T2A\cyri\T2A\cyrd_\T2A\CYRV\T2A\cyri\T2A\cyrl\T2A\cyrsftsn\T2A\cyrg\T2A\cyre\T2A\cyrl\T2A\cyrsftsn\T2A\cyrm (дата обраще-ния: 12.06.2016)).

8

Page 10: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

A

B

A ∪B

Рис. 1.1

Например, если множество A состоит из тех, кто знает английский язык,а множество B − из тех, кто знает немецкий язык, то объединение A ∪ Bвключает как тех, кто знает только английский или только немецкий, таки тех, кто знает оба эти языка.

Определение 1.2. Объединение элементов множеств A и B, не име-ющих общих элементов, называется суммой множеств и обозначает-ся

A+B = x : x ∈ A или x ∈ B.

A

B

A+B

Рис. 1.2

На рис. 1.2 в виде кругаA и квадратаB показано объединение множеств,не имеющих общих элементов.

Так, если элементами множества A являются знающие только англий-ский язык, а элементами множества B − знающие только немецкий, тосуммой множеств A + B является множество знающих только один ино-странный язык.

Определение 1.3. Пересечением множеств элементов A и B на-зывается множество всех общих элементов этих множеств.

A ∩B = x : x ∈ A и x ∈ B.

Если множество A является кругом, а множество B − квадратом, топересечение этих множеств изображено на рис. 1.3 в виде незакрашенногомножества клеток внутри множества, окрашенного в серый цвет.

В приведенном примере со знанием языков пересечением множеств яв-ляется множество людей, знающих одновременно английский и немецкийязыки.

9

Page 11: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

A

B

A ∩B

Рис. 1.3

Определение 1.4. Произведением множеств элементов A и Bназывается множество всех пар элементов (a; b), в которых a ∈ A, b ∈B, то есть

AB = (a; b) : a ∈ A, b ∈ B.Если, например, элементами множества A являются знающие только

английский язык, а элементами множества B − знающие только немец-кий, то можно образовать произведение множеств AB как множество пар,в каждой из которых один знает только английский, а другой − тольконемецкий.

Определение 1.5. Разностью множеств элементов A и B назы-вается множество тех элементов множества A, которые не являютсяэлементами множества B, то есть

A \B = a : a ∈ A, a /∈ B.

Пусть множество A (рис. 1.4) есть серый круг, а множество B − белыйквадрат, тогда разность множеств A\B выглядит как три четверти серогокруга.

A

B

A \B

Рис. 1.4

В примере с языками разность множеств представляет множество знаю-щих английский язык, но не знающих немецкий.

Предположим, что Ω − представляет универсальное множество всехизучаемых элементов, а ∅ − пустое множество, то есть множество несодержащее ни одного элемента. С помощью этих множеств можно датьследующее

Определение 1.6. Дополнением множества A (до универсальногомножества Ω) называется множество всех элементов универсального

10

Page 12: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

множества, которые не принадлежат множеству A, то есть

A = x : x ∈ Ω, x /∈ A.

Например, в ситуации с языками A − множество людей, незнающиханглийский, а B − множество людей, незнающих немецкий.

Сформулируем несколько следствий из приведенных определений.Следствие 1.1. A+B = (A ∪B) \ (A ∩B).Следствие 1.2. A+ A = Ω; A ∩ A = ∅.Следствие 1.3. A \B = A ∩ B.Замечание 1.1. В дальнейшем нам понадобятся такие неопределяемые

понятия как опыт или эксперимент.Под опытом или экспериментом будем понимать некоторую вос-

производимую совокупность физических условий, на фоне которых на-ступает изучаемое явление, фиксируется тот или иной результат.

Опыт или эксперимент представляют некоторое универсальное множе-ство Ω, элементами которого являются исходы опыта ω (или исходы экс-перимента ω). При этом исходы будут делиться на благоприятные исходыи неблагоприятные исходы. Благоприятные исходы будут образовыватьизучаемые события, которые будут обозначаться прописными буквами ла-тинского алфавита: A, B, C, . . . Таким образом, событие A можно опре-делить как подмножество исходов ω некоторого опыта Ω, то есть

A = ω ⊆ Ω.

С помощью данных определений и следствий обратимся к изучениюкомбинаторики, в основе которой лежат два правила − правило суммы иправило произведения.

1.2 Правило суммы

Теорема 1.1. Правило суммы. Если элементы множества A можновыбрать m способами, а элементы другого множества B можно вы-брать n способами, то элементы множества «A или B», то есть суммымножеств A+B, можно выбрать m+ n способами.

Данное утверждение настолько очевидно, что не нуждается в доказа-тельстве.

Задача 1.1. На столе лежат две коробки с карандашами. В первойкоробке лежат 5 карандашей, а во второй коробке − 4 карандаша. Сколькосуществует способов взять один карандаш со стола?

Решение. Событие A− со стола взят один карандаш может произойтис помощью одного из двух событий:

11

Page 13: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

1) событие A1− из первой коробки взят один карандаш;

2) событие A2− из второй коробки взят один карандаш.

Так как невозможно взять один карандаш одновременно из двух коро-бок, то событие со стола взят один карандаш эквивалентно тому, что изпервой коробки взят один карандаш ИЛИ из второй коробки взят одинкарандаш. Формально это можно записать так:

A = A1

+ A2.

Так как событие из первой коробки взят один карандаш можно выпол-нить n

1= 5 способами, а событие из второй коробки взят один карандаш

− n2

= 4 способами, то согласно правилу суммы 1.1 событие со стола взятодин карандаш можно выполнить

NA

= n1

+ n2

способами. Поэтому NA

= 5 + 4 = 9.

Итак, один карандаш со стола можно взять 9 способами .

1.3 Правило произведения

Теорема 1.2. Правило произведения. Если элементы множества Aможно выбрать m способами и если после такого выбора элементы мно-жества B можно выбрать n способами, то элементы произведения мно-жеств AB можно выбрать m · n способами.

Д о к а з а т е л ь с т в о. Так как произведение множеств поопределению (1.4) есть множество пар, то для каждого первого элементапары, выбранного с помощьюm способов, можно подобрать второй элементn способами, поэтому множество пар будет содержать m · n элементов.

Задача 1.2. На столе лежат две коробки с карандашами. В первойкоробке лежат 5 синих карандашей, а во второй коробке − 4 красныхкарандаша. Сколько существует способов взять два разноцветных каран-даша со стола?

Решение. Событие B − со стола взяты два разноцветных карандашаможет произойти с помощью одного из двух событий:1) событие B

1− из первой коробки взят один синий карандаш;

2) событие B2− из второй коробки взят один красный карандаш.

Событие со стола взяты два разноцветных карандаша эквивалентно то-му, что из первой коробки взят один синий карандашИ из второй коробкивзят один красный карандаш. То есть, фактически образуется множествопар (c; к). Формально это можно записать так:

B = B1B

2.

12

Page 14: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Так как событие из первой коробки взят один синий карандаш можновыполнить n

1= 5 способами, а событие из второй коробки взят один

красный карандаш − n2

= 4 способами, то согласно правилу произведения1.2 событие со стола взяты два разноцветных карандаша можно выпол-нить

NB

= n1· n

2

способами. Поэтому NB

= 5 · 4 = 20. Таким образом,

два разноцветных карандаша со стола можно взять 20 способами .

Замечание 1.2. О знании языка при решении задач комбинато-рики. Объединяя правила суммы и произведения, можно сформулироватьобщее правило, опирающееся на конструкции языка, связанные с исполь-зованием союзов «и» и «или».

Если предложение о некотором событии можно переформулироватьс помощью союзов «и» и «или», связывающих соответствующие микро-события, то общее число исходов изучаемого события равно линейнойкомбинации числа исходов полученных микрособытий. При этом в со-ставленной линейной комбинации числа исходов союзам «и» соответст-вует умножение, а союзам «или» − сложение.

Задача 1.3. В магазине лежат 5 книг автора A, 4 книги автора B и 3книги автора C. Кроме этого, 6 сборников (BC) состоят из произведенийавторов B и C, и 4 сборника (AC) содержат произведения авторов A иB. Сколько существует вариантов купить по одному произведению всехтрех авторов?

Решение. Введем обозначения событий, связанных с условием задачи.Событие D − купить по одному произведению всех трех авторов;Событие A − купить одно произведение автора A;Событие B − купить одно произведение автора B;Событие C − купить одно произведение автора C;Событие AC − купить сборник AC;Событие BC − купить сборник BC.

Рассмотрим подробное текстовое решение задачи:Купить по одному произведению всех трех авторов это эквивалентно то-му, что: купить одно произведение автора A и купить одно произведениеавтора B и купить одно произведение автора C или купить одно произ-ведение автора A и купить сборник BC или купить одно произведениеавтора B и купить сборник AC.

Перепишем это решение в символьном виде:D=A и B и C или A и BC или B и AC.

13

Page 15: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее воспользуемся замечанием 1.2, сопоставив каждому событию чис-ло его исходов:

ND

= nA· n

B· n

C+ n

A· n

BC+ n

B· n

AC.

Теперь остается подставить численные значения соответствующих исхо-дов:

ND

= 5 · 4 · 3 + 5 · 6 + 4 · 4⇒ ND

= 106.Выходит, что существует

106 вариантов купить по одному произведению всех трех авторов .

В дальнейшем нам понадобится одно техническое понятие из мира вы-числений целых неотрицательных чисел.

1.4 Понятие факториала

Определение 1.7. Факториалом1 натурального числа n называет-ся произведение всех натуральных чисел от единицы до n включительно.

То есть,n! = 1 · 2 · 3 · . . . (n− 1) · n.

(Читается: «эн факториал»). По определению полагают, что 0! = 1.Так, например, 3! = 1 ·2 ·3, то есть 3! = 6, а 5! = 1 ·2 ·3 ·4 ·5⇒ 5! = 120.Можно заметить, что, зная то, что 3! = 6, 5! можно вычислить проще:

5! = 3! · 4 · 5, что позволяет значительно уменьшить объем вычислений.

Задача 1.4. Сократите дробь4!

7!.

Решение. Так как 7! = 4! · 5 · 6 · 7, то 4!

7!=

4!

4! · 5 · 6 · 7=

1

210.

Следовательно,4!

7!=

1

210.

Правила суммы и произведения являются общими правилами решениязадач комбинаторики. С их помощью можно решать самые различные за-дачи. Но существует целый ряд задач, которые встречаются настолько ча-сто, что есть смысл свести их решение к формулам2.

1Факториал (от фр. factor − множитель, производного от лат. factor − производящий) Символфакториала в 1808 году ввел в математику К. Крамп (см. Глейзер Г. И. История математики в школе:IX-X кл. Пособие для учителей М. : Просвещение, 1983. С. 214).

Крамп Кристиан (Кретьен) (фр. Christian Kramp, 1760-1826) − французский математик. Автор ра-бот по теории чисел, геометрии, математической кристаллографии, алгебре и механике. (см. Википедия[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRK\T2A\cyrr\T2A\cyra\T2A\cyrm\T2A\cyrp,_\T2A\CYRK\T2A\cyrr\T2A\cyri\T2A\cyrs\T2A\cyrt\T2A\cyri\T2A\cyra\T2A\cyrn(дата обращения: 12.06.2016)).

2У формул, правда, тоже есть серьезная проблема: их надо знать и помнить. Поэтому наряду с нимитам, где есть смысл, будет рассматриваться и второй вариант решения, опирающийся на замечание1.2.

14

Page 16: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

1.5 Перестановки

Определение 1.8. Перестановками1 во множестве из n элемен-тов называются комбинации между всеми элементами множества,отличающиеся друг от друга порядком входящих в них элементов.

Перестановки обозначаются символом Pn. Также обозначается и число

перестановок, для которого справедливаТеорема 1.3. ∀nP

n= n!

Д о к а з а т е л ь с т в о. Представим коробку, содержащуюn горизонтальных ячеек. Заполнив ее разноцветными шариками, можнополучить пример перестановки во множестве из n разноцветных шариков.

Рассмотрим процесс построения перестановки (или заполнения короб-ки).

Заполнить коробку − это совершить такое событие A, которое состоитиз следующих событий:A

1: положить в коробку первый шарик. Число способов n

A1= n; и

A2: положить в коробку второй шарик. Число способов n

A2= n− 1; и

A3: положить в коробку третий шарик. Число способов n

A3= n− 2; и

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .иAn−1

: положить в коробку предпоследний шарик. Число способов nAn−1

= 2;иAn: положить в коробку последний шарик. Число способов n

An= 1.

Таким образом, A = A1и A

2и A

3и . . . A

n−1и A

n.

Согласно принципу произведения 1.2Pn

= NA = n · (n− 1) · (n− 2) · . . . 2 · 1⇒ Pn

= n!Замечание 1.3. С помощью этой теоремы можно интерпретировать,

почему 0! = 1: Множество, состоящее из нулевого числа элементов, естьпустое множество ∅. А оно является упорядоченным единственным обра-зом.

Перестановки являются частным случаем следующего типа комбинаций.

1.6 Размещения без повторения

Определение 1.9. Размещениями без повторения2 называютсякомбинации выбора k различных элементов во множестве из n элемен-

1Перестановки (от лат. permutatio) ввел в 1656 году в «Теории и практике арифметики»(Arithmeticae theoria et praxis) А. Таке.

Таке Андре (Tacquet, Andrе, 1612-1660) − фламандский математик. 10 его произведений вы-держали с 1654 по 2014 год 330 переизданий, его имя присвоено одному из лунных кратеров (см.История математики с древнейших времен до начала XIX столетия : В 3 т. Т. 2 / Под ред. А.П. Юшкевича. М. : Наука, 1970. С. 83, а также Википедия [Электронный ресурс] : URL : http://www.worldcat.org/identities/lccn-n86-864683/ (дата обращения: 12.06.2016)).

2Размещения без повторения впервые рассмотрел в арифметике на иврите в 1321 году Леви бенГершом, а затем в 1705 году Яков Бернулли в его работе «Искусство предположений» (лат. Ars

15

Page 17: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

тов, отличающиеся друг от друга по составу и порядку входящих в нихэлементов. Размещения без повторения обозначаются символом Ak

n. Также

обозначается и их число, для которого справедлива

Теорема 1.4. Akn

=n!

(n− k)!Д о к а з а т е л ь с т в о. Доказательство этой теоремы полностью

повторяет процесс доказательства теоремы 1.3, отличие состоит только втом, что в коробочку надо положить не n шаров, а k шаров. Поэтому

Akn

= NA = n · (n− 1) · (n− 2) · . . . (n− (k − 1)).А так как

n! = n · (n− 1) · (n− 2) · . . . (n− k+ 1)(n− k) · (n− k − 1) · . . . 2 · 1, тоn · (n− 1) · (n− 2) · . . . (n− k + 1) =

n!

(n− k)!. Поэтому Ak

n=

n!

(n− k)!.

Следствие 1.4. Pn

= Ann

=n!

(n− n)!=n!

0!= n!

В предыдущих случаях перестановки касались различных элементов.Но так бывает не всегда.

1.7 Перестановки с повторениями двух типов

Теорема 1.5. Если во множестве из n элементов существуют две груп-пы одинаковых элементов, содержащие соответственно n

1и n

2элемен-

тов, то число перестановок в этом множестве

P (n1, n

2) =

n!

n1!n

2!

(n = n1

+ n2).

Д о к а з а т е л ь с т в о. Число элементов в каждой перестановкеравно n = n

1+n

2. Если бы все элементы во множестве были бы различны-

ми, то число перестановок Pn

= n! Но из-за того, что некоторые элементысовпадают, получится меньшее число перестановок. Так, в первой из группсуществует n

1! перестановок, но так как они все одинаковые, то они ничего

conjectandi), опубликованной после его смерти в 1713 году (см. Гнеденко Б.В. Курс теории... С. 85.).Леви бен Гершом (лат. Gersonides, 1288-1344) − средневековый еврейский учёный-

универсал: философ, математик, астроном. (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyre\T2A\cyrv\T2A\cyri_\T2A\cyrb\T2A\cyre\T2A\cyrn_\T2A\CYRG\T2A\cyre\T2A\cyrr\T2A\cyrsh\T2A\cyro\T2A\cyrm (дата обращения:12.06.2016)).

Бернулли Якоб (нем. Jakob Bernoulli, 1655-1705) − швейцарский математик. Один из основа-телей теории вероятностей, математического анализа и вариационного исчисления. Иностранныйчлен Парижской и Берлинской академий наук (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRI\T2A\cyrs\T2A\cyrt\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyrya_\T2A\cyrt\T2A\cyre\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyri_\T2A\cyrv\T2A\cyre\T2A\cyrr\T2A\cyro\T2A\cyrya\T2A\cyrt\T2A\cyrn\T2A\cyro\T2A\cyrs\T2A\cyrt\T2A\cyre\T2A\cyrishrt(дата обращения: 12.06.2016)).

16

Page 18: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

не меняют. Точно также ничего не меняют и n2! перестановок во второй

группе.Так как перестановки в первой и второй группе не зависят друг от друга,

то по правилу произведения 1.2 элементы этих групп можно переставитьn

1!n

2! способами, при этом перестановка останется неизменной. Следова-

тельно, число различных перестановок с повторениями, которые можновыполнить с элементами данного множества при условии, что n = n

1+ n

2,

P (n1, n

2) =

n!

n1!n

2!

Помимо множеств, состоящих из различных элементов, интерес пред-ставляют и множества, состоящие из одинаковых элементов, в которыхпорядок расположения элементов в комбинациях роли не играет.

1.8 Сочетания без повторения

Определение 1.10. Сочетаниями1 без повторения называются ком-бинации выбора k одинаковых элементов во множестве из n элементов,отличающиеся друг от друга только по составу входящих в них элемен-тов.

Сочетания без повторения обозначаются символом Ckn. Также обознача-

ется и число сочетаний, для которого справедлива

Теорема 1.6. Ckn

=n!

n!(n− k)!1Впервые сочетания определил Тарталья. Масссовое применение сочетания получили после того

как в 1654 году Б. Паскаль, а затем в 1806 году Л. Эйлер ввели обозначения Cmn (от фр. combinasion)

и(n

k

)соответственно (см. Гнеденко Б. В. Курс теории... С. 83).

Тарталья Никколо Фонтана (итал. Tartaglia Niccolо Fontana , 1499-1557) − итальянский математик(см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRT\T2A\cyra\T2A\cyrr\T2A\cyrt\T2A\cyra\T2A\cyrl\T2A\cyrsftsn\T2A\cyrya,_\T2A\CYRN\T2A\cyri\T2A\cyrk\T2A\cyrk\T2A\cyro\T2A\cyrl\T2A\cyro (дата обращения: 12.06.2016)).

Паскаль Блез (фр. Pascal Blaise, 1623-1662) − французский математик, механик, физик,литератор и философ. Классик французской литературы, один из основателей математическо-го анализа, теории вероятностей и проективной геометрии, создатель первых образцов счётнойтехники, автор основного закона гидростатики. (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRP\T2A\cyra\T2A\cyrs\T2A\cyrk\T2A\cyra\T2A\cyrl\T2A\cyrsftsn,_\T2A\CYRB\T2A\cyrl\T2A\cyre\T2A\cyrz (дата обращения: 12.06.2016)).

Эйлер Леонард (нем. Euler Leonhard, 1707-1783) − швейцарский, немецкий и российский матема-тик и механик, внесший фундаментальный вклад в развитие этих наук (а также физики, астрономиии ряда прикладных наук). Автор более чем 850 работ по математическому анализу, дифференци-альной геометрии, теории чисел, приближенным вычислениям, небесной механике, математическойфизике, оптике, баллистике, кораблестроению, теории музыки и другим областям. Он глубоко изучалмедицину, химию, ботанику, воздухоплавание, теорию музыки, множество европейских и древнихязыков. Академик Петербургской, Берлинской, Туринской, Лиссабонской и Базельской академийнаук, иностранный член Парижской академии наук (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYREREV\T2A\cyrishrt\T2A\cyrl\T2A\cyre\T2A\cyrr,_\T2A\CYRL\T2A\cyre\T2A\cyro\T2A\cyrn\T2A\cyra\T2A\cyrr\T2A\cyrd (дата обращения: 12.06.2016)).

17

Page 19: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Д о к а з а т е л ь с т в о. Выбирая k одинаковых элементов вомножестве из n элементов, можно заметить, что одновременно происходитпроцесс «невыбора» других n − k элементов, которые также можно счи-тать одинаковыми. Поэтому множество из n элементов разбивается на двегруппы одинаковых элементов, состоящие из n

1= n и n

2= n−k элементов.

Следовательно, число сочетаний выбора k элементов из n без повторе-ния совпадает с числом перестановок во множестве из двух типов элемен-тов. А значит их число

Ckn

= P (n1, n

2) =

n!

n1!n

2!

=n!

n!(n− k)!

Что и требовалось доказать.Замечание 1.4. Заметим, что данную формулу можно доказать и

другим способом. Для этого выберем сначала все группы, содержащие kэлементов, не учитывая порядок входящих в них элементов. Таких группнаберется Ck

n. Затем в каждой такой группе рассмотрим всевозможные пе-

рестановки. Общее число перестановок в каждой группе составляет Pk

= k!Тогда общее число комбинаций выбора и упорядочения равно произведе-нию Ck

nPk. Которое по определению совпадает с числом размещения k эле-

ментов без повторения во множестве из n элементов. Поэтому Akn

= CknPk,

а значит Ckn

=Akn

Pk

. То есть, Ckn

=n!

n!(n− k)!.

Приведем без доказательства некоторые свойства сочетаний.

Свойство 1.1. Ckn

= Cn−kn

.

Свойство 1.2. C0n

= Cnn

= 1.

Свойство 1.3. C1n

= Cn−1n

.

В ряде задач важную роль играют

1.9 Размещения с повторением

Определение 1.11. Размещениями с повторением называются ком-бинации выбора k элементов во множестве элементов из n видов, отли-чающиеся друг от друга по составу и порядку входящих в них элементов.

Размещения с повторением обозначаются символом Akn. Для них спра-

ведлива следующая теорема.Теорема 1.7. Ak

n= nk.

Д о к а з а т е л ь с т в о. Доказательство теоремы полностью по-вторяет доказательство теоремы 1.3 о перестановках. Отличие заключаетсятолько в том, что каждый выбор совершается из n элементов множества,

18

Page 20: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

поскольку допускает повторения. Поэтому выбирая первый элемент,И вто-рой элемент, И третий элемент, И . . . , И k-й элемент, согласно принципупроизведения мы умножаем n · n · · · · n︸ ︷︷ ︸

k

, что согласно известному из сред-

ней школы правилу сокращенного умножения приводит к возведению n встепень с показателем k.

Задача 1.5. Номер телефона состоит из 11 цифр. Человек забыл трипоследние цифры. Сколько неудачных попыток он может совершить, на-бирая нужный номер?

Решение. Каждая цифра номера определяет отдельный вид. Общее ихчисло n = 10. Длина комбинации, то есть нужного «слова» k = 3. ПоэтомуA3

10= 103. То есть всего он может выполнить 1000 попыток. Но так как

одна удачная, то неудачных будет 999.Возможен и второй вариант решения без формулы, но использующий

ее доказательство и замечание 1.2.Событие A : забыть последние три цифры. Это означает:

событие A1 : забыть первую цифру; Исобытие A2 : забыть вторую цифру; Исобытие A3 : забыть третью цифру.

Следовательно, A =A1 И A2 И A3.Так как каждая из трех забытых позиций номера допускает 10 вариантов,то используя замечание 1.2, сопоставим каждому событию число n = 10.

NA

= 10 · 10 · 10⇒ NA

= 103 ⇒ NA

= 1000.Далее следует учесть, что среди этих попыток есть одна удачная. При са-мом несчастливом варианте она будет последней. Поэтому

человек может совершить 999 неудачных попыток.

Замечание 1.5. В заключение темы следует заметить, что искусствокомбинаторики пригодилось не только в математике. С помощью мате-матики оно сформировалось и нашло применение в музыкальной науке ипрактике XVII-XVIII веков. Теоретические построения «Ars combinatoria»поначалу были лишь опосредовано связаны с музыкальной практикой. Этообъяснялось не только общим характером музыкальной науки, которая бы-ла словесно-числовым осмыслением музыкального бытия, но и происхож-дением музыкального учения об «Ars combinatoria»: его логическая основабыла взята из математики. Две основные категории этого учения − перму-тации и комбинации − также были введены в обиход математиками XVIIвека, а словосочетание «Ars combinatoria» послужило в 1666 году заглави-ем диссертации Лейбница.

Как в математике, так и в музыкальной теории пермутация обозначала

19

Page 21: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

перестановку элементов: abcd, abdc, adbc,... а комбинация − замену однихэлементов другими, аналогичными по функции: abcd, aPcd, aPcd.

Авторы трактатов рассматривали возможности пермутаций и комби-наций применительно к самому разному музыкальному материалу. В каче-стве переставляемых и взаимозаменяемых элементов комбинаторной кон-струкции мыслились: отдельные тоны в составе формул аккомпанемента;сами эти формулы в их последовательности или же фигурации в составепассажей; мотивы в составе голосов контрапунктической ткани; отклоне-ния в родственные тональности в пределах периода и многое другое1.

1Лебедева А. В. Ars combinatoria и музыкальная практика XVIII века : автореферат дис. ... канди-дата искусствоведения/ Рос. акад. музыки им. Гнесиных. М., 2002. С. 4.

20

Page 22: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

2 Введение в теорию вероятностей

Всегда имеется несколько способов

объяснения явлений, и из них мы

предпочтем наименее невероятное.

Бертран Рассел

2.1 Понятие события. Классификация событий

В предыдущей главе было определено понятие опыта (эксперимента) каквоспроизводимой совокупности физических условий, на фоне которых на-ступает некоторое изучаемое явление или фиксируется тот или иной ре-зультат.

Каждый опыт состоит из исходов опыта, на фоне которых происходитизучаемое явление, которое в дальнейшем будет называться событие.

Событие, связанное с одним исходом, называется элементарным со-бытием, а событие, связанное со множеством исходов, − составнымсобытием.

При этом все события можно разбить на три группы: достоверные,невозможные и случайные.

Определение 2.1. Событие, которое при одних и тех же физическихусловиях наступает всегда, называется достоверным событием.

Например, согласно календарю можно утверждать, что наступление по-сле зимы весны является достоверным событием1.

Определение 2.2. Событие, которое при одних и тех же физическихусловиях не происходит никогда, называется невозможным событи-ем.

Любой представитель общества защиты животных скажет, что событие«на Северном полюсе гуляет верблюд» является невозможным событием.

Определение 2.3. Событие, которое при одних и тех же физическихусловиях может произойти или не произойти, называется случайнымсобытием.

Так, например, при вашем участии в розыгрыше любой корректно ус-троенной лотереи кто-нибудь выигрывает. Но событие, при котором этулотерею выиграете вы, к сожалению для вас, является случайным событи-ем.

В дальнейшем нас будут интересовать только случайные события, таккактеория вероятностей является разделом математики, который изу-

1При этом, несмотря на то, что днем наступления весны является 1 марта, фактическое наступлениевесны именно первого марта не является достоверным событием.

21

Page 23: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

чает закономерности, возникающие при изучении массовых случайныхсобытий.

Как и в предыдущей главе, множество всех исходов опыта будем на-зывать пространством элементарных исходов опыта Ω. Соответственноисходы опыта ω являются его элементами: ω ∈ Ω. При этом исходы, со-ставляющие изучаемое событие, являются его благоприятными исходами.

Если Ω состоит из конечного или сравнимого с натуральным рядом мно-жества исходов, то оно называется дискретным пространством ис-ходов опыта, иначе оно называется непрерывным пространствомисходов опыта.

Пространства исходов, связанные с подбрасыванием монеты или играль-ной кости, являются дискретными пространствами. А пространство мно-жества осадков, выпадавших с первого по тридцать первое июля 1950 года,является примером непрерывного пространства.

Заметим, что понятие Ω не является однозначным понятием. Так в слу-чае подбрасывания монеты при исследовании выпадания четного и нечет-ного числа очков возможны два определения:

Ω1

= «1», «2», «3», «4», «5», «6» (2.1)

иΩ

2= «нечетное число очков», «четное число очков». (2.2)

Определение 2.4. Два события называются несовместными, еслиих одновременное наступление является невозможным событием.

Так при подбрасывании монеты одновременное выпадение герба и реше-тки1 является невозможным событием2.

Определение 2.5. Два события называются равновозможными,если связанные с ними исходы являются симметричными относительноих геометрических и физических свойств.

Например, выпадение «герба» и «решетки» при подбрасывании монетыили одной из цифр при подбрасывании игральной кости являются собы-тиями равновозможными, так как предполагается, что и монета и костьсделаны из однородных материалов, имеют постоянную плотность этих ма-териалов и являются геометрически правильными телами.

Определение 2.6. Несовместные и равновозможные события образу-1В XIV-XVI веках на одной из сторон монеты изображалась решетка, которая привела к современ-

ному жаргонному слову решка (см. Фeдорова T. JI., Щеглова О. А. Этимологический словарь русскогоязыка. М. : Ладком, 2012. С. 371).

2Различают попарно несовместные или несовместные в совокупности события. Несовместные всовокупности события одновременно являются и попарно несовместными. Обратное отношение можетне выполняться. Так попарная несовместность первого и третьего событий, а также первого и третьегоне влечет за собой несовместность второго и третьего событий.

22

Page 24: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

ют полную группу событий опыта, если в данном опыте невозможнонаступление другого события, отличного от данных.

При подбрасывании игральной кости события выпадения числа очков:«1», «2», «3», «4», «5», «6» образуют полную группу исходов опыта, так какэти события не только равновозможны и несовместны, но и невозможнымсобытием является наступление иного, кроме этих, события при подбрасы-вании кости.

Определение 2.7. Два события, образующие полную группу событийопыта, называются противоположными событиями.

При подбрасывании одной монеты события: выпадение «герба» и выпа-дение «решетки» являются противоположными событиями.

Если обозначить через A некоторое событие, то событие, ему противо-положное, обозначается через A. Сумма противоположных событий совпа-дает с Ω, а их пересечение пусто, то есть

A+ A = Ω, A ∩ A = ∅.

2.2 Классическое определение вероятности

Вопрос: Какова вероятность, выйдя из

дома, встретить слона?

Ответ: 0,5. Так как вы его встретите

или не встретите.

Из математического фольклора

При рассмотрении случайных событий возникает вопрос о степени воз-можности этих событий, а также о сравнении этих степеней возможностидля разных событий. Логично связать степень возможности с числом, ко-торое становится больше, если увеличивается возможность наступлениясобытия. Это число и называется вероятностью события1.

Но чтобы что-то сравнивать, нужно найти единицу сравнения. Такойединицей может быть вероятность достоверного события, которую можносчитать равной единице. Так как невозможное событие является противо-положным достоверному, то его вероятность логично принять равной нулю.Таким образом, диапазон распределения вероятностей случайных событийсовпадает с промежутком от нуля до единицы2.

1Не надо только путать это понятие вероятности события с бытовым понятием, очень часто ис-пользуемым в повседневном общении и даже неоднократно воспетым: по теории вероятностей послерадостей − неприятности.

2Первой книгой, в которой рассказывалось об этом была «Книга об азартных играх» (Liber de ludoaleae), написанная в 1564 году Д. Кардано.

Кардано Джироламо (лат. Cardanus Hieronymus , итал. Cardano Girolamo, 1501-1576) − итальян-ский математик, инженер, философ, медик и астролог. В его честь названы открытые Сципионом

23

Page 25: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Для любого события A его вероятность P (A) удовлетворяет двойномунеравенству1

0 ≤ P (A) ≤ 1.Предположим, что пространство некоторого опыта Ω состоит из n исхо-

дов, образующих его полную группу. И в этом опыте на фоне m исходовнаступает случайное событие A. Тогда имеет место следующее

Определение 2.8. Классическое определение вероятности2

Вероятностью события A называется отношение числа благопри-ятных данному событию m исходов опыта к числу n всех его исходов.

То есть,P (A) =

m

n.

Задача 2.1. Найдите вероятность выпадения нечетного числа очковпри одном подбрасывании игральной кости.

РешениеВариант 1. Рассмотрим пространство исходов Ω

1(см. 2.1). Так как его

исходы несовместны и равновозможны, то они образуют полную группу изn = 6 исходов. При этом интересующее нас событие A − «выпало нечетноечисло очков» − может наступить три раза. То есть, благоприятное числоисходов m = 3. Поэтому, согласно классическому определению,

P (A) =3

6⇒ P (A) =

1

2или P (A) = 0, 5.

Вариант 2. Рассмотрим пространство исходов Ω2(см. 8.5). В данном слу-

чае исходы опыта также несовместны и равновозможны. Поэтому они так-же образуют полную группу из n = 2 исходов. А интересующее нас событиеA − «выпало нечетное число очков» − может наступить один раз. А зна-чит, благоприятное число исходов m = 1. Таким образом, из классическогоопределения следует, что

P (A) =1

2или P (A) = 0, 5.

При подбрасывании игральной кости один раз вероятностьвыпадания нечетного числа очков равна 0,5.

дель Ферро формулы решения кубического уравнения (Кардано был их первым публикатором),карданов подвес и карданный вал (см. [17, с. 40-41], а также Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRK\T2A\cyra\T2A\cyrr\T2A\cyrd\T2A\cyra\T2A\cyrn\T2A\cyro,_\T2A\CYRD\T2A\cyrzh\T2A\cyre\T2A\cyrr\T2A\cyro\T2A\cyrl\T2A\cyra\T2A\cyrm\T2A\cyro(дата обращения: 12.06.2016)).

1Из знания этого факта следует, что, имея право на любую ошибку в вычислениях, связанную какс расчетами, так и с отсутствием знаний, никто не имеет право выдавать за вероятность события число,не попавшее в данный промежуток. Так как в этом случае он признается в том, что ничего не знаето теории вероятностей.

2Это определение впервые было дано Я. Бернулли в четвертой части его работы «Искусство пред-положений» (см. Бернулли Я. О законе больших чисел. М. : Наука, 1986. С. 24).

24

Page 26: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Задача 2.2. В коробке лежат 10 лампочек из них 3 бракованные.Найдите вероятность выбрать случайным образом одну стандартнуюлампочку.

Решение. Обозначим событие − выбрать одну стандартную лампочку− через A. Далее определим число n всех исходов и число m благоприят-ных исходов.

Взять одну произвольную лампочку можно десятью способами1, поэто-му общее число исходов n = 10. Так как стандартных лампочек семь, товыбрать из них одну можно семью способами. Следовательно, число бла-гоприятных исходов m = 7.

Следовательно, согласно определению 2.8, P (A) =7

10. То есть,

вероятность выбрать случайным образом однустандартную лампочку равна 0,7.

Задача 2.3. В коробке лежат 10 лампочек, из них 3 бракованные.Найдите вероятность выбрать случайным образом две стандартные лам-почки.

Решение. Обозначим событие − выбрать две стандартные лампочки− через B. Далее определим число n всех исходов и число m благоприят-ных исходов.

Так как при выборе двух произвольных лампочек, порядок выбора неиграет роли, то при общем числе элементов n = 10 выбор k = 2 элементовопределяется числом сочетаний C

2

10. В силу того, что стандартных лам-

почек семь, а выбираются две из них также без учета порядка, то числоблагоприятных исходов m = C

2

7.

Поэтому согласно определению 2.8 P (B) =C

2

7

C2

10

. Применяя формулу

сочетаний Ckn =

n!

k!(n− k)!, получим

C2

7

C2

10

=7! · 2! · 8!

2! · 5! · 10!=

6 · 79 · 10

=7

15⇒ P (B) =

7

15.

(Здесь 10! = 8! · 9 · 10; 7! = 5! · 6 · 7.)Таким образом,

1«Красиво» с помощью формулы это означает, что из 10 одинаковых элементов нужно выбратьодин, не обращая внимания на порядок (ведь при выборе одного элемента порядок устанавливаетсяединственным образом). Поэтому при общем числе элементов n = 10 выбор k = 1 элементов опреде-ляется числом сочетаний C1

10= 10.

25

Page 27: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

вероятность выбрать случайным образом две

стандартные лампочки равна7

15.

Задача 2.4. В коробке лежат 10 лампочек, из них 3 бракованные.Найдите вероятность выбрать случайным образом четыре лампочки, изкоторых три стандартные.

Решение. Обозначим событие − выбрать случайным образом четырелампочки, из которых три стандартные − через C. Далее определимчисло N всех исходов выбора четырех произвольных лампочек из десяти.

Так как лампочки при таком выборе не отличаются друг от друга, тоих выбор определяется с помощью сочетаний N = C4

10.

Определим числоM благоприятных исходов. Выбрать четыре лампоч-ки, из которых три стандартные, это значит: выбрать три стандартныелампочки из семи стандартных и выбрать одну нестандартную из трехнестандартных. Поэтому событие C является произведением событий C

1

− выбрать три стандартные лампочки из семи стандартных и C2−

выбрать одну нестандартную из трех нестандартных: C = C1и C

2.

Следовательно, согласно правилу произведения (см. 1.2) из комбинаторики,

M = MC1·M

C2.

При этом MC1

= C3

7, а M

C2= C

1

3.

Так как, согласно классическому определению вероятности, P (C) =M

N,

то

P (C) =M

C1·M

C2

N⇒ P (C) =

C3

7· C1

3

C410

.

Теперь остается только выполнить арифметические преобразования со-гласно 2.3:

C3

7· C1

3

C410

=7! · 3! · 4! · 6!

3! · 4! · 1! · 2! · 10!=

2! · 3 · 4 · 5 · 62! · 8 · 9 · 10

=1

2

(здесь использовано то, что: 6! = 2! · 3 · 4 · 5 · 6 и 10! = 7! · 8 · 9 · 10.)

Таким образом, P (C) =1

2. А это означает, что

вероятность выбрать случайным образом четыре лампоч-ки, из которых три стандартные, равна 0,5 .

Задачи 2.2−2.4 являются частными случаями общей задачи о выбореЗадача 2.5. В коробке лежат L элементов, из которых K «хорошие».

Какова вероятность вытащить l элементов, из которых k элементовявляются «хорошими»?

26

Page 28: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Решение. Общее число n вариантов выбора l произвольных элементовиз L определяется с помощью формулы сочетаний 2.3: n = C l

L.

Событие D − вытащить l элементов, из которых k элементов яв-ляются «хорошими» означает: вытащить k «хороших» элементов из K«хороших» и вытащить l − k «нехороших» элементов из L − K «не-хороших» элементов. Поэтому событие C является произведением этихсобытий, которые можно назвать событиями C

1и C

2сооответственно. А

общее число исходов D будет определяться с помощью правила произведе-ния (см. 1.2):

mD

= mD1·mD

2⇒ m

D= Ck

K· C l−k

L−K.

Если обозначить интересующее нас событие как E, то из классическогоопределения вероятности 2.8 следует, что его вероятность P (E) =

mC

n.

Следовательно,

P (E) =CkK· C l−k

L−K

C lL

. (2.3)

Замечание 2.1. Следует обратить внимание на то, что в формуле(2.3) заложена возможность проверки правильности расчетов. Так и в чис-лителе, и в знаменателе выбор происходит из одного числа элементов L,которые в числителе образуют сумму K + (L − K) = L. Точно также, ив числителе, и в знаменателе выбирается одно и тоже число элементов l,которые в числителе образуют сумму k + (l − k) = l.

Чтобы эта проверка имела место и в задаче 2.3, нужно обратить вни-мание на то, что когда выбираются элементы только одного типа (а в за-даче происходит выбор только стандартных лампочек), то автоматическивыбирается нуль элементов другого типа (то есть в данной задаче нестан-дартных лампочек).

Для этого формулу расчета вероятности P (B) нужно переписать так:

C2

7

C2

10

=C

2

7· C0

3

C2

10

.

Теперь и в числителе и знаменателе описаны одни и те же процессы:

7 + 3 = 10; 2 + 0 = 2.

Задача 2.6. Найдите ошибку, допущенную при «решении» следующейзадачи: Брошены две игральные кости. Найдите вероятность того, чтосумма выпавших очков равна 4.

«Решение». Пусть событие A − сумма выпавших очков равна 4. Про-странство элементарных исходов Ω состоит из двух исходов (n = 2): «сумма

27

Page 29: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

выпавших очков равна 4» и «сумма выпавших очков не равна 4». Число

благоприятных событию A исходов m = 1. Поэтому P (A) =1

2.

В данном «решении» предполагается, что исходы опыта равновозможны(иначе невозможно воспользоваться классическим определением). На са-мом деле исходы «сумма выпавших очков равна 4» и «сумма выпавшихочков не равна 4» не являются равновозможными.

Рассмотрим, как же решается эта задача. Пространство элементарныхисходов Ω содержит 36 равновозможных исходов, так как подбросить двекости, это значит: «подбросить первую кость» и «подбросить вторую кость».На каждой из костей шесть граней, поэтому возможно выпадение любогоиз шести чисел. Следовательно можно составить 36 пар чисел, в которыхпервым элементом является число выпавших очков на первой кости, а вто-рым − число очков, выпавших на второй кости. Таким образом, n = 36.Существует только три исхода, благоприятных событию A: (1; 3), (3; 1),(2; 2). (В каждой из пар сумма чисел равна 4). То есть, m = 3. Поэтому

P (A) =3

36. В результате,

вероятность того, что сумма выпавших очков равна 4, равна1

12.

Замечание 2.2. Классическое определение вероятности предполагаетнесколько ограничений, накладываемых на изучаемые события.

Во-первых, конечное число исходов опыта является очень сильным ог-раничением, не позволяя определить вероятности событий, связанных сбесконечным числом исходов опыта.

Во-вторых, условие равновозможности исходов, связанное с симметриейфизических и геометрических условий опыта, оказывается трудновыполни-мым при рассмотрении реальных объектов1.

В-третьих, невозможно представить результаты опыта в виде совокуп-ности элементарных исходов.

При практическом изучении случайных событий учет этих ограниченийне позволяет решать все задачи, как это хотелось бы в идеале. Эти недо-статки привели к появлению новых определений вероятности.

1Однако польским математикам удалось «обмануть» нестандартность монет. Для этого они пред-ложили в ситуации, в которой выпадает серия герб-решетка, запоминать герб, а в серии решетка-гербзапоминать решетка. В сериях герб-герб и решетка-решетка ничего не запоминать. При таком вы-боре при любом подбрасывании любых монет вы имеете дело с идеальной монетой (см. Штейнгауз Г.Задачи и размышления. М. : Мир, 1974. С. 42).

28

Page 30: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

2.3 Статистистическое определение вероятности

Допустим, что в некотором опыте, состоящем из n однотипных исходов,изучается случайное событие A.

Определение 2.9. Отношение числа появлений m события A к обще-му числу исходов n называется относительной частотой событияA.

Если обозначить относительную частоту события A через Wn(A), то изопределения вытекает, что

Wn(A) =m

n. (2.4)

Так как 0 ≤ m ≤ n, то 0 ≤ Wn(A) ≤ 1.Из формулы (2.4) вытекает

Следствие 2.1. Число появлений события A равно его относительнойчастоте, умноженной на число испытаний, то есть

m = Wn(A) · n. (2.5)

Задача 2.7. По данным шведской статистики1, относительная ча-стота рождаемости с 1751 по 1760 год по годам характеризуется следу-ющими числами

1751 1752 1753 1754 1755 1756 1757 1758 1759 17600,0384 0,0358 0,0359 0,037 0,0373 0,036 0,0326 0,0334 0,0335 0,0355

Определите коэффициент рождаемости в данном десятилетии.Решение. Так как относительная частота равна сумме этих чисел, де-

ленных на 10, то число Wn(A) = 0, 0355 можно принять за приблизитель-ное значение коэффициента рождаемости.

В опыте с массовым числом исходов одного и того же типа при числеисходов n→∞ относительная частота события Wn(A)→ p, где p − неко-торое постоянное число. При этом чем больше n, тем меньше относительнаячастота отклоняется от этого числа.

Определение 2.10. Статистическое определение вероятностиПочти достоверный предел p = lim

n→∞Wn(A) называется статисти-

ческой вероятностью2 события A.1(См. Википедия [Электронный ресурс] : URL : http://svspb.net/sverige/demografija-shvecii.

php (дата обращения: 12.06.2016)).2Определение статистической вероятности было дано Р. Мизесом в 1919 году (см. Хинчин А. Я.

Учение Мизеса о вероятностях и принципы физической статистики. // Успехи физических наук. −1929. − Т. IX. Вып. 2 С. 143).

фон Мизес Рихард Эдлер (нем. Richard Edler von Mises, 1883-1953) − математик и меха-ник; работы посвящены аэродинамике, прикладной механике, механике жидкостей, аэронавтике,

29

Page 31: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

То есть при очень больших n относительная частота события A прибли-женно совпадает с его статистической вероятностью.

В силу этого совпадения имеет смысл следующееОпределение 2.11. Средним числом появления события A в n

испытаниях называется число

µ = np.

Замечание 2.3. Следует заметить, что при увеличении числа исходовопыта n статистическая вероятность приближается к вероятности в смыслеклассического определения не с полной достоверностью, а с большей веро-ятностью. И эта вероятность тем больше, чем большее число исходов опыта.Подробнее об этом рассказывается далее, в последней главе.

Введя понятие статистической вероятности события, можно получитьвозможность приписать определенные вероятности, заключенные междунулем и единицей, не только событиям, для которых можно определитьклассическую вероятность, но и тем событиям, для которых эти условияне применимы. Достаточно, чтобы проводимый опыт обладал свойствомустойчивости относительных частот, то есть мог бы быть неограниченновоспроизводимым в практически одинаковых физических условиях.

Задача 2.8. В результате работы отдела технического контролябыло обнаружено, что при изучении партии из 200 деталей 188 дета-лей оказались стандартными. Какова вероятность того, что взятая де-таль оказывается стандартной? Какое число деталей может оказатьсястандартным, если исследовать партию из 600 деталей?

Решение. Согласно статистическому определению вероятности

p =188

200⇒ p = 0, 94.

На практике, при определении статистической вероятности, часто ис-пользуют процентное соотношение и говорят, что вероятность равна 94%.

Отсюда следует, что среднее число стандартных деталей в партии из 600деталей примерно равно

µ = 600 · 0, 94⇒ µ = 564.

p = 94%; µ = 564 .

статистике и теории вероятностей. Ввел в общее употребление интегралы Стилтьеса и первымразъяснил роль теории марковских цепей в физике (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRM\T2A\cyri\T2A\cyrz\T2A\cyre\T2A\cyrs,_\T2A\CYRR\T2A\cyri\T2A\cyrh\T2A\cyra\T2A\cyrr\T2A\cyrd_\T2A\CYREREV\T2A\cyrd\T2A\cyrl\T2A\cyre\T2A\cyrr_\T2A\cyrf\T2A\cyro\T2A\cyrn(дата обращения: 12.06.2016)).

30

Page 32: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Замечание 2.4. Принципиальным отличием классического и стати-стического определения вероятности является тот факт, что классическаявероятность является теоретической вероятностью, определяя вероят-ность события еще до того, как это событие произошло.

Статистическая вероятность является практической (эмпирической)вероятностью, так как определяется уже после опыта, в котором прои-зошло изучаемое событие, исходя из накопленного известного статистиче-ского материала.

Замечание 2.5. Для определения статистической вероятности событияA требуется:

во-первых, возможность, хотя бы принципиально, производить неогра-ниченное число испытаний, в каждом из которых событие A наступает илине наступает;

во-вторых, устойчивость относительных частот появления A в различ-ных сериях достаточно большого числа испытаний.

Недостатком статистического определения является неоднозначность ста-тистической вероятности. Так, например, в задаче 2.7 в качестве вероятно-сти события можно принять не только 0, 481, но и 0,49; 0,48 и так далее.

2.4 Геометрическое определение вероятности

Так как классическое определение вероятности невозможно применитьк опыту с бесконечным числом исходов, то в этом случае используют сле-дующий подход к изучаемому событию.

Предположим, что пространство элементарных исходов опыта Ω явля-ется множеством точек, которое можно изобразить в виде ограниченногомножества точек D, расположенного на прямой, на плоскости или в про-странстве. Так как изучаемое событие A как множество благоприятныхему исходов опыта является подмножеством Ω, то его можно изобразить ввиде множества G, являющегося подмножеством множества D.

Если определить меру S соответствующего ограниченного множестваточек прямой, плоскости, пространства как его длину, площадь, объем, тоимеет место

Определение 2.12. Геометрическое определение вероятностиГеометрической вероятностью1 события A называется отноше-

1Определение геометрической вероятности в 1740 году ввел Т. Симпсон в своей работе «При-рода и законы случая» (A treatise on the nature and laws of change) (см. Википедия [Элек-тронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRS\T2A\cyri\T2A\cyrm\T2A\cyrp\T2A\cyrs\T2A\cyro\T2A\cyrn,_\T2A\CYRT\T2A\cyro\T2A\cyrm\T2A\cyra\T2A\cyrs (дата обращения:12.06.2016)).

Симпсон Томас (англ. Simpson Thomas, 1710-1761) − английский математик. Автор формулы Симп-

31

Page 33: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

ние меры множества G к мере множества D, то есть

P (A) =SG

SD

. (2.6)

Замечание 2.6. Следует заметить, что данное определение предпола-гает следующие ограничения для любой точки, принадлежащей множествуD:

во-первых, каждая точка множества G может быть расположеннойв любой точке множества D;

во-вторых, вероятность принадлежности точки множеству G пропорци-ональна мере S

Gи не зависит от расположения множества G во множестве

D.Задача 2.9. Расстояние от пункта А до В автобус проходит за

2 минуты, а пешеход − за 15 минут. Интервал движения автобусов25 минут. Вы подходите в случайный момент времени к пункту A иотправляетесь в B пешком. Найдите вероятность того, что в путивас догонит очередной автобус.

Решение. Допустим, что черный прямоугольник изображает множе-ство D длина которого S

D= 25 единиц (рис. 2.1).

GD

Рис. 2.1А серый прямоугольник изображает множество G, длина которого опре-деляется тем, что пешеход может сесть в автобус. Поэтому его длина естьдлина отрезка времени не большего, чем S

G= 15 − 2 = 13 единиц (этот

отрезок находится на промежутке времени (10; 23)).Если событие A − «в пути вас догонит очередной автобус», то соглас-

но геометрическому определению вероятности вероятность этого событияможно вычислить как отношение длин серого и черного прямоугольников

P (A) =13

25.

Следовательно,вероятность того, что в пути вас догонит очередной автобус, равна 0, 52 .

сона для приближенного вычисления интегралов (см. там же).

32

Page 34: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Задача 2.10. Задача о встрече1. Два человека условились встре-титься в определенном месте между 12 и 13 часами дня. Пришедшийпервым ожидает второго в течение четверти часа, после чего уходит.Найдите вероятность того, что встреча состоится, если каждый чело-век выбирает момент своего прихода (в промежутке от 12 до 13 часов)случайным образом.

Решение. Допустим, что множество D есть серый квадрат со сторонойединица (рис. 2.2).

Каждая точка квадрата с координатами (x; y) (0 ≤ x ≤ 1; 0 ≤ y ≤ 1)определяет время прихода каждого из пришедших в пределах этого часа вчасах.

Они встретятся, если для времени встречи будет выполняться одно издвух неравенств:

x− y ≤ 1

4; y − x ≤ 1

4,

что эквивалентно неравенству

|x− y| ≤ 1

4.

x

y

14

34

0 1

14

34

1

Рис. 2.2

Следовательно, множество встречи G определяется черным шестиугольни-ком, ограниченным прямыми

y = 0; y = x− 0, 25; x = 1; y = 1; y = x+ 0, 25; x = 0.

Площадь G удобнее вычислить как разность площади квадрата и двухсерых треугольников, вырезанных из квадрата шестиугольником:

SG

= 1− 2 · 12· (1− 0, 25)2.⇒ S

G=

7

16.

1Задача впервые была опубликована в 1886 году в книге «Выбор и шанс» (Choice and chance)В. Витворта и после этого включалась в большинство учебников по теории вероятности.

Витворт В. А. (Whitworth William Allen, 1840-1905) − английский математик и священник ан-гликанской церкви (см. [13, c. 408], а также Википедия [Электронный ресурс] : URL : https://en.wikipedia.org/wiki/William_Allen_Whitworth (дата обращения: 12.06.2016)).

33

Page 35: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Если определить эту случайную встречу как событие B, то согласно гео-метрическому определению вероятности вероятность этого события можновычислить как отношение площадей длин черного многоугольника и серо-

го квадрата P (B) =7

16: 1. В итоге имеем, что

вероятность того, что встреча произойдет, равна 0, 4375 .

Cледующая задача на эту тему является одной из первых в историитеории вероятностей.

Задача 2.11. Игла Бюффона1. На плоскости заданы параллельныепрямые, находящиеся друг от друга на расстоянии 2a. Случайным об-разом на плоскость бросается игла, длина которой 2l, при этом l < a.Найдите вероятность того, что игла пересечет одну из прямых.Решение. Для того чтобы определить, пересекает игла одну из прямых

или нет, нужно определить те параметры иглы, которые отвечают за ееместоположение на плоскости. Этими параметрами могут быть «расстоя-ние от центра иглы до ближайшей прямой» и «угол поворота относительноближайшей прямой2».

Свяжем с этими прямыми систему координат, привязав к нижней пря-мой горизонтальную ось, направление на которой будет связано с угломповорота иглы, который обозначим через α. Вертикальную ось, на которойопределяется расстояние до нижней прямой, обозначим через y. Расстоя-ние от центра иглы до ближайшей прямой также обозначим y (рис. 2.3).

α

y

αl

l2a

Рис. 2.3

y

Очевидно, что положение центра иглы y меняется от 0 до a, а угол по-ворота иглы меняется3 от 0 до π.

1В поисках значения числа π Бюффон рассмотрел данную задачу. Его решение было приведенов эссе «Опыт нравственной арифметики » (Essai d′arithmetique morale), в его «Всеобщей и частнойистории» (Histoire naturelle, generale er particuliere) в 1777 году.

Граф де Бюффон Жорж-Луи Леклерк (фр. Georges-Louis Leclerc, Comte de Buffon, 1707-1788) − французский натуралист, биолог, математик, естествоиспытатель и писатель XVIII века(см. Гнеденко Б.В. Курс теории... С. 406, а также Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyryu\T2A\cyrf\T2A\cyrf\T2A\cyro\T2A\cyrn,_\T2A\CYRZH\T2A\cyro\T2A\cyrr\T2A\cyrzh-\T2A\CYRL\T2A\cyru\T2A\cyri_\T2A\CYRL\T2A\cyre\T2A\cyrk\T2A\cyrl\T2A\cyre\T2A\cyrr\T2A\cyrk_\T2A\cyrd\T2A\cyre(дата обращения: 12.06.2016)).

2Поскольку игла образует с прямой острый и тупой углы, то на прямой нужно выбрать направление,а далее под углом подразумевать «угол между прямой и направлением».

3При этом местоположение центра иглы не зависит от угла ее поворота относительно ближайшейпрямой.

34

Page 36: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Множество всевозможных положений иглы можно описать с помощьюпрямоугольника

П = (α, y) : 0 ≤ α ≤ π, 0 ≤ y ≤ a.Игла будет пересекать ближайшую прямую, если расстояние от ее цен-

тра до ближайшей прямой1 y ≤ l sinα.На рис. 2.4 площадь, ограниченная кривой y = l sinα, окрашена в серый

цвет.

α

y

π0

a

Рис. 2.4

Величина этой площади

S =

π∫0

l sinαdα.

Вычислим этот интеграл2π∫

0

l sinαdα = −l(

cosα∣∣∣π0

)= −l(cosπ − cos 0) = 2l.

Следовательно, S = 2l.Если вероятность того, что игла пересечет одну из прямых, определить

как событие C, то согласно геометрическому определению вероятности ве-роятность этого события можно вычислить как отношение вычисленнойплощади S к площади черного прямоугольника

P (C) =2l

aπ.

Таким образом получаем, чтовероятность того, что игла пересечет

одну из прямых, равна2l

aπ.

Замечание 2.7. Геометрическое определение вероятности также имеетсвои недостатки, одним из которых является следующий:

Известно, что в случае классического определения вероятность досто-верного или невозможного событий равна единице, соответственно нулю.При этом справедливы обратные утверждения: если вероятность собы-тия равна единице, то событие достоверно и если вероятность событияравна нулю, то событие невозможно.

1Если на рис. 2.3 мысленно опустить перпендикуляр на пунктир, то получится прямоугольныйтреугольник, в котором вертикальный катет будет равен y = l sinα.

2cosπ = −1, cos 0 = 1.

35

Page 37: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

А в случае геометрического определения вероятности обратные утвер-ждения не имеют места. Так, например, вероятность попадания брошеннойточки в одну определенную точку области G равна нулю, однако это собы-тие может произойти, и, следовательно, не является невозможным.

В 1933 году А. Н. Колмогоров1 дал аксиоматическое определение вероят-ности, для которого все рассмотренные выше определения являются част-ными случаями. Но рассмотрение этого вопроса выходит за рамки програм-мы данного курса.

1Колмогоров Андрей Николаевич (1903-1987) − советский математик, один из крупнейшихматематиков ХХ века. Один из основоположников современной теории вероятностей, Автор осново-полагающих результатов в топологии, геометрии, математической логике, классической механике,теории турбулентности, теории сложности алгоритмов, теории информации, теории функций, теориитригонометрических рядов, теории меры, теории приближения функций, теории множеств, теориидифференциальных уравнений, теории динамических систем, функциональном анализе и в рядедругих областей математики и её приложений, а также новаторских работ по философии, истории,методологии науки и преподаванию математики, статистической физике. Иностранный член 14Академий и математических обществ (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRK\T2A\cyro\T2A\cyrl\T2A\cyrm\T2A\cyro\T2A\cyrg\T2A\cyro\T2A\cyrr\T2A\cyro\T2A\cyrv,_\T2A\CYRA\T2A\cyrn\T2A\cyrd\T2A\cyrr\T2A\cyre\T2A\cyrishrt_\T2A\CYRN\T2A\cyri\T2A\cyrk\T2A\cyro\T2A\cyrl\T2A\cyra\T2A\cyre\T2A\cyrv\T2A\cyri\T2A\cyrch(дата обращения: 12.06.2016)).

36

Page 38: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

3 Алгебра событий

Играя против начинающего шахматиста

и против чемпиона, выиграть две партии

подряд вероятнее по схеме «чемпион − но-

вичок − чемпион» или по схеме «новичок

− чемпион − новичок»?

Ф. Мостеллер

3.1 Сложение вероятностей событий

Теорема 3.1. Вероятность суммы двух несовместных событий равнасумме их вероятностей.

То есть,

P (A+B) = P (A) + P (B), если AB = ∅.

Д о к а з а т е л ь с т в о. Допустим, что n есть число всевозможныхисходов опыта, в котором m

1раз наступает событие A и m

2раз наступает

событие B. Так как события A и B несовместны, то наступление одного изних исключает наступление другого (см. определение 2.4). Поэтому числоблагоприятных исходов опыта, в которых наступит событие A + B, равноm

1+m

2.

Следовательно, из классического определения вероятности следует, что

P (A+B) =m

1+m

2

n=m

1

n+m

2

n= P (A) + P (B).

Задача 3.1. В коробке лежат 5 красных, 3 белых и два синих шараодного и того же радиуса. Какова вероятность вытащить из коробкислучайным образом цветной шар?

Решение. Предположим, что событие A − «вынимание красного шараиз коробки», а событие B − «вынимание синего шара из коробки». Так какв один момент времени можно вытащить только красный или только синийшар, то событие «вытащить цветной шар» является суммой несовместныхсобытий A и B. Поэтому его можно обозначить как A + B. Общее числоспособов взять один шар из коробки n = 5 + 3 + 2, то есть n = 10. Из этихспособов благоприятными для A будутm

1= 5 способов, а благоприятными

для B − m2

= 2 способа. Следовательно,

P (A) =5

10; P (B) =

2

10.

37

Page 39: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

А так как P (A + B) = P (A) + P (B), то P (A + B) = 0, 5 + 0, 2 = 0, 7.Таким образом,

вероятность взять цветной шар из коробки равна 0,7 .Из теоремы 3.1 вытекаетСледствие 3.1. Вероятность суммы конечного числа попарно несов-

местных событий равна сумме их вероятностей.То есть, ∀ i 6= j : A

iAj

= ∅,

P (A1

+A2

+ · · ·+An) = P (A

1) + P (A

2) + · · ·+ P (A

n).

Теорема 3.2. Вероятность суммы событий, образующих полную груп-пу, равна единице.

Д о к а з а т е л ь с т в о. Если события A1, A

2, · · · , A

nобразуют

полную группу событий опыта, то их сумма A1+A

2+ · · ·+A

n= Ω, то есть

совпадает со всем пространством элементарных исходов опыта. Поэтому

P (A1

+ A2

+ · · ·+ An) = 1.

А так как события полной группы попарно несовместны, то в силу след-ствия 3.1

P (A1) + P (A

2) + · · ·+ P (A

n) = 1.

Следствие 3.2. Из определения 2.7 вытекает, что Сумма вероятно-стей противоположных событий равна единице1:

P (A) + P (A) = 1.

Так как противоположные события образую полную группу, то к нимприменима теорема 3.2.

Задача 3.2. Вероятность выигрыша в лотерее 0, 01. Найдите веро-ятность проигрыша в этой лотерее.

Решение. События A − «выигрыш в лотерее» и B − «проигрыш в ло-терее» являются противоположными событиями. Поэтому B = A. А таккак P (A) = 0, 01, то

P (A) = 1− P (A)⇒ P (A) = 1− 0, 01⇒ P (A) = 0, 99.

Следовательно, вероятность проигрыша в лотерее равна 0,99 .1Впервые это правило было установлено Я. Бернулли и Н. Бернулли (см. Гнеденко Б. В. Курс

теории... С. 409).Бернулли Николай (Никола) (нем. Bernoulli Nikolaus II., 1695-1726) − сын Иоганна Бернулли,

швейцарский математик, философ, юрист; профессор математики Петербургской академии наук(1725). Основные работы в области дифференциальных уравнений и механики. (см. Википедия[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyre\T2A\cyrr\T2A\cyrn\T2A\cyru\T2A\cyrl\T2A\cyrl\T2A\cyri,_\T2A\CYRN\T2A\cyri\T2A\cyrk\T2A\cyro\T2A\cyrl\T2A\cyra\T2A\cyrishrt (дата обращения: 12.06.2016)).

38

Page 40: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Теорема 3.3. Вероятность суммы двух совместных событий равнасумме их вероятностей без учета вероятности произведения этих со-бытий1.

То есть,

P (A+B) = P (A) + P (B)− P (AB), если AB 6= ∅.

Д о к а з а т е л ь с т в о. Заметим, что для совместных событийих сумма является объединением множеств благоприятных исходов, соот-ветствующих событиям A и B.

A

B

A ∩B

Рис. 3.1

Поэтому P (A+B) = P (A ∪B).Допустим, что события A и B совместны, тогда существуют благоприят-

ные исходы опыта, которые одновременно являются благоприятными какдля A, так и для B (множество этих исходов не закрашено на рисунке 3.1).

Пусть число таких исходов m1, а число исходов, благоприятных собы-

тиям A и B, равно соответственно mAи m

B. Тогда в объединении событий

A∪B в числе соответствующих благоприятных исходов m дважды учиты-вается число m

1: первый раз в числе исходов, благоприятных A, а второй

раз в числе исходов, благоприятных B. Следовательно, один раз это числонужно вычесть из общей суммы:

m = mA

+mB−m

1.

Тогда

P (A ∪B) =m

A+m

B−m

1

n=m

A

n+m

B

n− m

1

n= P (A) + P (B)− P (AB).

1 Первая точная формулировка этой теоремы была дана Т. Байесом в работе под названием«Опыт решения задач по теории вероятностей покойного достопочтенного мистера Байеса, членаКоролевского общества. Сообщено мистером Прайсом в письме Джону Кентону 23 декабря 1763 года»(An Essay towards solving a Problem in the Doctrine of Chanses/ By the late Rev. Mr. Bayes, F.R.S.communicated by Mr. Price, in Letter to John Canton, A.M. F. R. S. Dec. 23, 1763). Работа была зачитанана заседании Лондонского королевского общества 27 декабря 1763 года.

Байес Томас (англ. Bayes Reverend Thomas, 1702-1761) − английский математик и пресвитериан-ский священник, член Лондонского королевского общества (см. Гнеденко Б. В. Курс теории... С. 410,а также Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyra\T2A\cyrishrt\T2A\cyre\T2A\cyrs,_\T2A\CYRT\T2A\cyro\T2A\cyrm\T2A\cyra\T2A\cyrs (датаобращения: 12.06.2016), https://en.wikipedia.org/wiki/An_Essay_towards_solving_a_Problem_in_the_Doctrine_of_Chances (дата обращения: 12.06.2016)).

39

Page 41: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Таким образом, действительно

P (A+B) = P (A) + P (B)− P (AB).

Так как вопрос определения вероятности произведения P (AB) событийA и B остается открытым, то решение задач отложим на некоторое время,связанное с изучением следующего параграфа.

3.2 Умножение вероятностей событий

Определение 3.1. Вероятность события A при условии, что произо-шло событие B, называется условной вероятностью события A иобозначается P

B(A).

Замечание 3.1. При определении условной вероятности PB(A) насту-

пления события A предполагается, что перед появлением события A уженаступило событие B. То есть P

B(A) есть вероятность «при условии», в

отличие от вероятности P (A), которую можно назвать «безусловной веро-ятностью».

Задача 3.3. В урне находятся 6 белых и 4 черных шара. Сравнитевероятности следующих событий:1) событие A − «извлечение из урны белого шара»;2) событие A

1− «извлечение из урны белого шара после удаления из урныбелого шара» (событие B);

3) событие A2− «извлечение из урны белого шара после удаления из урнычерного шара» (событие C).

Решение.

1) P (A) =6

10= 0, 6.

2) Так как из урны извлекли белый шар, то в ней осталось 9 шаров, из

которых 5 белых. Поэтому P (A1) = P

B(A) =

5

9≈ 0, 56.

3) Поскольку из урны извлекли черный шар, то в ней осталось 9 шаров, из

которых 6 белых. Поэтому P (A2) = P

C(A) =

6

9≈ 0, 67.

Таким образом1, PB(A) < P (A) < P

C(A) .

Теорема 3.4. Вероятность произведения двух событий A и B рав-на произведению вероятности одного события на условную вероятностьвторого события, при условии, что первое событие произошло2. То есть,

P (AB) = P (A)PA(B).

1То есть, условная вероятность события может быть как больше, так и меньше его безусловнойвероятности.

2Теорема впервые была доказана А. де Муавром в его «Доктрине шансов» (The Doctrine of Chance:A method of calculating the probabilities of events in play) в 1718 году.

40

Page 42: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Д о к а з а т е л ь с т в о. Предположим, что все пространствоэлементарных равновозможных исходов опыта Ω состоит из n исходов, изкоторых m исходов являются благоприятными для A, а k исходов − благо-приятными для произведения событий AB (естественно, что k ≤ m ≤ n).Следовательно,

P (A) =m

n, P (AB) =

k

n.

Так как событие A наступило раньше, чем событие B, то из m благо-приятных для него исходов можно выделить k исходов, которые являютсяблагоприятными для события B. А это означает, что

PA(B) =

k

m.

Так какk

n=m

n· km, то P (AB) = P (A)P

A(B).

Следствие 3.3. Для любых двух событий A и B справедливо равен-ство

P (A)PA(B) = P (A)P

B(A).

В силу того, что AB = BA, получаем P (AB) = P (BA) = P (B)PB(A).

Задача 3.4. В урне находятся 6 белых и 4 черных шара. Какова ве-роятность вытащить случайным образом два разноцветных шара, еслипервый из них − белый.

Решение. Так как первый из вытащенных шаров белый, то событиеA−«вынимание из урны белого шара». Последующее событиеB − «выниманиеиз урны черного шара» − зависит от предыдущего события. Поэтому ве-роятность события AB − «вынимание из урны двух разноцветных шаров»− согласно теореме 3.4

P (AB) = P (A)PA(B).

Так как P (A) =6

10=

3

5, а P

A(B) =

4

9, то P (AB) =

3

5· 4

9=

4

15.

Таким образом,вероятность вытащить два разноцветных шара, изкоторых первый является белым, приблизительноравна 0, 27.

де Муавр Абрахам (фр. и англ. Abraham de Moivre, 1667-1754) − английский математик. Основныеработы в математическом анализе и теории вероятности. Член Лондонского королевского общества,Парижской и Берлинской академий наук. (см. Гнеденко Б. В. Курс теории... С. 410, а также Википедия[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRM\T2A\cyru\T2A\cyra\T2A\cyrv\T2A\cyrr,_\T2A\CYRA\T2A\cyrb\T2A\cyrr\T2A\cyra\T2A\cyrh\T2A\cyra\T2A\cyrm_\T2A\cyrd\T2A\cyre (дата обращения: 12.06.2016)).

41

Page 43: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Задача 3.5. Студент пришел на экзамен, успев выучить только 15вопросов из 20 вопросов программы. Билет содержал три вопроса про-граммы. Какова вероятность того, что студент вытянул билет, в ко-тором он знает1 ответ на все вопросы?

Решение. Предположим, что событие A − «студент знает ответ на всетри вопроса»; событие A

1− «студент знает ответ на первый вопрос»; собы-

тие A2− «студент знает ответ на второй вопрос»; событие A

3− «студент

знает ответ на третий вопрос». Так как события A1, A

2и A

3− зависимые,

то событие A = A1и (A

2/A

1) и (A

3/A

1A

2). Найдем вероятности этих

событий:P (A

1) =

15

20; P

A1(A

2) =

14

19; P

A1A2(A

3) =

13

18.

Следовательно,

P (A) =15

20· 14

19· 13

18⇒ P (A) =

91

228≈ 0, 399.

Таким образом,

вероятность вытащить билет со всеми известными вопросами равна 0, 4 .

Замечание 3.2. Заметим, что эту задачу можно было решить, не ис-пользуя понятие условной вероятности. Общее число вариантов n состав-ления билета из трех произвольных вопросов не зависит от порядка распо-ложения вопросов в билете. Поэтому n = C3

20. Так как в билете все вопросы

оказались знакомыми студенту, то они выбирались из 15. Поэтомуm = C315.

Следовательно,

P (A) =m

n⇒ P (A) =

C315

C320

=15! · 3! · 17!

3! · 12! · 20!=

15 · 14 · 13

20 · 19 · 18≈ 0, 399.

Задача 3.6. В центральном офисе предприятия 20% работающих по-лучают высокую заработную плату. Также известно, что 40% работа-ющих в офисе − женщины, а 6% работающих − женщины, получающиевысокую заработную плату. Можно ли утверждать, что в офисе суще-ствует дискриминация женщин в оплате труда?

Решение. Переформулируем вопрос данной задачи: «Чему равна ве-роятность того, что случайно выбранный работник является женщиной,имеющей высокую зарплату?»

Допустим, что событие A− «случайно выбранный работник имеет высо-кую зарплату», а событие B − «случайно выбранный работник − женщи-

1На самом деле за этим знанием стоит та случайность, при помощи которой преподаватель составилэтот билет.

42

Page 44: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

на». Тогда событие AB − «случайно выбранный работник является жен-щиной с высокой заработной платой». С учетом этих обозначений

PB(A) =

P (AB)

P (B)⇒ P

B(A) =

0, 06

0, 4= 0, 15.

Так как среднее число получающих высокую зарплату 0, 21>0, 15, томожно утверждать, что

в офисе существует дискриминация женщин в оплате труда .

Определение 3.2. Два события A и B называются независимы-ми1, если вероятность каждого из них не зависит от наступления илиненаступления другого из этих событий.

P (A) = PB(A) = P

B(A).

P (B) = PA(B) = P

A(B).

Из данного определения согласно теореме 3.4 следуетТеорема 3.5. Вероятность совместного наступления двух незави-

симых событий A и B равна произведению вероятностей этих событий.То есть,

P (AB) = P (A)P (B).

Задача 3.7. При страховании жизни для расчетов употребляютсятаблицы, которые дают среднее распределение по годам смертных слу-чаев некоторой совокупности лиц одинакового возраста:

Возраст 10 20 30 40 50 60 70 80 90Число 1000 961 897 823 728 538 380 140 13

(из 1000 детей, достигших 10-летнего возраста, до 90 лет доживают13).Пусть в данный момент в некоторой семье мужу 30 лет, а жене − 20.Найдите вероятность того, что оба будут живы через 50 лет.

Решение. Пусть событие A − «муж жив через 50 лет», а событие B −«жена жива через 50 лет». Тогда событие AB − «муж и жена живы через50 лет». Так как события A и B не зависят друг от друга, то согласнотеореме 3.5 P (AB) = P (A)P (B).

Из таблицы следует, что из 897 человек, доживших до 30 лет, 140 дожи-

ли до 80. Поэтому P (A) =140

897. А так как из 961 человека, дожившего до 20

1Определение независимости событий дано А. де Муавром в вышеуказанной работе (см. сноску нас. 37).

43

Page 45: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

лет, до 70 доживают 380 человек, то P (B) =380

961. Поэтому P (AB) =

140

897·

380

961. Таким образом, муж и жена будут живы через 50 лет с вероятностью,

приблизительно равной 0, 06.

Определение 3.3. События называются независимыми в сово-купности, если каждое из них и любое произведение остальных явля-ются независимыми друг от друга.

Из данного определения вытекаетСледствие 3.4. События, независимые в совокупности, являются

попарно независимыми событиями.Обратный факт, очевидно, является неверным. Если первое из событий

не зависит от второго, а второе не зависит от третьего, то это не означает,что первое и третье события являются независимыми событиями.

Следствие 3.5. Вероятность произведения конечного числа незави-симых в совокупности событий равна произведению вероятностей этихсобытий. То есть,

P (A1A

2. . . A

n) = P (A

1) · P (A

2) · . . . P (A

n).

3.3 Примеры применения алгебры событий

3.3.1 Связь между вероятностями противоположных событий

Существует большое количество задач, в которых поиск вероятности«прямого» события A целесообразнее заменить поиском противоположно-го события A, используя следствие 3.2. Из этого следствия вытекают двавзаимосвязанных факта:

P (A) = 1− P (A) и P (A) = 1− P (A).

Рассмотрим следующую задачу:Задача 3.8. События A

1, A

2, . . . , A

n, вероятности которых соот-

ветственно равны p1, p

2, . . . , p

n, образуют полную группу событий, неза-

висимых в совокупности. Найдите вероятность наступления хотя быодного события из этой группы.

Решение. Событие A − «наступит хотя бы одно событие из этой груп-пы» можно переформулировать следующим образом: «наступит только од-но событие из этой группы» или «наступят два события из этой группы»или «наступят три события из этой группы» или . . . или «наступят всесобытия из этой группы одновременно».

44

Page 46: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Определение вероятностей всех этих несовместных между собой собы-тий (а следовательно и их суммы) не представляет проблем в смысле созда-ния алгоритма действий, но вызывает большие сомнения в необходимостиэтих действий.

Событие A содержит все исходы пространства элементарных событий Ω,кроме одного события: «не наступит ни одно из этих событий». Это событиеявляется противоположным событию A. Так как все события данной груп-пы независимы в совокупности, то согласно определению 3.2 и противопо-ложные им события A

1, A

2, . . . , A

nтакже независимы в совокупности.

Событие A − «не наступит ни одно из этих событий» − эквивалентнотому, что наступит событие A

1и A

2и . . . и A

n. Тогда, согласно следствию

3.5,P (A) = P (A

1) · P (A

2) · . . . P (A

n).

Так как

P (A1) = 1− p

1; P (A

2) = 1− p

2; . . . P (A

n) = 1− p

1,

тоP (A) = (1− p

1)(1− p

2) . . . (1− p

n).

Следовательно, вероятность наступления хотя бы одного события изэтой группы

P (A) = 1− (1− p1)(1− p

2) . . . (1− p

n) .

Замечание 3.3. Следует заметить, что для любого n вероятность со-бытия «хотя бы один...» через вероятность противоположного события вы-числяется по одному и тому же алгоритму.

Из решения задачи 3.8 вытекаетСледствие 3.6. Если события A

1, A

2, . . . , A

nимеют одинаковую ве-

роятность, равную p, то вероятность появления хотя бы одного из этихсобытий

P (A) = 1− qn, где q = 1− p.Задача 3.9. Вероятность получить справку в одном из трех отде-

лов солидного государственного учреждения за 10 минут до обеденногоперерыва соответственно равна для первого 0, 3, для второго 0, 5, длятретьего 0, 4. Какова вероятность того, что вы получите справку хотябы в одном из этих отделов в указанное время?

Решение. Событие A − «вы получите справку хотя бы в одном из трехотделов». Ему противоположным является событие A − «вы не получитесправку ни в одном из трех отделов». Событие A является произведениемтрех несовместных событий A

1, A

2и A

3, каждое из которых соответствует

45

Page 47: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

тому, что «вы не получите справку соответственно в первом, втором и тре-тьем отделах».

Так как P (A1) = 0, 3, P (A

2) = 0, 5, P (A

3) = 0, 4, то

P (A1) = 1−0, 3 = 0, 7, P (A

2) = 1−0, 5 = 0, 5, P (A

3) = 1−0, 4 = 0, 6. Тогда

P (A) = 0, 7 · 0, 5 · 0, 6 ⇒ P (A) = 0, 21. Поэтому P (A) = 1 − 0, 21 = 0, 79.

Таким образом, вероятность того, что вы получите справку хотя быв одном из этих отделов в указанное время, равна 0, 79.

Задача 3.10. Вероятность безотказности станков первого заводапри включении равна 0,7, второго − 0,8, третьего − 0,75. Включили поодному станку каждого завода. Какова вероятность того, что работа-ет:

а) только один станок;б) не более одного станка;в) хотя бы один станок.Решение. Определим следующие события: A

1− «работает станок пер-

вого завода»; A2− «работает станок второго завода»; A

3− «работает ста-

нок третьего завода». События A1, A

2, A

3определяют соответственно от-

казы станков первого, второго и третьего заводов.а) Пусть событие A − «работает только один станок». Данное событиеможно представить с помощью союзов «и» и «или» следующим образом:

«работает только один станок» = «работает станок первого завода»и «не работает станок второго завода» и «не работает станок тре-тьего завода» или «не работает станок первого завода» и «работаетстанок второго завода» и «не работает станок третьего завода» или«не работает станок первого завода» и «не работает станок второгозавода» и « работает станок третьего завода»

В краткой форме это выглядит так:A = A

1и A

2и A

3или A

1и A

2и A

3или A

1и A

2и A

3.

Следовательно,

P (A) = P (A1) ·P (A

2) ·P (A

3)+P (A

1) ·P (A

2) ·P (A

3)+P (A

1) ·P (A

2) ·P (A

3).

Так какP (A

1) = 1− 0, 7 = 0, 3; P (A

2) = 1− 0, 8 = 0, 2; P (A

3) = 1− 0, 75 = 0, 25,

тоP (A) = 0, 7 · 0, 2 · 0, 25 + 0, 3 · 0, 8 · 0, 25 + 0, 3 · 0, 2 · 0, 75⇒ P (A) = 0, 14.б) Пусть событие B − «работает не более одного станка». Это событие мож-но представить как «работает нуль станков» или «работает один станок».Так как вероятность события «работает один станок» определена в заданииа), то найдем вероятность события «работает нуль станков». Обозначим

46

Page 48: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

это событие B1. Оно означает, что «не работает станок первого завода» и

«не работает станок второго завода» и «не работает станок третьегозавода».

Поэтому его вероятностьP (B

1) = P (A

1) ·P (A

2) ·P (A

3)⇒ P (B

1) = 0, 3 · 0, 2 · 0, 25⇒ P (B

1) = 0, 015.

В силу того, что B = A или B1,

P (B) = P (A) + P (B1)⇒ P (B) = 0, 14 + 0, 015 = 0, 155 ≈ 0, 16.

в) Допустим, что событие C − «работает только хотя бы один станок». Иззадачи 3.8 следует, что P (C) = 1 − P (C), где C − противоположное Cсобытие − «не работает ни один станок». Так как C совпадает с событиемB

1из задания б), то P (C) = P (B

1) = 0, 015. Поэтому P (C) = 1− 0, 015 =

0, 985.

a) вероятность, что работает только один станок, равна 0, 14;б) вероятность, что работает не более одного станка, равна 0, 16;в) вероятность, что работает хотя бы один станок, равна 0, 99.

3.3.2 Вероятность работы схем теории надежности

В теории надежности работа эксплуатируемых систем определяется схе-мами соединения звеньев системы. При этом основными структурами в лю-бой схеме являются параллельное и последовательное соединение звеньев.

Рассмотрим две основные задачи.Задача 3.11. Найдите вероятность работы схемы при последова-

тельном соединении двух элементов (рис. 3.2), если даны вероятностиработы каждого элемента.

p1 p2 Рис. 3.2

Решение. Событие R − «схема работает» − эквивалентно событию «Ра-ботает первый элемент» (событие R

1) и «работает второй элемент» (собы-

тие R2). Поэтому

P (R) = P (R1)P (R

2).

Следовательно, вероятность работы схемы равна p1p

2.

Задача 3.12. Найдите вероятность работы схемы при параллель-ном соединении двух элементов (рис. 3.3), если даны вероятности рабо-ты каждого элемента.Решение. Событие S − «схема работает» − эквивалентно событию «Ра-

ботает первый элемент» (событие S1) и «не работает второй элемент» (со-

бытие S2) или «не работает первый элемент» (событие S

1) и «работает

47

Page 49: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

второй элемент» (событие S2) или «работает первый элемент» (событие

S1) и « работает второй элемент» (событие S

2).

p1

p2 Рис. 3.3В компактном виде это можно записать так:

S = S1и S

2или S

1и S

2или S

1и S

2.

Так как событие S является очень громоздким, попробуем рассмотретьпротивоположное событие S − «схема не работает».

Событие S − «схема не работает» − эквивалентно произведению двухнезависимых событий: «не работает первый элемент» (событие S

1) и «не

работает второй элемент» (событие S2).

В компактном виде это имеет следующий вид: S = S1и S

2.

Следовательно,P (S) = P (S

1)P (S

2).

Так как P (S1) = 1− p

1, а P (S

2) = 1− p

2, то вероятность того, что схема

не работаетP (S) = (1− p

1)(1− p

2).

Учитывая P (S) = 1− P (S), получаем

вероятность работы схемы равна 1− (1− p1)(1− p

2).

Замечание 3.4. Если q1

= 1− p1, а q

2= 1− p

2, то вероятность работы

схемы при параллельном соединении P (S) = 1− q1q

2.

Замечание 3.5. Из решений задач 3.11 и 3.12 вытекает, что при после-довательном соединении легче найти вероятность того, что схема работает.При параллельном же соединении проще искать вероятность того, что схе-ма не работает.

Задача 3.13. Найдите вероятность работы схемы (рис. 3.4), еслиданы вероятности работы каждого элемента.Решение. Пусть событие D − «схема работает».

0, 8

0, 6

0, 7 0, 9

0, 6

0, 8

A

B

C

Рис. 3.4

48

Page 50: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Чтобы найти вероятность данного события, представим данную схему ввиде последовательно соединенных блоков A, B, C (рис. 3.5).

A B C Рис. 3.5

Как следует из решения задачи 3.11

P (D) = P (A)P (B)P (C). (3.1)

Чтобы найти вероятности P (A) и P (C), используем алгоритм задачи3.12 и найдем вероятности противоположных событий A и C.

В блоке A вероятности работы элементов p1

= 0, 8, p2

= 0, 7, p3

= 0, 6.Соответственно вероятности отказа этих элементов q

1= 0, 2, q

2= 0, 3,

q3

= 0, 4.Следовательно,

P (A) = 0, 2 · 0, 3 · 0, 4 = 0, 024⇒ P (A) = 1− 0, 024 = 0, 976.

В блоке C вероятности работы элементов p5

= 0, 6, p6

= 0, 8.Соответственно, вероятности отказа этих элементов q

5= 0, 4, q

2= 0, 2.

Поэтому,

P (C) = 0, 4 · 0, 2 = 0, 08⇒ P (A) = 1− 0, 08 = 0, 92.

Подставляя полученные значения в (3.1), находим

P (D) = 0, 976 · 0, 9 · 0, 92⇒ P (D) = 0, 8.

Таким образом, вероятность работы схемы равна 0, 8.

3.4 Формула полной вероятности

Предположим, что события H1, H

2, . . . , H

nобразуют полную группу

несовместных событий, при этом известны вероятности наступления каж-дого из этих событий: P (H

1), P (H

2), . . . , P (H

n). Далее эти события будем

называть гипотезами. Допустим также, что на фоне только одного из этихсобытий наступает интересующее нас событие A, и известны его условныевероятности PH

1(A), PH

2(A), . . . , PHn

(A). Тогда вероятность наступленияэтого события определяется в следующей теореме.

Теорема 3.6. (Формула полной вероятности1). Вероятность со-бытия A, которое может наступить только при условии наступления

1Формула полной вероятности была впервые сформулирована П. Лапласом в его работе «Опытфилософии теории вероятностей» (A Philosophical Essay on Probabilities) в 1814 году (математикииспользовали формулу и до Лапласа, но точной формулировки ее дать не могли).

де Лаплас Пьер-Симон, (фр. de Laplace Pierre-Simon, 1749-1827)− маркиз, французский математик,

49

Page 51: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

одной из гипотез, образующих полную группу, равна скалярному произве-дению вектора вероятностей гипотез на вектор условных вероятностейданного события. То есть,

P (A) = P (H1)PH

1(A) + P (H

2)PH

2(A) + · · ·+ P (H

n)PHn

(A),

еслиP (H

1) + P (H

2) + · · ·+ P (H

n) = 1.

Или в компактной форме

P (A) =n∑i=1

P (Hi)PH

i(A), если

n∑i=1

P (Hi) = 1.

Д о к а з а т е л ь с т в о. Так как событие A наступает нафоне только одного из несовместных событийH

1, H

2, . . . , H

n, то его можно

представить в виде

A = H1A+H

2A+ . . . , H

nA.

При этом события H1A, H

2A, . . . , H

nA также являются несовместными со-

бытиями. Поэтому, согласно следствию 3.1,

P (A) = P (H1A) + P (H

2A) + . . . , P (H

nA).

Для каждого из слагаемых из теоремы 3.4 следует, что

P (H1A) = P (H

1)P

H1(A);P (H

2A) = P (H

2)P

H2(A); . . .

P (HnA) = P (H

n)P

Hn(A).

Следовательно,

P (A) = P (H1)PH

1(A) + P (H

2)PH

2(A) + · · ·+ P (H

n)PHn

(A).

Задача 3.14. На складе в пяти ящиках лежат детали первого заво-да, в трех ящиках − детали второго завода и в двух ящиках − деталитретьего завода. Для деталей первого завода вероятность вытащитьиз ящика стандартную деталь равна 0,8. Для деталей второго завода −0, 7. А для деталей третьего завода − 0, 9. Какова вероятность случай-ным образом взять одну стандартную деталь на этом складе?механик, физик и астроном; известен работами в области небесной механики, дифференциальных урав-нений, один из создателей теории вероятностей. Иностранный член шести академий наук и королевско-го общества. (cм. Гнеденко Б. В. Курс теории... С. 411, а также Википедия [Электронный ресурс] : URL:https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyra\T2A\cyrp\T2A\cyrl\T2A\cyra\T2A\cyrs,_\T2A\CYRP\T2A\cyrsftsn\T2A\cyre\T2A\cyrr-\T2A\CYRS\T2A\cyri\T2A\cyrm\T2A\cyro\T2A\cyrn,https://en.wikipedia.org/wiki/Pierre-Simon_Laplace (дата обращения: 12.06.2016)).

50

Page 52: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Решение. Взятая деталь может оказаться деталью одного из трех за-водов. Поэтому существуют три независимые гипотезы: H

1− «деталь из-

готовлена на первом заводе», H2− «деталь изготовлена на втором заводе»,

H3− «деталь изготовлена на третьем заводе». Вероятность взять деталь

первого завода определяется тем, что она может быть в одном из m = 5

ящиков при общем количестве ящиков n = 10. Поэтому P (H1) =

5

10= 0, 5.

Аналогично P (H2) =

3

10= 0, 3, а P (H

3) =

2

10= 0, 2. Так как вероятность

того, что взятая из ящика первого завода деталь окажется стандартной,равна 0, 8, то условная вероятность PH

1(A) = 0, 8. Соответственно

PH2(A) = 0, 7, а PH

3(A) = 0, 9.

Подставляя эти данные в формулу полной вероятности, имеем:

P (A) = 0, 5 · 0, 8 + 0, 3 · 0, 7 + 0, 2 · 0, 9⇒ P (A) = 0, 79.

Таким образом, вероятность случайным образом взять одну стандартнуюдеталь на этом складе равна 0, 79.

Замечание 3.6. Следует заметить, что решение подобных задач мож-но получить, пользуясь только комбинаторными правилами сложения. Изправил вытекает, что если условие задачи переформулировать длясобытий с помощью союзов «и» «или», а затем, взяв вероятностисобытий, поставить между ними соответственно знаки умноже-ния и сложения, то получим нужный результат.

Рассмотрим решение последней задачи, пользуясь эти алгоритмом.Событие «взять стандартную деталь» можно переформулировать так: «по-дойти к ящикам первого завода» и «взять стандартную деталь первогозавода», или «подойти к ящикам второго завода» и «взять стандарт-ную деталь второго завода», или «подойти к ящикам третьего завода»и «взять стандартную деталь третьего завода». Далее, используя соот-ветствующие обозначения перепишем этот текст кратко:

A = H1и (A/H

1) или H

2и (A/H

2) или H

3и (A/H

3).

«Повесим» вероятности на события и расставим соответствующие знакиумножения и сложения:

P (A) = P (H1)PH

1(A) + P (H

2)PH

2(A) + P (H

3)PH

3(A).

Таким образом, мы получили формулу полной вероятности в случае трехгипотез, используя только русский язык и правила комбинаторики1.

Задача 3.15. В первой урне 5 белых и 6 черных шаров, а во второй− 4 белых и 8 черных. Из первой урны случайным образом вынимают два

1Можно заметить, что самым сложным в этом решении является переформулировка условия задачив виде текста с помощью союзов «и» и «или». Все остальное происходит автоматически.

51

Page 53: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

шара и опускают во вторую урну. После этого из второй урны так жеслучайно вынимают 4 шара. Найти вероятность того, что:

а) из второй урны вытащили 4 белых шара;б) только один шар белый.Решение. Так как неизвестно какие шары доставали из первой урны,

то существуют три гипотезы:H

1− «из первой урны достали и положили во вторую два белых шара».

Во второй урне теперь лежат 6 белых и 8 черных шаров.

P (H1) =

C25

C211

;

H2− «из первой урны достали и положили во вторую два черных шара».

Во второй урне теперь лежат 4 белых и 10 черных шаров.

P (H2) =

C26

C211

.

H3− «из первой урны достали и положили во вторую разноцветные шары».

Во второй урне теперь лежат 5 белых и 9 черных шаров.

P (H3) =

C15· C1

6

C211

.

а) Пусть событие A − «из второй урны вытащили 4 белых шара». Согласноформуле полной вероятности 3.6 его вероятность можно представить

P (A) = P (H1)PH

1(A) + P (H

2)PH

2(A) + P (H

3)PH

3(A).

PH1(A) =

C46

C414

; PH2(A) =

C44

C414

; PH3(A) =

C45

C414

.

P (A) =C2

5· C4

6+ C2

6· C4

4+ C1

5· C1

6· C4

5

C211· C4

14

=

=10 · 15 + 15 · 1 + 5 · 6 · 5

55 · 11 · 91=

63

11011≈ 0, 006.

б) Событие B − «из второй урны вытащили только один шар белый» оз-начает, что «из второй урны вытащили один белый шар и три черныхшара». Согласно формуле полной вероятности 3.6 его вероятность можнопредставить

P (B) = P (H1)PH

1(B) + P (H

2)PH

2(B) + P (H

3)PH

3(B).

PH1(B) =

C16· C3

8

C414

; PH2(B) =

C14· C3

10

C414

; PH3(B) =

C15· C3

9

C414

.

52

Page 54: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

P (B) =C2

5· C1

6· C3

8+ C2

6· C1

4· C3

10+ C1

5· C1

6· C1

5· C3

9

C211· C4

14

=

=10 · 6 · 56 + 15 · 4 · 105 + 5 · 6 · 5 · 84

55 · 1001=

22260

50055≈ 0, 44.

а) вероятность того, что из второй урны вытащили 4 белых шара,равна 0, 006;

б) вероятность того, что из второй урны вытащили 4 шара,из которых один белый, равна 0, 44.

3.5 Формула Байеса

Следствием теорем 3.4 и 3.6 является теорема гипотез или формулаБайеса1.

Как и в предыдущем параграфе, предположим, что до наступления опы-та можно выдвинуть гипотезы H

1, H

2, . . . , H

n, образующие полную группу

несовместных событий. Допустим также, что до проведения опыта извест-ны предполагаемые вероятности2 этих гипотез: P (H

1), P (H

2), . . . , P (H

n),

для которыхn∑i=1

P (Hi) = 1.

Теорема 3.7. (Теорема гипотез) Пусть проведен опыт, в которомзаранее известны предполагаемые вероятности гипотез H

1, H

2, . . . , H

n,

образующих полную группу несовместных событий. Если в результатеопыта произошло событие A, для которого известны условные вероят-ности PH

1(A), PH

2(A), . . . , PHn

(A), то для каждой из гипотез Hiможно

определить условную вероятность PA(H

i) (i = 1, 2 . . . , n), то есть

∀ i = 1, n PA(H

i) =

PHi(A)

P (A),

где

P (A) =n∑i=1

P (Hi)PH

i(A), если

n∑i=1

P (Hi) = 1.

Д о к а з а т е л ь с т в о. Найдем условную вероятность PH1(A):

P (AH1) = P (A)P

A(H

1) = P (H

1)PH

1(A).

1Теорема впервые была сформулирована П. Лапласом в упомянутом выше «Опыте философиитеории вероятностей» (см. сноску на с. 46). Лаплас назвал полученную формулу формулой Байеса,

так как в работе Байеса (см. с. 36 в качестве одного из следствий было получено отношениеP (AB)

P (A).

В работах Байеса формула появится не могла, так как он не знал формулу полной вероятности (см.Гнеденко Б. В. Курс теории... С. 411).

2Такие вероятности называют априорными или теоретическими вероятностями.

53

Page 55: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее, отбросим левую часть двойного равенства:

P (A)PA(H

1) = P (H

1)PH

1(A)

и разделим обе части равенства на P (A) (предполагая, что P (A) 6= 0):

PA(H

1) =

P (H1)PH

1(A)

P (A).

Затем заменим P (A) с помощью формулы полной вероятности (см. 3.6):

PA(H

1) =

P (H1)PH

1(A)

n∑i=1

P (Hi)PH

i(A)

.

Так как этот процесс имеет место для любого целого числа i, пробегаю-щего диапазон от 1 до n, то получаем, что

PA(H

i) =

P (Hi)PH

i(A)

n∑i=1

P (Hi)PH

i(A)

(i = 1, n). (3.2)

Формула (3.2) называется формулой Байеса. Она дает возможность пе-ресчитывать вероятности гипотез1 в свете информации о том, что в изуча-емом опыте событие A наступило.

Задача 3.16. При отклонении прибора от нормального режима ра-боты сигнализатор C

1срабатывает с вероятностью 0, 85, а сигнализа-

тор C2срабатывает с вероятностью 0, 9. Прибор снабжается сигнали-

заторами C1или C

2с вероятностью соответственно 0, 6 и 0, 4. Прибор

отклонился от нормального режима. Что вероятнее: прибор снабженсигнализатором C

1или C

2?

Решение. Существует только две гипотезы: H1− «в приборе установ-

лен сигнализатор C1» и H

2− «в приборе установлен сигнализатор C

2».

Эти гипотезы являются независимыми событиями, образующими полнуюгруппу исходов опыта. Предполагаемые заранее вероятности этих гипотезP (H

1) = 0, 6 и P (H

2) = 0, 4. Изучаемым событием является событие A −

«прибор отклонился от нормального режима работы». Для этого событияизвестны условные вероятности: PH

1(A) = 0, 85 и PH

2(A) = 0, 9. Известно,

что событие A произошло. Требуется найти вероятности событий H1/A −

«аварийный прибор снабжен сигнализатором C1» и H

2/A − «аварийный

прибор снабжен сигнализатором C2. Используя формулу полной вероят-

ности, найдем вероятность того, что «прибор отклонился от нормального1Новые условные вероятности гипотез называются апостериорными вероятностями.

54

Page 56: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

режима работы».

P (A) = P (H1)PH1(A)+P (H2)PH2

(A)⇒ P (A) = 0, 6 ·0, 85+0, 4 ·0, 9 = 0, 87.

Последовательно применяя формулу Байеса (3.2), получим

PA(H

1) =

P (H1)PH

1(A)

P (A)⇒ P

A(H

1) =

0, 6 · 0, 85

0, 87⇒ P

A(H

1) ≈ 0, 59.

PA(H

2) =

P (H2)PH

2(A)

P (A)⇒ P

A(H

2) =

0, 4 · 0, 90, 87

⇒ PA(H

2) ≈ 0, 41.

Так как PA(H

1) > P

A(H

2), то

вероятнее, что прибор снабжен сигнализатором C1.

Замечание 3.7. Заметим, что до испытания вероятность гипотезы H1

была равна 0, 6, а после опыта вероятность этой гипотезы (точнее услов-ная вероятность) изменилась и стала равна 0, 59. Следовательно, исполь-зование формулы Байеса (3.2) позволило переоценить вероятность даннойгипотезы.

Следующая задача1 связана со статистикой, психологией и криминалом.Задача 3.17. Ночью таксист совершил наезд и скрылся с места прои-

шествия. В городе работают две компании такси, «Зеленая» и «Синяя».По данным полиции обе компании имеют одинаковое число машин, но

«Зеленые» такси были до этого связаны с 75% происшествий. На местепроисшествия оказался свидетель, который опознал такси как «Синее».Судебная экспертиза проверила надежность свидетеля в ночных усло-виях и установила, что свидетель правильно опознает каждый из двухцветов в 80% случаев и неправильно − в 20% случаев.

Какова вероятность того, что такси, совершившее наезд, было «Си-ним», а не «Зеленым»?

Решение. Существуют две гипотезы:H1− «наезд совершило «Зеленое»

такси» и H2− «наезд совершило «Синее» такси». Эти гипотезы являются

независимыми событиями, образующими полную группу исходов опыта.Предполагаемые заранее вероятности этих гипотез связаны со статисти-

кой происшествий, ведущейся в полиции: P (H1) = 0, 75 и P (H

2) = 0, 25.

Изучаемым событием является событие A − «свидетель увидел наезд».Для этого события известны условные вероятности: в случае, если он неувидел «Зеленое» такси» PH

1(A) = 0, 2, и, если он видел «Синее» такси

PH2(A) = 0, 8. Известно, что событие A произошло.Требуется найти вероятность того, что увиденный наезд был совершен

1См. Канеман Д. Думай медленно... решай быстро. М. : Аст, 2014. С. 220.

55

Page 57: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

«Синим» такси, то есть, вероятность события H2/A.

Используя формулу полной вероятности (теорема 3.6), найдем вероят-ность того, что «свидетель увидел наезд».

P (A) = P (H1)PH1(A)+P (H2)PH2

(A)⇒ P (A) = 0, 75·0, 2+0, 25·0, 8 = 0, 35.

Применяя формулу Байеса (3.2), получим

PA(H

2) =

P (H2)PH

2(A)

P (A)⇒ P

A(H

2) =

0, 25 · 0, 80, 35

⇒ PA(H

2) ≈ 0, 57.

Таким образом1, достоверность того, что увиденный наезд былсовершен именно «Синим» такси, равна 57% .

1Интересно, читая условия задачи с полицейской статистикой, вы бы поверили, учитывая репутацию«Зеленой» компании, что наезд могло совершить «Синее» такси? Мораль этой задачи: не надо делатьпоспешных выводов.

56

Page 58: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

4 Схема Бернулли

Догадкам не место в тех вещах,

где можно достигнуть полной

достоверности.

Первое правило Я. Бернулли

Определение 4.1. Опыт, состоящий из n независмых испытаний, вкаждом из которых событие A наступает с постоянной вероятностьюp, называется схемой независимых испытаний с двумя исходамиили схемой Бернулли.

Целью опыта является определение вероятности того, что событиеA наступит k раз.

Замечание 4.1. Так как вероятность наступления события A в каж-дом из испытаний равна p, то вероятность ненаступления данного событияв каждом испытании равна q = 1 − p, а значит, является величиной по-стоянной. Можно также заметить, что наступление события A k раз в nнезависимых испытаниях эквивалентно ненаступлению этого события n−kраз.

4.1 Формула Бернулли

Теорема 4.1. Пусть в схеме из n независимых испытаний событие Aнаступает в каждом из них с постоянной вероятностью p. Тогда веро-ятность того, что событие A наступит k раз, определяется формулой

Pn(k) = Ck

npkqn−k, где q = 1− p. (4.1)

Д о к а з а т е л ь с т в о. Рассмотрим ситуацию, в которой инте-ресующее нас событие A в серии из n независимых испытаний наступаетk раз и не наступает n − k раз. Поскольку порядок в тех испытаниях, вкоторых событие A происходит или не происходит, не играет роли, то мыимеем дело с сочетаниями. Очевидно, что число таких ситуаций равно Ck

n.С точки зрения вероятностей все эти ситуации одинаковы, так как каж-

дая из них наступает с вероятностью pkqn−k.Поскольку все ситуации несовместны, то по теореме сложения веро-

ятностей несовместных событий (cм. следствие 3.1) вероятность суммывсех подобных ситуаций равна сумме вероятностей этих ситуаций.

Но так как вероятности-слагаемые равны между собой, то определяемаявероятность равна произведению числа ситуаций Ck

n на вероятность однойситуации pkqn−k.

57

Page 59: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

В итоге, имеем Pn(k) = Ck

npkqn−k. Что и требовалось доказать.

Эта формула называется формулой Бернулли1.Задача 4.1. Тест состоит из 10 вопросов и включает 4 варианта от-

вета на каждый вопрос. Один из ответов является верным, а остальные− нет. Какова вероятность случайно дать правильный ответ:а) на один вопрос;б) на два вопроса;в) на три вопроса;г) не более, чем на два вопроса;д) менее, чем на два вопроса;е) более, чем на два вопроса;ж) не менее, чем на два вопроса?

Решение. Так как вероятность ответа на каждый из вопросов являетсяпостоянной для этого теста, и ответ на каждый из вопросов не зависит отответов на другие вопросы, то решение данной задачи связано с формулойБернулли (4.1).

Вероятность правильного ответа на один вопрос p = 0, 25, соответствен-но вероятность не ответить на вопрос q = 0, 75. Эти числа, а также общеечисло вопросов n = 10, являются для всех подвопросов задачи постоянны-ми величинами.а) Здесь k = 1, поэтому согласно формуле Бернулли (4.1) имеем

P10(1) = C110 · (0, 25)1 · (0, 75)10−1 ⇒

⇒ P10(1) = 10 · 0, 25 · (0, 75)9 ⇒ P10(1) ≈ 0, 188.б) Здесь k = 2, поэтому

P10(2) = C210 · (0, 25)2 · (0, 75)10−2 ⇒

⇒ P10(2) =9 · 10

2· (0, 25)2 · (0, 75)8 ⇒ P10(1) ≈ 0, 282.

в) Здесь k = 3, поэтомуP10(3) = C3

10 · (0, 25)3 · (0, 75)10−3 ⇒

⇒ P10(3) =8 · 9 · 10

2 · 3· (0, 25)3 · (0, 75)7 ⇒ P10(1) ≈ 0, 25.

г) Ответить на не более, чем два вопроса, это означает ответить на 0 во-просов, или ответить на 1 вопрос или ответить на 2 вопроса. Поэтому

P10(k ≤ 2) = P10(0) + P10(1) + P10(2).

1Формула была получена Я. Бернулли в его работе «Искусство предположений» (лат. Arsconjectandi). Сама работа была опубликована в 1713 году (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRI\T2A\cyrs\T2A\cyrt\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyrya_\T2A\cyrt\T2A\cyre\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyri_\T2A\cyrv\T2A\cyre\T2A\cyrr\T2A\cyro\T2A\cyrya\T2A\cyrt\T2A\cyrn\T2A\cyro\T2A\cyrs\T2A\cyrt\T2A\cyre\T2A\cyrishrt(дата обращения: 12.06.2016)).

58

Page 60: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Вычислим P10(0) = C010 · (0, 25)0 · (0, 75)10−0 ⇒

⇒ P10(0) = 1 · (0, 25)0 · (0, 75)10 ⇒ P10(0) ≈ 0, 056.

Подставляя найденное число, а также результаты, полученные в а) и б),имеем

⇒ P10(k ≤ 2) = 0, 056 + 0, 188 + 0, 282⇒ P10(k ≤ 2) ≈ 0, 526.

д) Ответить менее, чем на два вопроса, это означает ответить на 0 вопро-сов, или ответить на 1 вопрос. Поэтому

P10(k < 2) = P10(0) + P10(1).

Подставляя результаты, полученные в г) и а), имеем⇒ P10(k < 2) = 0, 056 + 0, 188⇒ P10(k < 2) ≈ 0, 244.

е) Ответить более, чем на два вопроса, это означает ответить на 3 вопроса,или ответить на 4 вопроса, или ответить на 5 вопросов, и так далее, покане ответишь на все 10 вопросов.

Естественно, решать таким способом задачу затруднительно, поэтомунужно определить событие, противоположное данному.

Так какP10(k > 2) + P10(k ≤ 2) = 1, то P10(k > 2) = 1− P10(k ≤ 2).

Учитывая результат, полученный в пункте г), получаемP10(k > 2) = 1− 0, 526⇒ P10(k > 2) ≈ 0, 474.

ж) Аналогично можно ответить и на данный вопрос. ИмеемP10(k ≥ 2) + P10(k < 2) = 1.

ПоэтомуP10(k ≥ 2) = 1− P10(k < 2).

Подставляя результат, полученный в пункте д), находим

P10(k ≥ 2) = 1− 0, 244⇒ P10(k > 2) ≈ 0, 756.

4.2 Формула Пуассона

Теорема 4.2. Пусть в схеме n независимых испытаний событие A на-ступает в каждом из них с вероятностью p, где n→∞, а p→ 0 такимобразом, что произведение λ = np является постоянным числом. Тогдавероятность того, что событие A наступит k раз

P (k) = limn→∞

λk

k!e−λ.

Д о к а з а т е л ь с т в о. Предположим, что n конечное число, асобытие A в серии независимых испытаний наступило k раз. Поэтому мы

59

Page 61: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

можем применить формулу Бернулли (4.1).

Pn(k) = Cknp

kqn−k (q = 1− p).Преобразуем сомножители правой части.

Так как λ = np, то p =λ

n⇒ pk =

n

)k=λk

nk.

Следовательно, qk =

(1− λ

n

)n−k=

(1− λ

n

)n(1− λ

n

)−k.

Далее, преобразуем первый сомножитель Ckn =

n!

k!(n− k)!, точнее, зави-

сящие от n элементы числителя и знаменателя:n!

(n− k)!=n(n− 1)(n− 2) . . . (n− (k − 1))(n− k)(n− k + 1) . . . 2 · 1

(n− k)(n− k + 1) . . . 2 · 1=

= n(n− 1)(n− 2) . . . (n− (k − 1)).

После этих преобразований

Pn(k) =λk

k!· n(n− 1)(n− 2) . . . (n− (k − 1))

nk·(

1− λ

n

)n(1− λ

n

)−k.

Выпишем вторую дробь-сомножитель представления Pn(k) и почленноподелим каждый сомножитель числителя на n:n(n− 1)(n− 2) . . . (n− (k − 1))

nk=n

n· n− 1

n· n− 2

n. . .

n− (k − 1)

n=

= 1 ·(

1− 1

n

)·(

1− 2

n

)· · ·(

1− k − 1

n

).

Возвращая новое произведение вместо дроби, имеем

Pn(k) =λk

k!·(

1− 1

n

)·(

1− 2

n

)· · ·(

1− k − 1

n

)·(

1− λ

n

)n(1− λ

n

)−k.

Далее, заставив n стремиться к бесконечности1, найдем limn→∞

Pn(k), учи-тывая при этом, что константу можно вынести за знак предела:

limn→∞

Pn(k) =λk

k!· limn→∞

(1− 1

n

)·(

1− 2

n

)· · ·(

1− k − 1

n

)·(

1− λ

n

)n(1− λ

n

)−k.

Предполагая, что предел каждого сомножителя является конечным, ис-пользуем тот факт, что предел произведения равен произведению пределов:

limn→∞

(1− 1

n

)·(

1− 2

n

)· · ·(

1− k − 1

n

)·(

1− λ

n

)n(1− λ

n

)−k=

1Так как при этом λ остается постоянным, то p→ 0.

60

Page 62: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

= limn→∞

(1− 1

n

)· limn→∞

(1− 2

n

). . . lim

n→∞

(1− k − 1

n

)· limn→∞

(1− λ

n

)n· limn→∞

(1− λ

n

)−k.

Очевидно, что первые k − 1 и последний пределы равны единице.

Что же касается предела limn→∞

(1− λ

n

)n, то он связан с неопределенностью

типа (1)∞, то есть, со вторым «замечательным» пределом

limn→∞

(1 +

1

n

)n= e.

Поэтому, учитывая свойства показательных выражений, а также пределаот непрерывной функции, имеем

limn→∞

(1− λ

n

)n= lim

n→∞

(1− λ

n

) n−λ ·(−λ)

=

(limn→∞

(1− λ

n

)−nλ)−λ= e−λ.

Таким образом, действительно limn→∞

Pn(k) =λk

k!e−λ.

В практических расчетах используют приближенную формулу, котораяназывается формулой Пуассона1 :

Pn(k) ∼=

λk

k!e−λ. (4.2)

Замечание 4.2. В силу малости p формулу Пуассона (4.2) иногда на-зывают формулой редких событий.

На практике установлено, что формулу целесообразно применять привыполнении условий: p < 0, 1 и λ < 9 (или pqn ≤ 10).

Задача 4.2. Завод отправил на базу 5000 доброкачественных изделий.Вероятность того, что в пути изделие повредится, равно 0,0002. Най-дите вероятность того, что на базу прибудут 3 негодных изделия.

Решение. В данной задаче повреждение одного изделия не зависитот повреждения другого изделия. А так как для каждого изделия веро-ятность повреждения p = 0, 0002 не меняется, то эта задача решается посхеме независимых испытаний. Но ввиду того, что 0, 0002 < 0, 1, а n = 5000достаточно большое число, решение этой задачи по формуле Бернулли (4.1)

1Формула была получена Д. Пуассоном в его мемуаре «Исследования о вероятностях приговоровв уголовных и гражданских делах» (Recherches sur la probabilite des jugements en matiere criminelle eten matiere civile), опубликованном в 1837 году (cм. Гнеденко Б. В. Из истории науки о случайном. М.: Знание, 1981. С. 42).

Пуассон Дени Симеон (фр. Simeon Denis Poisson, 1781-1840) − французский математик, механики физик (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRP\T2A\cyru\T2A\cyra\T2A\cyrs\T2A\cyrs\T2A\cyro\T2A\cyrn,_\T2A\CYRS\T2A\cyri\T2A\cyrm\T2A\cyre\T2A\cyro\T2A\cyrn_\T2A\CYRD\T2A\cyre\T2A\cyrn\T2A\cyri (дата обращения: 12.06.2016)).

61

Page 63: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

не представляется возможным.Поэтому можно попробовать, найти приближенное решение. Для этого

по формуле λ = np вычислим λ = 5000 · 0, 0002⇒ λ = 1.Так как λ < 10, то условие задачи удовлетворяет формуле Пуассона (4.1).

P5000(3) ≈ 13 · e−1

3!⇒ P5000(3) ≈ 1

6e⇒ P5000(3) ≈ 0, 06.

Задача 4.3. В работе службы скорой помощи районного центра про-исходит три вызова в час. Определите вероятностьа) хотя бы одного вызова за один час;б) пяти вызовов за 2 часа.

Решение. Поскольку потенциальных клиентов1 у службы скорой помо-щи в районе неизмеримо больше, чем реальных клиентов, то вероятность kвызовов вычисляется по формуле Пуассона (4.2), в которой λ − показательинтенсивности: показывает число вызовов в час.

Поскольку определить буквально вероятность «хотя бы одного вызова»невозможно, то найдем вероятность противоположного события: «нуль вы-зовов в час». То есть, имеем λ = 3, k = 0. Поэтому

P (0) ≈ 30 · e−3

0!⇒ P (0) ≈ 1

e3⇒ P (0) ≈ 0, 0498.

Следовательно, вероятность искомого события определяетсяP = 1− P (0)⇒ P = 1− 0, 0498⇒ P = 0, 9502.

б) Эта задача связана с так называемым простейшим потоком собы-тий, который вычисляется по измененной формуле Пуассона:

Pn(k, t) ∼=

(λt)k

k!e−(λt). (4.3)

В нашем случае λ = 3, t = 2, k = 5. Поэтому

P (5, 2) ≈ (3 · 2)5

5!· e−3·2 ⇒ P (5, 2) ≈ 65

120· e−6 ⇒ P (5, 2) ≈ 0, 1606.

Задача 4.4. В городке 1000 домов, каждый из которых застрахованот пожара в некоторой страховой компании на сумму 1000000 рублей.Страховой взнос за год составляет 2000 рублей. Для данного городка ве-роятность пожара в течение года оценивается в 0,003. Какова вероят-ность того, что в течение года страховая компания потерпит убытки?

Решение. Страховая компания собирает в городке со всех домов общийвзнос в 2000000 рублей. Следовательно, если сгорят за год не менее, чемтри дома, то компания потерпит убытки.

Вычислим параметр λ = 1000 · 0, 0003 ⇒ λ = 3. Так λ = 3 < 10,1К сожалению.

62

Page 64: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

p = 0, 003 < 0, 1, а n = 1000 достаточно большое число, то можно приме-нить измененную формулу Пуассона (4.3).

Прежде, чем ответить на главный вопрос, вычислим предварительновероятности менее печальных событий: «не сгорит ни один дом», «сгоритодин дом», «сгорят два дома».

P1000(0) ≈ 30 · e−3

0!⇒ P (0) ≈ 1

e3⇒ P (0) ≈ 0, 0498.

P1000(1) ≈ 31 · e−3

1!⇒ P (0) ≈ 3

e3⇒ P (0) ≈ 0, 1494.

P1000(2) ≈ 32 · e−3

2!⇒ P (0) ≈ 9

2e3⇒ P (0) ≈ 0, 2241.

Зная эти вероятности, найдем вероятность события, противоположногоискомому: A =«сгорят менее трех домов».

P (A) = 0, 0498 + 0, 1494 + 0, 2241⇒ P (A) = 0, 4233.Если событие A =«сгорят не менее чем три дома», то так как

P (A) + P (A) = 1,

имеем P (A) = 1− 0, 4233⇒ P (A) = 0, 5767.

Таким образом,вероятность того, что страховая компания в течениегода потерпит убытки, составляет 0, 5767.

4.3 Локальная и интегральная теоремы Лапласа

Если же при достаточно большом n условия формулы Пуассона (4.2) невыполняются, следует обратиться к локальной теореме Муавра-Лапласа.

Для ее формулировки понадобится следующееОпределение 4.2. Функция

ϕ(x) =1√

2πe−x2

2 .

называется функцией Гаусса1.Функцию Гаусса в табличном виде можно найти во всех справочниках и

учебниках, имеющих отношение к теории вероятностей и математической1 Гаусс Иоганн Карл Фридрих (нем. Gauβ Johann Carl Friedrich, 1777−1855, Геттинген) −

немецкий математик, механик, физик, астроном и геодезист. Один из величайших математиковвсех времен, «король математиков Европы». Иностранный член Шведской и Российской Академийнаук, и английского Королевского общества. (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRG\T2A\cyra\T2A\cyru\T2A\cyrs\T2A\cyrs,_\T2A\CYRK\T2A\cyra\T2A\cyrr\T2A\cyrl_\T2A\CYRF\T2A\cyrr\T2A\cyri\T2A\cyrd\T2A\cyrr\T2A\cyri\T2A\cyrh(дата обращения: 12.06.2016)).

63

Page 65: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

статистике1. Но для того, чтобы пользоваться ее таблицей, нужно знатьследующие

Свойства функции Гаусса1. Функция является четной, то есть

ϕ(−x) = ϕ(x) (4.4)

2. Если2

x→∞, то ϕ(x)→ 0. (4.5)

Теорема 4.3. Локальная теорема Муавра-Лапласа3. Если в схемеn независимых испытаний событие A наступает в каждом из них с ве-роятностью p, где 0 < p < 1, а n → ∞, то вероятность того, чтособытие A наступит k раз

P (k) = limn→∞

1√npq

ϕ(x), где x =k − np√npq

.

(Здесь, как и ранее, q = 1 − p.) В практических расчетах используютприближенную формулу, которая называется локальной формулой Лапла-са:

Pn(k) ∼=

1√npq

ϕ(x), где x =k − np√npq

(q = 1− p). (4.6)

Замечание 4.3. Следует заметить, что чем ближе значения вероятно-стей p и q к 0, 5, тем точнее формула. А при p, близких к 0 или 1 локальнаяформула Муавра-Лапласа (4.6) дает большую погрешность, если сравни-вать с результатами, полученным с помощью формулы Бернулли (4.1).

Являясь «конкурентом» формулы Пуассона (4.2), локальная формулаприменяется обычно при npq > 10.

Задача 4.5. В честь праздника состоялся массовый забег на дистан-цию 10 км. В забеге приняли участие 250 человек. Обычно в забегах та-кого типа из каждых десяти участников 8 доходят до финиша. Каковавероятность того, что до финиша добежали 200 человек?

Решение. Так как вероятность добежать до финиша для каждого участ-ника есть число постоянное, то перед нами схема Бернулли (см. определе-ние 4.1) при большом числе испытаний. В силу того, что p = 0, 8 > 0, 1,

1В частности, ее можно найти в прил. 1.2Как видно из таблицы значений функции Гаусса, при x ≥ 4 ϕ(x) практически равна нулю.3Впервые теорема была опубликована А. де Муавром в работе «Аналитические этюды» (Miscellanea

Analytica) в 1730 году. В 1812 году П. Лаплас, обобщив результат Муавра, опубликовал теорему в«Аналитической теории вероятностей» (Theorie analytique des probabilites) (см. Майстров Л. И. Тео-рия вероятностей. Исторический очерк. М. : Наука, 1967. С. 174, Гнеденко Б. В. Из истории нау-ки... С. 34, Википедия [Электронный ресурс] : URL : https://en.wikipedia.org/wiki/De_Moivre\T2A\textendashLaplace_theorem (дата обращения: 12.06.2016)).

64

Page 66: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

вероятность можно вычислить с помощью локальной формулы Муавра-Лапласа (4.6).

Определим q = 1 − 0, 8 ⇒ q = 0, 2. По условию n = 250, а k = 200.

Следовательно, аргумент функции Гаусса x =200− 250 · 0, 8√

250 · 0, 8 · 0, 2⇒ x = 0.

Из таблицы значений функции Гаусса (прил. 1) или с помощью кальку-лятора находим ϕ(0) = 0, 3989.

Таким образом, P250(200) ≈ 1√250 · 0, 8 · 0, 2

· 0, 3989⇒ P250(200) ≈ 0, 063.

Поэтому, вероятность того, что 200 человек добежали до финиша,равна 0, 063.

Далее возникает вопрос, как определять вероятность того, что в схеменезависимых испытаний событие A наступает k раз, при этом значенияk ∈ [k

1; k

2]?

Если n не велико, а число значений, попавших в диапазон мало, то,используя несовместность событий «k = k

1», «k = k

1+ 1», ..., «k = k

2»,

можно там, где применимы формулы Бернулли (4.1) и Пуассона (4.2), вос-пользоваться ими.

Там же, где это невозможно, обращаются к интегральной теореме Лап-ласа. Прежде, чем ее сформулировать, рассмотрим следующее

Определение 4.3. Функция

Φ(x) =1√

x∫0

e−t2

2 dt

называется интегральной функцией Лапласа.Точно так же, как и функцию Гаусса, интегральную функцию Лапласа

можно найти в табличном виде во всех справочниках и учебниках, имею-щих отношение к теории вероятностей и математической статистике1. Нодля того, чтобы пользоваться таблицей функции, нужно знать следующие

Свойства интегральной функции Лапласа1. Функция является нечетной, то есть

Φ(−x) = −Φ(x) (4.7)

2. Если2

x→∞, то Φ(x)→ 0, 5. (4.8)

1В частности, ее можно найти в прил. 2.2Как видно из таблицы значений интегральной функции Лапласа, при x ≥ 4 Φ(x) практически

равна 0, 5.

65

Page 67: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Теорема 4.4. Интегральная теорема Лапласа1. Если в схеме nнезависимых испытаний событие A наступает в каждом из них с веро-ятностью p, где 0 < p < 1, а n→∞, то вероятность того, что событиеA наступит от k

1до k

2раз

P (k1; k

2) = lim

n→∞(Φ(x

2)− Φ(x

1)), где x

1=k

1− np√npq

, x2

=k

2− np√npq

.

(Здесь, как и ранее, q = 1− p.)На практике используют приближенную формулу:

Pn(k

1; k

2) = Φ(x

2)− Φ(x

1), где x

1=k

1− np√npq

, x2

=k

2− np√npq

,

(4.9)(q = 1− p).Задача 4.6. В условиях задачи 4.5 определите вероятность того,

что до финиша добежали от 180 до 210 человек.Решение. Как и задача 4.5, эта задача посвящена схеме Бернулли (см.

определение 4.1). Правда, воспользоваться локальной формулой Муавра-Лапласа (4.6), находя для каждого k от 180 до 210 вероятность, пробле-матично. Поэтому воспользуемся интегральной формулой Лапласа (4.9).Зная, что n = 250; p = 0, 8; q = 0, 2; k1 = 180, а k2 = 210, вычислим соот-ветствующие значения аргумента для интегральной функции Лапласа.

x1 =180− 250 · 0, 8√

250 · 0, 8 · 0, 2⇒ x1 =

−20

6, 3246⇒ x1 = −3, 162;

x2 =210− 250 · 0, 8√

250 · 0, 8 · 0, 2⇒ x2 =

10

6, 3246⇒ x2 = 1, 581.

Подставляя найденные значения аргумента в формулу (4.9), воспользу-емся таблицей значений интегральной функции Лапласа (прил. 2):Φ(1, 1581)−Φ(−3, 162) = Φ(1, 1581)+Φ(3, 162) = 0, 3761+0, 4993 = 0, 8754.

Следовательно, вероятность того, что до финиша добежали от 180 до 210человек, равна 0, 8754.

Задача 4.7. Театр, вмещающий 800 человек, имеет два разных вхо-да, каждым из которых может воспользоваться любой зритель с одина-ковой вероятностью. Около каждого входа есть свой гардероб. Сколькомест должен иметь гардероб театра, чтобы в дни аншлага с вероят-ностью 0,9 любой зритель имел возможность сдать свои вещи в тот

1 Теорема носит имя П. Лапласа, хотя первым ее сформулировал А. де Муавр в работе «Анали-тические этюды». П. Лаплас, уточнив интегральную теорему Муавра с целью выяснения величиныошибки при ее практическом использовании, опубликовал теорему в «Аналитической теории вероят-ностей» (см. Гнеденко Б. В. Из истории науки... С. 34).

66

Page 68: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

гардероб, который находится при том входе, в который он вошел в те-атр?

Решение. Так как общее число независимых испытаний в данном слу-чае совпадает с числом зрителей, то n = 800.

Поскольку число входов равно двум, а в каждый из них любой из зри-телей может войти с одной и той же вероятностью, то p = 0, 5. Поэтомуq = 0, 5.

Очевидно, что число зрителей, которые могут посетить театр, колеблет-ся в диапазоне от k

1до k

2, где k

1− наименьшее число зрителей, пришедших

в один из дней в театр, а k2− наибольшее число зрителей, посетивших те-

атр в какой-либо из дней.Оценивая ситуацию реально, можно предположить, что k

1= 0. Задача

состоит в том, чтобы найти k2.

Воспользуемся приближенной формулой (4.9).В нашем случае

np = 800 · 0, 5⇒ np = 400,а √

npq =√

400 · 0, 5⇒ √npq =√

200⇒ √npq ≈ 14, 14.Подставим все данные в формулу

P800

(0; k2) = Φ

(k

2− 400

14, 14

)− Φ

(0− 400

14, 14

).

Из условия задачиP

800(0; k

2) = 0, 9,

получаем уравнение

Φ

(k

2− 400

14, 14

)− Φ

(0− 400

14, 14

)= 0, 9.

Так какΦ

(0− 400

14, 14

)= Φ(−28, 29),

то, учитывая нечетность интегральной функции Лапласа, из таблицы еезначений (прил. 2) находим

Φ(28, 29) = 0, 5.Подставляя это значение в составленное уравнение

Φ

(k

2− 400

14, 14

)− (−0, 5) = 0, 9,

Получаем новое уравнение

Φ

(k

2− 400

14, 14

)= 0, 4.

Из таблицы значений интегральной функции Лапласа (прил. 2), зная зна-

67

Page 69: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

чение функции в точке xΦ(x) = 0, 4,

найдем соответствующее значение1

x = 1, 28.Следовательно,

k2− 400

14, 14= 1, 28.

Тогдаk

2= 1, 28 · 14, 4 + 400⇒ k

2= 418, 1.

Таким образом. можно сделать вывод о том, что

в гардеробе должно быть примерно 419 мест.

4.4 Вероятность отклонения относительной частоты событияот постоянной вероятности в независимых испытаниях

Теорема 4.5. Если в схеме n независимых испытаний событие A на-

ступает в каждом из них с вероятностью p, где 0 < p < 1, аm

n−

относительная частота события A, то для любого заданного числа ε > 0

P

(∣∣∣∣mn − p∣∣∣∣ < ε

)∼= 2Φ

√n

pq

).

(Здесь, как и ранее, q = 1− p.)Д о к а з а т е л ь с т в о. Преобразуем неравенство∣∣∣m

n− p∣∣∣ < ε,

«подогнав» его под условия интегральной теоремы Лапласа (см. 4.4).Раскрывая модуль, получим двойное неравенство

−ε < m

n− p < ε,

Затем, умножим все части неравенства на n:

−εn < m− np < εn.

Далее, разделим все части неравенства на√npq:

− εn√npq

<m− np√npq

<εn√npq

.

Сократив числитель и знаменатель левой и правой дробей на√n:

1На самом деле Φ(1, 28) = 0, 3997, но различие в 0, 0003 незначительно, поэтому им можно прене-бречь.

68

Page 70: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

−ε√n

√pq

<m− np√npq

<ε√n

√npq

,

введем обозначения:

x1 = −ε√n

√pq

; x2 =ε√n

√pq

.

P

(−ε√n

√pq≤ m− np√npq

≤ ε√n

√pq

)= Φ

(ε√n

√pq

)− Φ

(−ε√n

√pq

)= 2Φ

√n

pq

).

Что и требовалось доказать.Задача 4.8. Вероятность появления события в каждом из независи-

мых испытаний равна 0,5. Сколько нужно провести испытаний n, чтобыс вероятностью γ = 0, 7698 можно было ожидать, что относительнаячастота появления события ε отклонится от его вероятности по абсо-лютной величине не более чем на 0,02.

Решение. Согласно условию задачи p = 0, 5, q = 0, 5. То есть, мы име-ем дело со схемой Бернулли (см. определение 4.1).

Согласно теореме 4.5

P(∣∣∣mn− p∣∣∣ < ε

)≈ 2Φ

√n

pq

).

По условию задачи ε = 0, 02, p = q = 0, 5, а 2Φ

√n

pq

)= 0, 7698.

То есть, Φ

(0, 02 ·

√n

0, 5 · 0, 5

)=

0, 7698

2⇒ Φ

(0, 02 ·

√n

0, 5

)= 0, 3849.

Согласно таблицам интегральной функции Лапласа (прил. 2)Φ(x) = 0, 3849, если x = 1, 2.

Таким образом,

0, 02 ·√n

0, 5= 1, 2⇒ 2

√n =

1, 2

0, 02

√n⇒ 2

√n = 60⇒

√n = 30⇒ n = 900.

Следовательно, для выполнения условий задачи нужно провести 900испытаний.

Задача 4.9. Вероятность выхода устройства из строя во времяпроведения эксперимента, целью которого является определение надеж-ности устройства в работе, равна 0,2. Было проверено 625 устройств.Чему равна вероятность, того, что абсолютная величина отклоненияотносительной частоты выхода из строя устройств от вероятностиp=0,2 не превысит 0,02?

Решение. По условию задачи n = 625, p = 0, 2, ε = 0, 02.Так как q = 1 − p, то q = 0, 8. Тогда аргумент интегральной функции

69

Page 71: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Лапласа в теореме 4.5

ε

√n

pq= 0, 02 ·

√625

0, 2 · 0, 8⇒ ε

√n

pq= 0, 02 · 25

0, 4⇒ ε

√n

pq= 1, 25.

Из таблиц интегральной функции Лапласа (прил. 2) следует, чтоΦ(1, 25) = 0, 3944.

Поэтому, искомая вероятностьP(∣∣∣ m

625− 0, 2

∣∣∣ < 0, 02)≈ 2 · 0, 3944⇒ P

(∣∣∣ m625− 0, 2

∣∣∣ < 0, 02)≈ 0, 7888.

В итоге имеем, что

вероятность, того, что абсолютная величина отклоне-ния относительной частоты выхода из строя устройствот вероятности p=0,2 не превысит 0,02 приблизитель-но равна 0,7888.

4.5 Наивероятнейшее число наступлений событияв схеме независимых испытаний

Пусть в схеме n независимых испытаний событие A наступает в каждомиз них с постоянной вероятностью p. Тогда имеет место следующее

Определение 4.4. Число k называется наивероятнейшим числомнаступления события A в схеме независимых испытаний, если веро-ятность того, что событие A наступит k раз, не меньше вероятностиостальных возможных исходов опыта.

Теорема 4.6. Пусть в схеме n независимых испытаний событие Aнаступает в каждом из них с вероятностью p. Тогда для наивероятней-шего числа k наступлений события A справедливо двойное неравенство:

np− q ≤ k ≤ np+ p (q = 1− p). (4.10)

Д о к а з а т е л ь с т в о. Предположим, что k − наивероятнейшеечисло в схеме Бернулли (см. определение 4.1) при общем числе испытанийn. Тогда, согласно определению 4.4, k удовлетворяет следующей системенеравенств:

Pn(k) ≥ Pn(k − 1),

Pn(k) ≥ Pn(k + 1).

Согласно формуле Бернулли (4.1) имеем

Pn(k) =n!

k!(n− k)!pkqn−k;

Pn(k − 1) =n!

(k − 1)!(n− k + 1)!pk−1qn−k+1;

70

Page 72: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Pn(k + 1) =n!

(k + 1)!(n− k − 1)!pk+1qn−k−1;

Подставляя данные представления в систему, получаемn!

k!(n− k)!pkqn−k ≥ n!

(k − 1)!(n− k + 1)!pk−1qn−k+1,

n!

k!(n− k)!pkqn−k ≥ n!

(k + 1)!(n− k − 1)!pk+1qn−k−1.

Сократив обе части первого неравенства системы наn!

(k − 1)!(n− k)!pk−1qn−k,

получимp

k≥ q

n− k + 1.

Далее, подставляя q = 1− p и домножая обе части неравенства наk(n− k + 1),

имеем(n− k + 1)p ≥ k(1− p)⇒ np− pk + p ≥ k − pk.

В результате, после приведения подобных получаем, чтоk ≤ np+ p.

Проделаем аналогичные действия со вторым неравенством системы.Для этого сократим обе части второго неравенства системы на

n!

k!(n− k − 1)!pkqn−k−1,

и получимq

n− k≥ p

k + 1.

Далее, домножая обе части неравенства на

(n− k)(k + 1),имеем

q(k + 1)p ≥ p(n− k)⇒ qk + pk ≥ pn− pk.Прибавляя к обеим частям неравенства pk и вычитая q, получим

qk + pk ≥ pn− q ⇒ (p+ q)k ≥ pn− q.Так как p+ q = 1, то в итоге имеем

k ≥ pn− q.Таким образом, действительно имеет место двойное неравенство

np− q ≤ k ≤ np+ p.

71

Page 73: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Задача 4.10. В результате каждого визита страхового агента до-говор заключается с вероятностью 0,1. Найти наивероятнейшее числозаключенных договоров после 25 визитов.

Решение. По условию задачи n = 25, p = 0, 1. Тогда q = 1 − 0, 1, тоесть, q = 0, 9.Согласно теореме 4.6 25 · 0, 1− 0, 9 ≤ k ≤ 25 · 0, 1 + 0, 1. После вычисленийимеем интервал 1, 6 ≤ k ≤ 2, 6. Так как искомое число является целым, тоим может быть только k = 2.

Следовательно,наивероятнейшее число заключенных договоров после25 визитов равно двум.

72

Page 74: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5 Дискретные случайные величины

Если не знаешь, как поступить,

Очень полезно кинуть монетку.

Иэн Бэнкс

5.1 Понятие случайной величины

Когда подбрасывается игральная кость, то появляются случайные числа1, 2, 3, 4, 5, 6. При этом определить, какое именно появится число, заранееневозможно.

Точно также невозможно определить, сколько человек зайдет в течениечаса в ближайший магазин, или сколько вызовов в течение этого часа по-ступит на городскую станцию скорой помощи1.

Но при всей случайности исходов, образующих полную группу этихопытов-наблюдений, с ними связана одна закономерность. Каждый из этихопытов определяет (одну или несколько) случайную величину, принимаю-щую числовые значения, связанные с исходами, каждому из которых соот-ветствует определенная вероятность.

Пусть Ω = ω − пространство элементарных событий некоторого опы-та, а X = x − конечное (или сравнимое с множеством натуральныхчисел2) числовое множество.

Определение 5.1. Функция, отображающая пространство Ω в мно-жество X, называется дискретной случайной величиной3.

Определенная таким образом дискретная случайная величина обозна-чается X = X(ω).

Рассмотрим несколько примеров:1. Опыт с подбрасыванием игральной кости. Пространство Ω определяютсобытия «выпало 1 очко», «выпали 2 очка», ..., «выпали 6 очков». Еслизадать множество X, состоящее из первых 6 чисел натурального ряда, томожно определить случайную величину X = X(ω) как «число очков, вы-

1Конечно, хотелось бы, чтобы их вообще не было, но об этом можно только мечтать.2Такое множество называется cчетным множеством, то есть множеством, каждому элементу ко-

торого можно единственным образом поставить во взаимно однозначное соответствие натуральноечисло.

3 Понятие случайной величины без введения термина впервые встречается в 1832 году в работеС. Д. Пуассона «О вероятности средних результатов наблюдений» как «некоторой вещи, способнойпринимать значения a1, a2, . . . an с соответствующими вероятностями» (см. Гнеденко Б. В. Из историинауки... С. 42).

Понятие случайной величины в современном смысле в 1909 году ввел К. Пирсон в своей работе«О новом методе определения корреляции» (On a New Method of Determining Correlation) (см. EarliestKnown Uses of Some of the Words of Mathematics (V) [Электронный ресурс] : URL : http://jeff560.tripod.com/v.html (дата обращения: 12.06.2016)).

73

Page 75: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

павших при однократном подбрасывании кости».2. Опыт с магазином. Событием ω является посещение магазина очереднымпокупателем. Каждому такому событию можно поставить в соответствиечисло покупателей, оказавшихся в магазине в данный час. Таким образом,случайная величина Y = Y (ω) − «число покупателей в магазине в течениечаса».3. Опыт с последовательным подбрасыванием n монет. Событиями явля-ются выпадение герба или решетки. Можно определить несколько случай-ных величин на множестве этих событий: случайная величина Z = Z(ω) −«число выпадений герба», случайная величина T = T (ω) − «число выпаде-ний решетки», случайная величина V = V (ω) − «число серий выпадениядвух гербов подряд».

Далее возникает вопрос о способах задания дискретной случайной ве-личины.

Если задавать случайную величину перечислением множества ее значе-ний, то может оказаться, что у разных случайных величин могут оказатьсяодинаковые множества значений. Например, при подбрасывании одной мо-неты множество значений случайной величины X − «число выпаденийгерба» состоит из двух чисел 0, 1. Точно также, при рождении одногоребенка в родильном доме случайная величина Y − «число родившихсямальчиков» тоже состоит из двух чисел 0, 1. Но эти случайные величиныотличаются друг от друга, так как событиям из областей их определениясоответствуют разные вероятности. В случае с монетой вероятность каждо-го события равна 0, 5, а, согласно статистике, вероятность рождения маль-чика 0, 515 (соответственно нерождения 0, 485).

Следовательно, для задания случайной величины недостаточно задатьтолько множество ее значений. Необходимо также определить вероятностисобытий, связанных с этими значениями.

5.2 Закон распределения дискретной случайной величины

5.2.1 Определение закона распределения дискретной случайной величины

Предположим, что X = X(ω) − дискретная случайная величина, един-ственными значениями которой являются числа

x1, x

2, . . . , x

n.

Так как каждое из этих значений является образом некоторого события:x

1= X(ω

1), x

2= X(ω

2), . . . , x

n= X(ω

n),

то вероятности P (ωi) определяют вероятности1 P (ω

i: X = x

i), которые

1То есть вероятности событий, заключающихся в том, что случайная величина X принимает зна-чение xi .

74

Page 76: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

для краткости обозначим черезpi= P (X = xi), (i = 1, n).

Поскольку для каждого ωiсуществует только одно значение x

i= X(ω

i),

то события X = x1, X = x

2, ..., X = xn образуют полную группу событий

опыта. Поэтому сумма вероятностей этих событий равна единице:

p1

+ p2

+ · · ·+ pn

= 1. (5.1)

Замечание 5.1. Если множество значений дискретной случайной ве-личины X сравнимо с множеством натуральных чисел, то есть являетсябесконечным множеством, то числовой ряд

∞∑n=1

pn

= p1

+ p2

+ · · ·+ pn

+ . . .

сходится, а его сумма равна единице.Определение 5.2. Отображение, при котором каждому возможно-

му значению дискретной случайной величины соответствует вероят-ность события, при котором случайная величина принимает это зна-чение, называется законом распределения дискретной случайнойвеличины.

Так как закон распределения является числовой функцией, то его можнозадать в виде таблицы, или графика, или аналитически с помощью неко-торой формулы. Рассмотрим первые два из этих способов.

5.2.2 Табличное задание закона распределения

При табличном задании значения случайной величины упорядочиваютпо возрастанию, записывая в первой строке таблицы, а соответствующиезначения вероятностей располагают во второй ее строке:

X x1x

2. . . x

n−1xn

p p1p

2. . . p

n−1pn

(5.2)

Критерием правильности составления закона распределения являетсяусловие (5.1).

Задача 5.1. Дан закон распределения дискретной случайной величиныδ

δ 2 5 8 11p 0,46 ? 0,11 0,14

Найдите неизвестную вероятность.Решение. Так как таблица представляет закон распределения дискрет-

ной случайной величины δ, то сумма вероятностей во второй строке должна

75

Page 77: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

быть равна единице.Пусть неизвестная вероятность равна p.

Тогда, 0, 46 + p+ 0, 11 + 0, 14 = 1.

Следовательно, p = 1− 0, 46− 0, 11− 0, 14⇒ p = 0, 29.

Задача 5.2. Делопроизводитель написал три письма и подписал триконверта. Затем, произвольным образом, разложил письма по конвер-там и отправил. Случайная величина X − число адресатов, получившихсвои письма. Составьте закон распределения X.

Решение. Разложить три письма по конвертам с адресами можно сле-дующим образом:

положить в один из конвертов первое письмо, и положить в один изоставшихся конвертов второе письмо и положить в один из оставших-ся после этих действий конвертов третье письмо1.

Так как положить первое письмо в конверт можно тремя способами иположить второе письмо (после того, как в один из конвертов положенопервое) можно только двумя способами и положить третье письмо (по-сле того, как в в двух конвертах уже лежат письма) можно только однимспособом, то общее число способов, согласно принципу произведения,n = 3 · 2 · 1!⇒ n = 6.

Случайная величина X может принимать четыре значения:1) X = 0, если ни один из адресатов не получил свое письмо.2) X = 1, если только один из адресатов получил свое письмо.3) X = 2, если только два адресата получили свои письма.4) X = 3, если все адресаты получили свои письма.

Рассмотрим каждое из этих событий отдельно:Первое из событий X = 0 может наступить в двух случаях:а) первый получит письмо, адресованное второму, второй − третьему, тре-тий − первому;б) первый получит письмо, адресованное третьему, второй − первому, тре-тий − второму.

Поэтому, p(X=0 =2

6⇒ p(X=0 =

1

3.

Второе из событий X = 1 может наступить в трех случаях:а) первый получит письмо, адресованное ему, второй − третьему, третий− второму;б) первый получит письмо, адресованное третьему, второй − свое, третий− первому;

1Другое решение заключается в том, чтобы увидеть, что это задача на перестановки из трехэлементов, а значит, n = 3!⇒ n = 6.

76

Page 78: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

в) первый получит письмо, адресованное второму, второй − первому, тре-тий − свое.Поэтому, p(X=1 =

3

6⇒ p(X=1 =

1

2.

Третье из событий X = 2 не наступит никогда,следовательно, p(X=2 = 0.

Так как четвертое событие X = 3 может наступить только в одном слу-

чае, то p(X=1 =1

6.

В силу того, что1

3+

1

2+ 0 +

1

6= 1, можно утверждать, что закон

распределения дискретной случайной величины X имеет следующий вид:

X 0 1 2 3

p1

3

1

20

1

6

Задача 5.3. В магазине имеется 10 автомобилей определенной мар-ки. Среди них 6 черного цвета, 3 серого и 1 белого. Представители фир-мы обратились в магазин с предложением о продаже им 3 автомобилейэтой марки, безразлично какого цвета. Случайная величина Y − числослучайно проданных автомобилей черного цвета. Составьте закон рас-пределения Y .

Решение. Общее число выбранных автомобилей три из десяти, приэтом при выборе порядок не имеет значения, поэтому выбор реализуется спомощью сочетаний:

n = C310 ⇒ n =

10!

3! · 7!⇒ n = 120.

Установим значения, которые может принимать дискретная случайнаявеличина Y :Число черных автомобилей среди купленных может быть Y = 0, илиY = 1, или Y = 2, или Y = 3.

Определим соответствующие события и их вероятности:1. Y = 0: A0 =куплены нуль черных автомобилей из 6 черных и

B0 =куплены три нечерных автомобиля из четырех нечерных.Найдем число благоприятных исходов, соответствующих Y = 0.

m(A0) = C06 ⇒ m(A0) = 1; m(B0) = C3

4 ⇒ m(B0) =4!

3! · 1!⇒ m(B0) = 4.

Согласно правилу произведения (см. теорему 1.2) число благоприятныхисходов

m(Y=0 = m(A0) ·m(B0),⇒ m(Y=0 = 1 · 4⇒ m(Y=0 = 4.Следовательно, вероятность

77

Page 79: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

p(Y=0 =4

120⇒ p(Y=0 =

1

30.

2. Y = 1: A1 =куплены один черный автомобиль из 6 черных иB1 =куплены два нечерных автомобиля из четырех нечерных.

Найдем число благоприятных исходов, соответствующих Y = 1.

m(A1) = C16 ⇒ m(A1) = 6; m(B1) = C2

4 ⇒ m(B1) =4!

2! · 2!⇒ m(B1) = 6.

Согласно правилу произведения (см. теорему 1.2) число благоприятныхисходов

m(Y=1 = m(A1) ·m(B1),⇒ m(Y=1 = 6 · 6⇒ m(Y=1 = 36.Следовательно, вероятность

p(Y=1 =36

120⇒ p(Y=1 =

3

10.

3. Y = 2: A2 =куплены два черных автомобиля из 6 черных иB2 =куплен один нечерный автомобиль из четырех нечерных.

Найдем число благоприятных исходов, соответствующих Y = 2.

m(A2) = C26 ⇒ m(A2) =

6!

2! · 4!⇒ m(A2) = 15;

m(B2) = C14 ⇒ m(B2) = 4.

Согласно правилу произведения (см. теорему 1.2) число благоприятныхисходов

m(Y=2 = m(A2) ·m(B2),⇒ m(Y=2 = 15 · 4⇒ m(Y=2 = 60.Следовательно, вероятность

p(Y=2 =60

120⇒ p(Y=2 =

1

2.

4. Y = 3: A3 =куплены три черных автомобиля из 6 черных иB3 =куплены нуль нечерных автомобилей из четырех нечерных.

Найдем число благоприятных исходов, соответствующих Y = 3.

m(A3) = C36 ⇒ m(A3) =

6!

3! · 3!⇒ m(A3) = 20;

m(B3) = C04 ⇒ m(B3) = 1.

Согласно правилу произведения (см. теорему 1.2) число благоприятныхисходов

m(Y=3 = m(A3) ·m(B3),⇒ m(Y=3 = 20 · 1⇒ m(Y=3 = 20.Следовательно, вероятность

p(Y=3 =20

120⇒ p(Y=3 =

1

6.

Так как1

30+

3

10+

1

2+

1

6= 1, то можно утверждать, что закон распре-

78

Page 80: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

деления дискретной случайной величины Y имеет следующий вид:

Y 0 1 2 3

p1

30

3

10

1

2

1

6

Задача 5.4. Экзаменатор задает студенту, прогулявшему весь се-местр, дополнительные вопросы. Вероятность того, что студент мо-жет ответить на заданный вопрос, равна 0, 8. Преподаватель прекра-щает экзамен, как только студент не отвечает на очередной вопрос.Случайная величина Z − число дополнительно заданных вопросов.1.Составьте закон распределения Z.2. Найдите наивероятнейшее число заданных студенту дополнительныхвопросов.

Решение. Теоретически, в случае студента-всезнайки и неутомимогопреподавателя, случайная величина Z может принимать бесконечное чис-ло целочисленных значений, начиная от единицы.

Попробуем установить вероятности первых событий, а затем, закон ихизменения:1. Z = 1: A1 =студент не ответил на первый вопрос.

p(Z=1) = 1− 0, 8⇒ p(Z=1) = 0, 2.2. Z = 2: A2 =студент ответил на первый вопрос и

B2 =не ответил на второй вопрос.Так как A2 и B2 − независимые события, то

p(Z = 2) = p(A2) · p(B2)⇒⇒ p(Z = 2) = 0, 8 · (1− 0, 8)⇒ p(Z = 2) = 0, 16.

3. Z = 3: A31 =студент ответил на первый вопрос иA32 =студент ответил на второй вопрос иB3 =не ответил на третий вопрос.

Так как A31, A32 и B3 − независимые события, тоp(Z = 3) = p(A31) · p(A32) · p(B3)⇒

⇒ p(Z = 3 = (0, 8)2 · (1− 0, 8)⇒ p(Z = 3) = 0, 128.

Можно догадаться, чтоp(Z = 4 = (0, 8)3 · (1− 0, 8)⇒ p(Z = 4 = 0, 1024.

Вероятности соответствующих событий, начиная со второго события,образуют бесконечно убывающую геометрическую прогрессию со знамена-телем q = 0, 8 и первым членом b1 = 0, 2.

Таким образом, событию Z = k соответствует вероятность0, 2 · (0, 8)k−1.

Согласно замечанию 5.1, множество значений дискретной случайной

79

Page 81: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

величины Z является счетным множеством, поэтому вероятности, соответ-ствующие этим значениям, являются членами бесконечного ряда. Так какони являются одновременно членами бесконечно убывающей геометриче-ской прогрессии, то этот ряд сходится.

Найдем по известной формуле S =b1

1− qсумму членов этого ряда

S =0, 2

1− 0, 8⇒ S = 1.

Так как S = 1, то можно утверждать, что закон распределения для дис-кретной случайной величины имеет вид

Y 1 2 3 . . . k . . .

p 0, 2 0, 16 0, 128 . . . 0, 2 · (0, 8)k−1 . . .

Видя перед глазами закон распределения, легко ответить на второйвопрос задачи.

Наивероятнейшее число заданных студенту дополнительных вопросовравно одному, так как именно этому событию соответствует наибольшаявероятность.

Замечание 5.2. С точки зрения теоретической механики закон рас-пределения дискретной случайной величины X можно рассматривать какрасположение на прямой системы материальных «точек» x1, x2, . . . , каж-дой из которых соответствует личная «масса» pi. При этом общая «масса»системы равна единице1.

5.2.3 Графическое задание закона распределения

x

p

x1 x2x3 xn−1 xn

p1

p2

p3

pn−1

pn

Рис. 5.1

График закона распреде-ления в декартовой системе ко-ординат, на горизонтальной осикоторой откладываются значе-ния x, а на вертикальной −вероятности, называется много-угольником распределения (рис.5.1).

Задача 5.5. В условиях задачи 5.1 постройте многоугольник распре-деления δ.

Решение. В системе координат x − p построим точки, взяв за их ко-ординаты соответствующие значения из полученного при решении задачи

1Здесь i пробегает конечное или бесконечное подмножество множества натуральных чисел, а под«точкой» xi понимается возможное значение случайной величины X.

80

Page 82: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5.1 закона распределения дискретной случайной величины δ. Построенныеточки соединим пунктирной линией (рис. 5.2).

x

p

2 5 8 11

0, 11

0, 14

0, 29

0, 46

Рис. 5.2

5.3 Функция распределения дискретной случайной величиныи ее свойства

5.3.1 Определение функции распределения дискретнойслучайной величины

Еще одной геометрической иллюстрацией дискретной случайной вели-чины является ее функция распределения1.

Определение 5.3. Функцией распределения случайной величи-ны X называется функция, которая в каждой точке x числовой прямойопределяет вероятность события, в котором случайная величина прини-мает значение, меньшее, чем x. То есть2,

F (x) = P (X < x). (5.3)

С точки зрения геометрии функция распределения определяет вероят-ность того, что случайная величина X в результате исхода попадет на ко-ординатную прямую левее x (рис. 5.3).

x0 X xРис. 5.3

Для дискретной случайной величиныX, значения которой x1, x

2, . . . , x

n,

функция распределения имеет вид3

F (x) =∑xk<x

P (X = xk) (5.4)

1Точное определение функции распределения случайной величины по предположению Б.В. Гне-денко принадлежит А. М. Ляпунову, который дал его в своей работе «Об одном предложении теориивероятностей» в 1900 году (см. Гнеденко Б. В. Из истории науки... С. 44).

2Под выражением P (X < x) следует понимать вероятность события ω, в котором случайная вели-чина принимает значение меньшее, чем x. Или в обозначениях: P (X < x) = P (ω : X < x).

3Неравенство xk< x означает, что суммирование относится ко всем значениям x

k, которые по своей

величине меньше x.

81

Page 83: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

или в развернутом виде

F (x) = P (X = x1) + P (X = x

2) + · · ·+ P (X = x

k), где x

k< x.

Построим график функции распределения F (x) случайной величиныX,заданной табличным законом распределения (5.2).

При x ≤ x1: F (x) = P (X < x) = 0.

При x1< x ≤ x

2: F (x) = P (X < x) = P (X = x

1) = p

1.

При x2< x ≤ x

3: F (x) = P (X < x) = P (X = x

1) +P (X = x

2) = p

1+ p

2.

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .При x

n−1< x ≤ x

n: F (x) = P (X < x) =

= P (X = x1) + P (X = x

2) + · · ·+ P (X = x

n−1) = p

1+ p

2+ · · ·+ p

n−1.

При x ≥ xn: F (x) = P (X < x) =

= P (X = x1) + P (X = x

2) + · · ·+ P (X = x

n−1) + P (X = x

n) =

= p1

+ p2

+ · · ·+ pn−1

+ pn.

Функция распределения имеет неустранимые разрывы первого рода сле-ва в тех точках, в которых дискретная случайная величина X принимаетвозможные значения, указанные в таблице (5.2) закона распределения.В интервалах между возможными значениями случайной величины функ-ция F (x) является постоянной. Сумма скачков функции распределенияравна единице. График функции распределения дискретной случайной ве-личины есть разрывная ступенчатая функция (рис. 5.4):

x

F (x)

x1 x2 x3xn−1 xn. . .

p1

1

p1 + p2

p1 + p2 + p3p1 + p2 + p3 + · · ·+ pn−1

0Рис. 5.4

Задача 5.6. В условиях задачи 5.1 постройте график функции распре-деления δ.

Решение. Используя алгоритм построения, имеем:При x ≤ 2: F (x) = P (δ < x) = 0.При 2 < x ≤ 5: F (x) = P (δ < x) = P (δ = 2) = 0, 46.При 5 < x ≤ 8: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) =

= 0, 46 + 0, 29 = 0, 75.При 8 < x ≤ 11: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) + P (δ = 8) =

= 0, 46 + 0, 29 + 0, 11 = 0, 86.При x ≥ 11: F (x) = P (δ < x) = P (δ = 2) + P (δ = 5) + P (δ = 8)+

82

Page 84: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

+P (δ = 11)⇒ F (x) = P (δ < x) = 1.

F (x) =

0, если x ≤ 2,0, 46, если 2 < x ≤ 5,0, 75, если 5 < x ≤ 8,0, 86, если 8 < x ≤ 11,1, если x > 11.

Далее, остается построить график F (x) (рис. 5.5):

x

F (x)

2 5 8 11

0, 46

0, 750, 86

1

0Рис. 5.5

Задача 5.7. На пути движения автомашины 4 светофора, каждый изкоторых запрещает дальнейшее движение автомашины с вероятностью0,5. Случайная величина H − число светофоров, пройденных машиной допервой остановки. Составьте закон распределения H и постройте гра-фик функции распределения H.

Решение. Рассмотрим события, связанные с условием задачи, и опре-делим их вероятности.1. H = 0: A0 =автомобиль попал под запрещающий сигнал на первом

светофоре.p(H = 0) = p(A0) = 0, 5.

2. H = 1: A1 =автомобиль проехал первый светофор без остановки иB1 =автомобиль попал под запрещающий сигнал на втором

светофоре.Так как A2 и B2 − независимые события, то

p(H = 1) = p(A1) · p(B1)⇒⇒ p(H = 1) = (1− 0, 5) · 0, 5⇒ p(H = 1) = 0, 25.

3. H = 2: A2 =автомобиль проехал первый и второй светофорыбез остановки и

B2 =автомобиль попал под запрещающий сигнална третьем светофоре.

Так как A2 и B2 − независимые события, тоp(H = 2) = p(A2) · p(B2)⇒

83

Page 85: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

⇒ p(H = 2 = (1− 0, 5)2 · 0, 5⇒ p(H = 2) = 0, 125.

4. H = 3: A3 =автомобиль проехал первый, второй и третий светофорыбез остановки и

B3 =автомобиль попал под запрещающий сигнал на четвертомсветофоре.

Так как A3 и B3 − независимые события, тоp(H = 3) = p(A3) · p(B3)⇒

⇒ p(H = 3 = (1− 0, 5)3 · 0, 5⇒ p(H = 3) = 0, 0625.

5. H = 4: A4 =автомобиль проехал все четыре светофора без остановки.p(H = 4) = p(A4)⇒

⇒ p(H = 4 = (1− 0, 5)4 ⇒ p(H = 4) = 0, 0625.

Так как 0, 5 + 0, 25 + 0, 125 + 0, 0625 + 0, 0625 = 1, то можно утвер-ждать, что закон распределения дискретной случайной величины H имеет

следующий вид:Y 0 1 2 3 4p 0, 5 0, 25 0, 125 0, 0625 0, 0625

.

Далее, используя алгоритм построения (см. стр. 79) и опыт решениязадачи 5.7, имеем:

При x ≤ 0: F (x) = P (H < x) = 0.При 0 < x ≤ 1: F (x) = P (H < x) = P (H = 0) = 0, 5.При 1 < x ≤ 2: F (x) = P (H < x) = P (H = 0) + P (H = 1) =

= 0, 5 + 0, 25 = 0, 75.При 2 < x ≤ 3: F (x) = P (H < x) = P (H = 0)+P (H = 1)+P (H = 2) =

= 0, 5 + 0, 25 + 0, 125 = 0, 875.При 3 < x ≤ 4: F (x) = P (H < x) = P (H = 0) + P (H = 1)+

+P (H = 2) + P (H = 3) =+0, 5 + 0, 25 + 0, 125 + 0, 0625 = 0, 9375.

При x ≥ 4: F (x) = P (H < x) = P (H = 0) + P (H = 1) + P (H = 2)++P (H = 3) + P (H = 4) = 1.

Собирая полученную информацию, имеем

F (x) =

0, если x ≤ 0,0, 5, если 0 < x ≤ 1,0, 75, если 1 < x ≤ 2,0, 875, если 2 < x ≤ 3,0, 9375, если 3 < x ≤ 4,1, если x > 4.

На основании расчетов строим график F (x) (рис. 5.6).

84

Page 86: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

x

F (x)

1 2 3 4

0, 5

0, 750, 8750, 9375

1

0Рис. 5.6

5.3.2 Свойства функции распределения

Из определения 5.3 и рис. 5.2 можно вывести следующие свойства функ-ции распределения:

Свойство 5.1. ∀x 0 ≤ F (x) ≤ 1.Это очевидно, так как F (x) определяется с помощью вероятности события.

Свойство 5.2. ∀x1, x

2: x

1< x

2⇒ F (x

1) ≤ F (x

1).

x0 X x1 x2

︷ ︸︸ ︷ ︷ ︸︸ ︷︸ ︷︷ ︸

Рис. 5.7

A B

C

Воспользуемся рис. 5.7. Пусть событие C = ω : X(ω) < x2. Предста-

вим его как сумму событийA = ω : X(ω) < x

1 и B = ω : x

1≤ X(ω) < x

2: C = A+B.

Так как A и B − несовместные события, то из теоремы 3.1 о сложениивероятностей несовместных событий следует, что P (C) = P (A) + P (B).

То есть P (X < x2) = P (X < x

1) + P (x

1≤ X < x

2). Следовательно,

F (x2) = F (x

1) + P (x

1≤ X < x

2).

Так как вероятность P (x1≤ X < x

2) ≥ 0 по определению, то

F (x1) ≤ F (x

2).

Свойство 5.3. limx→−∞

F (x) = 0.

Если на рис. 5.7 «заставить» точку x стремиться влево, то видно, чтособытие ω : X(ω) < x, состоящее в том, что случайная величина X

окажется левее, чем x, становится невозможным, а его вероятность − рав-ной нулю.

Свойство 5.4. limx→∞

F (x) = 1.

Точно также, перемещая точку x на рис. 5.7 вправо, можно убедиться,что событие ω : X(ω) < x в пределе становится достоверным. А значитего вероятность стремится к единице.

85

Page 87: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5.4 Числовые характеристики дискретной случайной величины

5.4.1 Математическое ожидание распределения дискретнойслучайной величины

Богу всегда середина любезна,

и меру чтит божество.

Эсхилл. Эвмениды

С точки зрения теории вероятности закон распределения полностьюописывает случайную величину. Но получение всей содержащейся в неминформации во-первых избыточно во многих случаях, а во-вторых требуетзатрат на получение этой информации.

Для практических целей нужно иметь гораздо меньше информации,чтобы получить представление о поведении изучаемой случайной величи-ны.

Если представлять множество значений случайной величины как не-который интервал, расположенный на числовой прямой, то нужно знать«центр» этого интервала, то есть места, где расположена основная «массавероятности». А также нужно знать «радиус» этого интервала, как «мерурассеивания» этой «массы вероятности» относительно «центра».

Пусть известен закон распределения дискретной случайной величиныX:

X x1x

2. . . x

n−1xn

p p1p

2. . . p

n−1pn

Определение 5.4. Математическим ожиданием1 дискретной1Термин математическое ожидание впервые был определен автором первого (и до начала XVIII

столетия единственного) руководства по теории вероятностей Х. Гюйгенсом в 1657 году в его работе«О расчетах в азартной игре» (De ratiociniis in aleae ludo) (см. История математики с древнейших...С. 89-90). В дальнейшем, после работ Д. Бернулли этот термин был забыт, а в рассмотрение былвведен предложенный в 1760 году Д. Бернулли термин моральное ожидание (см. Майстров Л. И.Цит. соч. С. 136). Но далее П. Лаплас в своей работе «Опыт философии теории вероятностей»(Essai philosophique sur les probabilites) 1814 года вернулся к определению Гюйгенса и определилматематическое ожидание как выгоду того, кто ожидает блага, равную произведению ожидаемойсуммы на вероятность ее получения. (см. Вероятность и математическая статистика : Энциклопедия/ Гл. ред. Ю. В. Прохоров. − М. : Большая Российская энциклопедия, 1999. С. 837).

Гюйгенс Христиан ван Зейлихем (нидерл. Huygens Christiaan, 1629-1695) − нидерландский меха-ник, физик, математик, астроном и изобретатель. Один из основоположников теоретической механикии теории вероятностей. Внес значительный вклад в оптику, молекулярную физику, астрономию,геометрию, часовое дело. Открыл кольца Сатурна и Титан (спутник Сатурна). Первый иностранныйчлен Лондонского королевского общества (1663), член Французской академии наук с момента ееоснования (1666) и ее первый президент (1666-1681). (см. Википедия [Электронный ресурс] : URL: https://ru.wikipedia.org/wiki/\T2A\CYRG\T2A\cyryu\T2A\cyrishrt\T2A\cyrg\T2A\cyre\T2A\cyrn\T2A\cyrs,_\T2A\CYRH\T2A\cyrr\T2A\cyri\T2A\cyrs\T2A\cyrt\T2A\cyri\T2A\cyra\T2A\cyrn(дата обращения: 12.06.2016)).

Бернулли Даниил (Bernoulli Daniel, 1700-1782) − cын Иоганна Бернулли, швейцар-ский физик-универсал, механик и математик, один из создателей кинетической теории га-зов, гидродинамики и математической физики. Академик и иностранный почётный членПетербургской академии наук, член Болонской, Берлинской и Парижской Академий наук,

86

Page 88: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

случайной величины X называется скалярное произведение векторазначений случайной величины на вектор соответствующих им вероят-ностей.

То есть

M(X) = x1p

1+ x

2p

2+ · · ·+ x

n−1pn−1

+ xnpn. (5.5)

Или в сжатом виде:

M(X) =n∑i=1

xipi.

Замечание 5.3. Заметим, что являясь характеристикой случайной ве-личины, само математическое ожидание случайной величиной не является.

Задача 5.8. В условиях задачи 5.1 найдите математическое ожида-ние δ.

Решение. Согласно формуле 5.5,M(X) = 2 · 0, 46 + 5 · 0, 29 + 8 · 0, 11 + 11 · 0, 14.

Выполнив вычисления, получаем M(X) = 4, 79.

Задача 5.9. В магазине продаются 5 отечественных и 3 импортныххолодильника. Случайная величина P − число импортных холодильниковиз четырех наудачу выбранных холодильников.1. Составьте закон распределения случайной величины P .2. Вычислите математическое ожидание случайной величины P .

Решение. Рассмотрим события, связанные с условием задачи.Найдем общее число вариантов выбора 4-х холодильников из имеющих-

ся 8. Так как мы не делаем между холодильниками различий, то выборреализуется с помощью сочетаний:

n = C48 ⇒ n =

8!

4! · 4!⇒ n = 70.

Далее, рассмотрим благоприятные варианты выбора и вычислим соот-ветствующие вероятности событий.1. P = 0: A0 =выбрали 0 импортных холодильников из 3 импортных и

B0 =выбрали 4 отечественных холодильника из 5 отечествен-ных.

Так как события A0 и B0 являются независимыми, то согласно правилупроизведения (см. теорему 1.2)

m(P = 0) = m(A0) ·m(B0).член Лондонского королевского общества. (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyre\T2A\cyrr\T2A\cyrn\T2A\cyru\T2A\cyrl\T2A\cyrl\T2A\cyri,_\T2A\CYRD\T2A\cyra\T2A\cyrn\T2A\cyri\T2A\cyri\T2A\cyrl (дата обращения:12.06.2016)).

87

Page 89: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

m(A0) = C03 ⇒ m(A0) = 1;

m(B0) = C45 ⇒ m(B0) = 5.

Следовательно, m(P = 0) = 1 · 5⇒ m(P = 0) = 5.В итоге, из классического определения вероятности (см. определение

2.8) следует, что

p(P = 0) =m(P = 0)

n⇒ p(P = 0) =

5

70⇒ p(P = 0) =

1

14.

2. P = 1: A1 =выбрали 1 импортный холодильник из 3 импортных иB1 =выбрали 3 отечественных холодильника из 5 отечествен-

ных.Точно также, как и в пункте 1, определим p(P = 1).

m(P = 1) = m(A1) ·m(B1).m(A1) = C1

3 ⇒ m(A1) = 3;

m(B1) = C35 ⇒ m(B1) = 10.

Следовательно, m(P = 1) = 3 · 10⇒ m(P = 1) = 30.В итоге, из классического определения вероятности (см. определение

2.8) получаем

p(P = 1) =m(P = 1)

n⇒ p(P = 1) =

30

70⇒ p(P = 1) =

3

7.

3. P = 2: A2 =выбрали 2 импортных холодильника из 3 импортных иB2 =выбрали 2 отечественных холодильника из 5 отечествен-

ных.Также, как и в первых пунктах, определим p(P = 2).

m(P = 2) = m(A2) ·m(B2).m(A2) = C2

3 ⇒ m(A2) = 3;

m(B2) = C25 ⇒ m(B2) = 10.

Следовательно, m(P = 2) = 3 · 10⇒ m(P = 2) = 30.В итоге, имеем

p(P = 2) =m(P = 2)

n⇒ p(P = 2) =

30

70⇒ p(P = 2) =

3

7.

4. P = 3: A3 =выбрали 3 импортных холодильника из 3 импортных иB3 =выбрали 1 отечественный холодильник из 5 отечествен-

ных.Аналогично пунктам 1-3, определим p(P = 3).

m(P = 3) = m(A3) ·m(B3).

88

Page 90: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

m(A3) = C33 ⇒ m(A3) = 1;

m(B3) = C15 ⇒ m(B3) = 5.

Следовательно, m(P = 3) = 1 · 5⇒ m(P = 3) = 5.В итоге, имеем

p(P = 3) =m(P = 3)

n⇒ p(P = 3) =

5

70⇒ p(P = 3) =

1

14.

Так как1

14+

3

7+

3

7+

1

14= 1, то можно утверждать, что закон распре-

деления дискретной случайной величины P имеет следующий вид:

P 0 1 2 3

p1

14

3

7

3

7

1

14.

Используя формулу (5.5), вычислим математическое ожидание дискрет-ной случайной величины P :

M(P ) = 0 · 1

14+ 1 · 3

7+ 2 · 3

7+ 3 · 1

14= 1 · 1

2⇒M(P ) = 1, 5.

Задача 5.10. Из опыта сдачи экзамена некоторому преподавателюпредыдущими поколениями студентов установлено, что сдать ему эк-замен на «отлично» можно с вероятностью 0, 3, на «хорошо» − с ве-роятностью 0, 4. Какова вероятность получить у этого преподавателядругие оценки, если математическое ожидание случайной величины S,связанной с распределением оценок у данного преподавателя при случай-но выбранном билете, равно 3, 9.

Решение. Согласно Положению о высшей школе, S может приниматьзначения из множества 2, 3, 4, 5.

Допустим, что x и y − вероятности того, что сдающий может соответ-ственно получить оценки «неудовлетворительно» и «удовлетворительно».

Составим предполагаемый закон распределения дискретной случайнойвеличины S:

S 2 3 4 5p x y 0, 4 0, 3 .

Согласно условию (5.1), сумма вероятностей должна быть равна едини-це, поэтому

x+ y + 0, 4 + 0, 3 = 1.Кроме этого, согласно условию и формуле 5.5, имеем

2x+ 3y + 4 · 0, 4 + 5 · 0, 3 = 3, 9.

89

Page 91: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Приведя подобные члены в каждом из уравнений, составим системуx+ y = 0, 3,

2x+ 3y = 0, 8.

Решив систему, получим x = 0, 1, а y = 0, 2.Следовательно, у данного преподавателя можно получить

«удовлетворительно» с вероятностью 0,2 и «неудовлетво-рительно» с вероятностью 0,1.

Замечание 5.4. В том случае, когда дискретная случайная величи-на X принимает бесконечное множество значений (см. замечание 5.1), еематематическое ожидание является суммой абсолютно сходящегося ряда:

M(X) =∞∑i=1

xipi.

5.4.2 Вероятностный смысл математического ожидания

Предположим, что опыт состоит из n исходов, в которых дискретнаяслучайная величина X приняла k

1раз значение x

1, k

2раз значение x

2, . . . ,

ks раз значение xs. При этомk

1+ k

2+ · · ·+ ks = n.

Тогда сумма всех значений, принятых случайной величиной X равна:S = k

1x

1+ k

2x

2+ · · ·+ ksxs.

Определим среднее арифметическое X всех значений, принятых случайнойвеличиной. С этой целью разделим S на число исходов опыта n:

X =k

1x

1+ k

2x

2+ · · ·+ ksxsn

,

илиX = x

1

k1

n+ x

2

k2

n+ · · ·+ xs

ksn. (5.6)

Так какk

1

n− относительная частота W

1значения x

1(см. 2.4),

k2

n−

относительная частотаW2значения x

2и так далее, то перепишем представ-

ление (5.6) в виде

X = x1W

1+ x

2W

2+ · · ·+ xsWs. (5.7)

Будем считать, что число исходов опыта n → ∞. Тогда, как следуетиз замечания (после определения 5.4) относительная частота стремится квероятности появления события.

То есть W1≈ p

1, W

2≈ p

2, . . . ,Ws ≈ ps.

90

Page 92: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Заменим в представлении (5.7) относительные частоты соответствую-щими вероятностями:

X ≈ x1p

1+ x

2p

2+ · · ·+ xsps.

Правая часть полученного приближенного равенства является математи-ческим ожиданием случайной величины X.

Таким образом, X ≈M(X).Следовательно, с точки зрения теории вероятности математическое ожи-дание приблизительно1 равно среднему арифметическому возможных зна-чений дискретной случайной величины.

Замечание 5.5. О механическом смысле математического ожи-дания дискретной случайной величины. С точки зрения теоретиче-ской механики математическое ожидание дискретной случайной вели-чины определяет центр «масс» системы материальных точек, располо-женных на прямой, общая «масса» которых равна единице. При этом«масса» каждой «точки» xi равна вероятности pi, соответствующейэтой «точке»2.

5.4.3 Понятие индикатора события

При решении некоторых задач теории вероятности возникает необходи-мость выразить вероятность события с помощью математического ожида-ния. С этой целью вводится следующее

Определение 5.5. Индикатором события A называется случай-ная величина I

A, равная единице, если в результате опыта событие A

произошло, и нулю − если событие A не произошло.

IA

=

1, если A произошло,0, если A не произошло. (5.8)

Если вероятность наступления события A равна p, то закон распреде-ления случайной величины I

Aимеет вид:

IA

0 1P 1− p p

.

так как математическое ожидание индикатора событияM(I

A) = 0 · (1− p) + 1 · p,

то индикатор события позволяет записать вероятность события A с помо-щью своего математического ожидания

P (A) = M(IA).

1Чем большим является число исходов опыта n, тем более точным является данное равенство.2Здесь i пробегает конечное или бесконечное подмножество множества натуральных чисел, а под

«точкой» xi понимается возможное значение случайной величины X.

91

Page 93: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5.4.4 Свойства математического ожидания

Свойство 5.5. Математическое ожидание постоянной величиныравно самой постоянной величине:

M(C) = C.Рассмотрим постоянную величину C как дискретную случайную вели-

чину, которая принимает только одно значение C с вероятностью 1. ТогдаM(C) = C · 1⇒M(C) = C.

Так как дискретную случайную величину можно рассматривать как n-мерный вектор, то можно ввести следующее

Определение 5.6. Произведением постоянной C на дискрет-ную случайную величину X называется случайная величина CX, воз-можные значения которой равны произведениям соответствующих воз-можных значений X на данную постоянную с вероятностями, а соот-ветствующие вероятности совпадают.

Свойство 5.6. Постоянный множитель можно выносить за знакматематического ожидания:

M(CX) = CM(X).Предположим, что случайная величина X имеет следующий закон рас-

пределения:

X x1 x2 . . . xnp p1 p2 . . . pn

Согласно определению 5.6 составим закон распределения случайной ве-личины CX:

CX Cx1 Cx2 . . . Cxnp p1 p2 . . . pn

Используя определение 5.4, найдем скалярное произведение векторов,координатами которых являются возможные значения CX и соответству-ющие вероятностиCx1p1 + Cx2p2 + · · ·+ Cxnpn = C(x1p1 + x2p2 + · · ·+ xnpn) = CM(X)⇒

⇒M(CX) = CM(X).Свойство 5.7. Математическое ожидание суммы двух случайных ве-

личин равно сумме их математических ожиданий:M(X + Y ) = M(X) +M(Y ).

Предположим, что случайные величины X и Y имеют следующие зако-ны распределения1:

1Для краткости, которая не вредит пониманию, каждая из случайных величин принимает толькодва значения. В общем случае доказательство проводится аналогично.

92

Page 94: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

X x1 x2

p p1 p2

Y y1 y2

p q1 q2

Составим с помощью этих законов закон распределения случайной вели-чины X + Y , принимающей значения

X + Y x1 + y1 x1 + y2 x2 + y1 x2 + y2

Обозначив соответствующие вероятности через p11, p12, p21 и p22, полу-чим следующий закон распределения:

X + Y x1 + y1 x1 + y2 x2 + y1 x2 + y2

p p11 p12 p21 p22

Используя определение 5.4, найдем математическое ожиданиеM(X + Y ) = (x1 + y1)p11 + (x1 + y2)p12 + (x2 + y1)p21 + (x2 + y2)p22.

Раскрыв скобки в правой части полученного равенства и сгруппировав со-ответствующие вероятности, получимM(X + Y ) = x1(p11 + p12) + x2(p21 + p22) + y1(p21 + p22) + y2(p12 + p22).Событие X = x1 порождает несовместные события X + Y = x1 + y1

и X + Y = x1 + y2. Сумма вероятностей этих событий равна вероятностинаступления события X = x1, то есть

p11 + p12 = p1.Аналогично

p21 + p22 = p2; p11 + p21 = q1; p12 + p22 = q2.Заменив скобки в последнем представлении M(X + Y ), имеем

M(X + Y ) = x1p1 + x2p2 + y1p21 + y2p2 ⇒M(X + Y ) = M(X) +M(Y ).Чтобы сформулировать следующее свойство, понадобится следующееОпределение 5.7. Две случайные величины называются независи-

мыми, если закон распределения одной из них не зависит от того, какиевозможные значения может принимать другая величина.

Свойство 5.8. Математическое ожидание произведения двух незави-симых случайных величин равно произведению их математических ожи-даний1:

M(XY ) = M(X) ·M(Y ).Замечание 5.6. Естественно, можно доказать, что свойства 5.7 и 5.8

имеют место для любого конечного числа случайных величин2:

M(X1

+X2

+ · · ·+Xn) = M(X

1) +M(X

2) + · · ·+M(X

n). (5.9)

1Доказательство этого свойства будет приведено в главе, связанной с изучением систем дискретныхвеличин.

2С учетом взаимной независимости величин в случае их произведения.

93

Page 95: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

M(X1X

2. . . X

n) = M(X

1) ·M(X

2) . . .M(X

n). (5.10)

Замечание 5.7. Следует заметить, что хотя математическое ожиданиеи является важнейшей характеристикой положения дискретной случайнойвеличины, в практических целях иногда используют другие числовые ха-рактеристики. Одной из таких характеристик положения является

5.4.5 Мода дискретной случайной величины

Определение 5.8. Модой1 дискретной случайной величины назы-вается ее наиболее вероятное значение. Обозначается мода следующимобразом: Mo(X).

Формально определение моды можно представить

Mo(X) = xi : P (X = xi) ≥ P (X = xn)∀n 6= i, n ∈ N. (5.11)

Из определения (5.8) вытекает классификация распределений дискретнойслучайной величины.

Определение 5.9. Распределение дискретной случайной величины на-зывается унимодальным, если наиболее вероятное значение дискрет-ной величины является единственным. То есть

Mo(X) = xi : P (X = xi) > P (X = xn)∀n 6= i, n ∈ N.Например, заданное следующим образом распределение

X −2 −0.5 1 2 3.5 5

p 0, 05 0, 1 0, 25 0, 4 0, 15 0, 05

является унимодальным, так как самая большая вероятность соответству-ет единственному возможному значению X = 2. При этом Mo(X) = 2.

Многоугольник распределения для данного унимодального распределе-ния показан на рис. 5.8.

Определение 5.10. Распределение дискретной случайной величиныназывается полимодальным, если наиболее вероятное значение дискрет-ной величины не является единственным.

1Понятие моды ввел в 1895 году английский статистик К. Пирсон (cм. Википедия [Электронныйресурс] : URL : https://en.wikipedia.org/wiki/Mode_(statistics) (дата обращения: 12.06.2016)).

Пирсон Карл (Чарльз) (англ. Karl (Carl) Pearson, 1857-1936) − английский математик, статистик,биолог и философ; основатель математической статистики, один из основоположников биометрии.Автор свыше 650 опубликованных научных работ. (см. URL:https://ru.wikipedia.org/wiki/\T2A\CYRP\T2A\cyri\T2A\cyrr\T2A\cyrs\T2A\cyro\T2A\cyrn,_\T2A\CYRK\T2A\cyra\T2A\cyrr\T2A\cyrl).

94

Page 96: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

x

p

0−2 −0.5 1 2 3.5 5

Рис. 5.8

0, 05

0, 1

0, 15

0, 25

0, 4

Конкретным примером полимодального распределения является следу-ющее распределение

X −2.5 −1 1 2 3.5 5

p 0, 05 0, 3 0, 15 0, 3 0, 15 0, 05

Здесь самые большие вероятности соответствуют двум возможным значе-ниям X = −1 и X = 2. Поэтому существуют два1 значения моды

Mo(X) = −1 и Mo(X) = 2.Многоугольник распределения для данного полимодального распреде-

ления выглядит так (рис. 5.9):

x

p

0−2, 5 −1 1 2 3.5 5

Рис. 5.9

0, 05

0, 1

0, 15

0, 3

Третим примером в классификации является распределение в отноше-нии модальности противоположное рассмотренным.

Определение 5.11. Распределение дискретной случайной величиныназывается антимодальным, если оно имеет наименьшее вероятноезначение. То есть

minX = xi : P (X = xi) ≤ P (X = xn)∀n 6= i, n ∈ N.В качестве примера рассмотрим следующее распределение

X −2 −0.5 1 2 3.5 5

p 0, 3 0, 1 0, 05 0, 1 0, 2 0, 25

1Если сказать точнее, то такое распределение называется бимодальным распределением.

95

Page 97: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Примером многоугольника антимодального распределения может слу-жить рис. 5.10.

x

p

0−2 −0.5 1 2 3.5 5

Рис. 5.10

0, 05

0, 1

0, 2

0, 25

0, 3

Замечание 5.8. Так как мода является возможным числом, котороевстречается чаще всего в задании распределения, то на практике мода хо-рошо описывает типичные ситуации. Например, реакцию учеников классав ответ на объявление о том, что «заболел учитель, ведущий следующийурок, а потому уроки отменяются»1.

5.4.6 Дисперсия дискретной случайной величины

Математическое ожидание как характеристика случайной величины да-ет много информации о ней, но, как видно из следующих примеров, этойинформации оказывается недостаточно.

Рассмотрим законы распределения двух случайных величин:

X −0, 1 0, 1

p 0, 5 0, 5

Y −100 100

p 0, 5 0, 5

Найдем математические ожидания каждой из случайных величин:M(X) = −0, 1 · 0, 5 + 0, 1 · 0, 5⇒M(X) = 0.M(Y ) = −100 · 0, 5 + 100 · 0, 5⇒M(Y ) = 0.

Случайные величины X и Y имеют одинаковые математические ожида-ния, но их возможные значения не равны. При этом, в одном случае воз-можные значения располагаются вблизи математического ожидания, ав другом случае удалены от него.

Проблема заключается в отсутствии информации о рассеивании возмож-ных значений случайных величин относительно математического ожида-ния.

Чтобы исследовать вопрос о рассеивании, рассмотрим отклонение слу-чайной величины от ее математического ожидания.

Определение 5.12. Отклонением называется разность между слу-чайной величиной X и ее математическим ожиданием M(X).

1Следует признать, что эта реакция отнюдь не является реакцией печали.

96

Page 98: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Из определения следует, что отклонение X−M(X) является случайнойвеличиной, обладающей следующим свойством.

Теорема 5.1. Математическое ожидание отклонения случайной ве-личины от ее математического ожидания равно нулю:

M(X −M(X)) = 0.Используя свойства 5.5 и 5.8 математического ожидания, имеем

M(X −M(X)) = M(X)−M(M(X)) = M(X)−M(X) = 0.

Из данной теоремы вытекает, что определять рассеивание возможныхзначений случайной величины с помощью математического ожидания от-клонения невозможно. Объяснить это можно тем, что одни отклонения яв-ляются положительными числами, а другие − отрицательными. Поэтомуих алгебраическая сумма обращается в нуль.

Вследствие этого возникают два варианта: исследовать математическоеожидание модуля отклонения1 или квадрата отклонения. Практическоеприменение получил второй вариант.

Определение 5.13. Дисперсией2 дискретной случайной вели-чины называется математическое ожидание квадрата отклонения слу-чайной величины от ее математического ожидания:

D(X) = M(X −M(X))2. (5.12)

Замечание 5.9. Из определения следует, что дисперсия случайнойвеличины является неотрицательной константой.

При расчетах дисперсии ее определение оказывается очень неудобнымв силу большого числа вычислений. Поэтому рассмотрим следующую тео-рему.

Теорема 5.2. Формула вычисления дисперсии Дисперсия равна1Так как модуль не является всюду дифференцируемой функцией, то при его исследовании возни-

кает много проблем2Термин дисперсия происходит от лат. dispersio рассеяние (от глагола dispergere − рассыпать,

рассеивать, разбрасывать.В 1895 году термин дисперсия определил К. Пирсон (см. Секей, Г. Парадоксы в теории веро-

ятностей и математической статистике. Москва-Ижевск : Институт компьютерных исследований,2003. С. 32). Вслед за К. Пирсоном его в 1918 году использовал в своей статье «Корреляция междуродственниками в пpедположении менделевской наследственности» (The Correlation Between Relativeson the Supposition of Mendelian Inheritance) Р. Э. Фишер (см. Earliest Known Uses of Some of theWords of Mathematics (V) [Электронный ресурс] : URL : http://jeff560.tripod.com/v.html (датаобращения: 12.06.2016)).

Сэр Фишер Рональд Эйлмер (англ. Sir Fisher Ronald Aylmer, 1890-1962) − английский стати-стик, биолог-эволюционист и генетик, основоположник современной прикладной математическойстатистики (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRF\T2A\cyri\T2A\cyrsh\T2A\cyre\T2A\cyrr,_\T2A\CYRR\T2A\cyro\T2A\cyrn\T2A\cyra\T2A\cyrl\T2A\cyrsftsn\T2A\cyrd_\T2A\CYREREV\T2A\cyrishrt\T2A\cyrl\T2A\cyrm\T2A\cyre\T2A\cyrr (датаобращения: 12.06.2016)).

97

Page 99: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

разности между математическим ожиданием квадрата случайной ве-личины и квадратом ее математического ожидания:

D(X) = M(X2)− (M(X))2. (5.13)

Д о к а з а т е л ь с т в о. Используя свойства 5.5 и 5.8 математи-ческого ожидания, получаем

M(X −M(X))2 = M(X2)− 2X ·M(X) + (M(X)2) =

= M(X2)− 2M(X)M(X) + (M(X)2 =

= M(X2)− 2(M(X))2 + (M(X))2 = M

(X2)− (M(X))2.

Задача 5.11. В условиях задачи 5.1 найдите дисперсию δ.Решение. Для того, чтобы вычислить дисперсию дискретной случай-

ной величины δ с помощью формулы 5.13, дополним таблицу ее законараспределения строчкой квадратов ее значений:

δ2 4 25 64 121δ 2 5 8 11p 0,46 0,29 0,11 0,14

ВычислимM(δ2) = 4 · 0, 46 + 25 · 0, 29 + 64 · 0, 11 + 121 · 0, 14⇒M(δ2) = 23, 07.

Далее, возведем в квадрат найденное при решении задачи 5.8 значениематематического ожидания δ:

(M(δ))2 = (4, 79)2 ⇒ (M(δ))2 = 22, 94.Вычитая его из M(δ2):

23, 07− 22, 94 = 0, 13,получаем значение дисперсии δ:

D(δ) = 0, 13.

Задача 5.12. В условиях задачи 5.8 найдите дисперсию P .Решение. Аналогично решению задачи 5.11 дополним таблицу значе-

ний закона распределения случайной величины P строкой из квадратов еезначений:

P 2 0 1 4 9P 0 1 2 3

p1

14

3

7

3

7

1

14

.

ВычислимM(P 2) = 0 · 1

14+ 1 · 3

7+ 4 · 3

7+ 9 · 1

14⇒M(P 2) = 2

11

14.

98

Page 100: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Зная из решения задачи 5.8 значение M(P ) = 1, 5, найдем его квадрат:

(M(P ))2 = (1, 5)2 ⇒ (M(P ))2 = 2, 25.

Вычитая найденное значение из M(P 2):

211

14− 2

1

4=

15

28,

получаем значение дисперсии P :D(P ) ≈ 0, 54.

Задача 5.13. Известно, что некоторая случайная величина можетпринимать значения 0, 3 и 5. Известно, что математическое ожиданиеравно 2, а дисперсия − 3. Найдите закон распределения случайной вели-чины.

Решение. Предположим, что события, соответствующие указаннымзначениям, наступают соответственно с вероятностями p1, p2 и p3.

Тогда таблица закона распределения данной случайной величины вместес дополнительной строкой квадратов ее значений будет иметь следующийвид:

P 2 0 9 25P 0 3 5p p1 p2 p3

.

Согласно условию (5.1), для вероятностей имеет место равенство:p1 + p2 + p3 = 1.

Из условия задачи и формулы (5.5) для математического ожидания даннойслучайной величины можно составить следующее равенство:

0 · p1 + 3 · p2 + 5 · p3 = 2.Зная дисперсию случайной величины, с помощью формулы (5.13) можнополучить еще одно равенство:

0 · p1 + 9 · p2 + 25 · p3 − 22 = 3.Приведя подобные, составим следующую систему уравнений:

p1 + p2 + p3 = 13p2 + 5p3 = 29p2 + 25p3 = 7.

Решив систему, находимp1 = 0, 4; p2 = 0, 5; p3 = 0, 1.

Следовательно, закон распределения данной случайной величины имееттакой вид:

P 0 3 5p 0, 4 0, 5 0, 1

.

99

Page 101: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5.4.7 Свойства дисперсии

Свойство 5.9. Дисперсия постоянной величины C равна нулю:D(C) = 0.

Подставляя X = C в определение дисперсии 5.13, имеемD(C) = M(C −M(C))2.

Поскольку математическое ожидание постоянной равно самой постоянной(см. свойство 5.5), то, преобразуя правую часть полученного равенства,имеем

M(C −M(C))2 = M(C − C)2 = M(0) = 0⇒M(D) = 0.

Свойство 5.10. Постоянный множитель можно выносить за знакдисперсии, предварительно возведя его в квадрат:

D(CX) = C2D(X).Подставляя в определение дисперсии 5.13 вместо X случайную величи-

ну CX, получаемD(CX) = M(CX −M(CX))2.

Так как постоянный множитель можно выносить из-под знака математи-ческого ожидания, то преобразуем правую часть представления D(CX):M(CX − CM(X))2 = M(C2(X −M(X))2) = C2M(X −M(X))2 ⇒

⇒ D(CX) = C2D(X).Свойство 5.11. Дисперсия суммы двух независимых случайных вели-

чин равна сумме дисперсий этих величин:D(X + Y ) = D(X) +D(Y ).

Подставим в формулу вычисления дисперсии (5.13) вместо X случай-ную величину X + Y :

D(X + Y ) = M((X + Y )2

)− (M(X + Y ))2.

Далее, опираясь на свойства математического ожидания 5.7-5.8, преобра-зуем правую часть полученного равенства.M((X + Y )2

)−(M(X+Y ))2 = M(X2 +2XY +Y 2)−(M(X)+M(Y ))2 =

= M(X2)+2M(X)·M(Y )+M(Y 2)−(M(X))2−2M(X)·M(Y )−(M(Y ))2 == (M(X2)− (M(X))2)+(M(Y 2)− (M(Y ))2)⇒ D(X+Y ) = D(X)+D(Y ).

Свойство 5.12. Дисперсия разности двух независимых случайных ве-личин равна сумме дисперсий этих величин:

D(X − Y ) = D(X) +D(Y ).Так как X − Y = X + (−1) · Y , то

D(X − Y ) = D(X + (−1) · Y ).Далее с помощью свойств 5.11-5.12 имеем

D(X + (−1) · Y ) = D(X) +D((−1) · Y ) = D(X) + (−1)2D(Y ) =

100

Page 102: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

= D(X) +D(Y )⇒ D(X − Y ) = D(X) +D(Y ).Замечание 5.10. Заметим, что свойство 5.11 имеет место для любого

конечного числа взаимно независимых случайных величин:

D(X1

+X2

+ · · ·+Xn) = D(X

1) +D(X

2) + · · ·+D(X

n). (5.14)

Замечание 5.11. О механическом смысле дисперсии дискрет-ной случайной величины. С точки зрения теоретической механики дис-персия дискретной случайной величины определяет момент инерции от-носительно центра «масс» системы материальных точек, расположен-ных на прямой, общая «масса» которых равна единице. При этом «мас-са» каждой «точки» xi равна вероятности pi, соответствующей этой«точке»1. Иными словами, дисперсия характеризует степень разбросанно-сти «точек» системы относительно центра «масс».

5.4.8 Среднее квадратическое отклонение

Так как дисперсия определяет квадрат отклонения случайной величиныот ее среднего значения, то кроме нее вводят еще одну характеристику.

Определение 5.14. Средним квадратическим отклонением случай-ной величины X называется квадратный корень из ее дисперсии:

(X) =√D(X). (5.15)

Задача 5.14. В условиях задачи 5.1 найдите среднее квадратическоеотклонение δ.

Решение. Так как при решении задачи 5.11 было найдено значениедисперсии D(δ) = 0, 13, то, согласно формуле 5.15, имеем

(δ) =√

0, 13⇒ (δ) ≈ 0, 36.

Предположим, что известны средние квадратические отклонения двухнезависимых случайных величин. О том, как выглядит среднее квадрати-ческое отклонение их суммы, говорит следующая

Теорема 5.3. Среднее квадратическое отклонение суммы двух незави-симых случайных величин равно квадратному корню из суммы квадратовсреднеквадратических отклонений этих величин:

σ(X + Y ) =√σ2(X) + σ2(Y ).

Д о к а з а т е л ь с т в о. Предположим, чтоX и Y две независимыеслучайные величины, а их сумма Z = X + Y . Согласно свойству 5.11

1Здесь i пробегает конечное или бесконечное подмножество множества натуральных чисел, а под«точкой» xi понимается возможное значение случайной величины X.

101

Page 103: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

D(Z) = D(X) +D(Y ).Извлекая квадратный корень из обеих частей данного равенства, получаем√

D(Z) =√D(X) +D(Y ).

Из равенства 5.15 следует, чтоD(X) = σ2(X), D(Y ) = σ2(Y ), а D(Z) = σ2(Z).

Поэтомуσ(Z) =

√σ2(X) + σ2(Y ).

Заменяя Z на сумму X + Y , убеждаемся в истинности теоремы1.Задача 5.15. Две случайные величины X и Y заданы своими законами

распределения:

X 1 2 3

p 0, 5 0, 3 0, 2

Y −1 0 1 2

p 0, 2 0, 3 0, 4 0, 1.

1. Вычислите M(X − 2Y ) и D(X − 2Y ).2. Вычислите M(2X + 3Y ) и D(2X + 3Y ).

Решение. Вычислим для каждой из случайных величин математиче-ское ожидание и дисперсию.

Согласно формуле 5.5M(X) = 1 · 0, 5 + 2 · 0, 3 + 3 · 0, 2⇒M(X) = 1, 7;M(Y ) = −1 · 0, 2 + 0 · 0, 3 + 1 · 0, 4 + 2 · 0, 1⇒M(Y ) = 0, 4.

Для того, чтобы вычислить дисперсии, надстроим в каждой из таблицстроки квадратов значений величин:

X2 1 4 9

X 1 2 3

p 0, 5 0, 3 0, 2

Y 2 1 0 1 4

Y −1 0 1 2

p 0, 2 0, 3 0, 4 0, 1

.

Далее, вычислим M(X2) и M(Y 2).M(X2) = 1 · 0, 5 + 4 · 0, 3 + 9 · 0, 2⇒M(X2) = 3, 5;M(Y 2) = 1 · 0, 2 + 0 · 0, 3 + 1 · 0, 4 + 4 · 0, 1⇒M(Y 2) = 1.

С помощью формулы (5.13) найдем дисперсии заданных случайных ве-личин:

D(X) = 3, 5− (1, 7)2 ⇒ D(X) = 0, 61;D(Y ) = 1− (0, 4)2 ⇒ D(Y ) = 0, 84.

Используя свойства математического ожидания случайных величин (см.5.6 и 5.7), определим математические ожидания заданных линейных ком-бинаций случайных величин:

M(X − 2Y ) = M(X)− 2M(Y )⇒1Аналогично можно распространить это свойство на сумму конечного числа попарно независимых

случайных величин.

102

Page 104: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

⇒M(X − 2Y ) = 1, 7− 2 · 0, 4⇒M(X − 2Y ) = 0, 9;M(2X + 3Y ) = 2M(X) + 3M(Y )⇒

⇒M(2X + 3Y ) = 2 · 1, 7 + 3 · 0, 4⇒M(2X + 3Y ) = 4, 6.Так как X и Y − независимые случайные величины, то с помощью

свойств 5.10 и 5.11 вычислим дисперсии указанных линейных комбинацийслучайных величин:

D(X − 2Y ) = D(X) + 4M(Y )⇒⇒ D(X − 2Y ) = 0, 61 + 4 · 0, 84⇒ D(X − 2Y ) = 3, 97;

D(2X + 3Y ) = 4D(X) + 9D(Y )⇒⇒ D(2X + 3Y ) = 4 · 0, 61 + 9 · 0, 84⇒ D(2X + 3Y ) = 10.

В итоге, имеемM(X − 2Y ) = 0, 9; D(X − 2Y ) = 3, 97;M(2X + 3Y ) = 4, 6; D(2X + 3Y ) = 10.

Задача 5.16. Подбрасывают два игральных кубика. Случайная вели-чина X − сумма выпавших очков. Найдите закон распределения, мате-матическое ожидание и дисперсию.

Решение. Каждый кубик имеет 6 одинаковых граней. Так как каж-дый кубик подбрасывается независимо от другого, то согласно принципупроизведения, общее число вариантов выпадения двух цифр на кубикахравно n = 6 · 6, то есть n = 36.

При этом сумма выпавших очков может принимать все целочисленныезначения от двух (если выпадет вариант 1-1), до 12 (если выпадет вариант6-6).1. X = 2 : A2=на первой кости выпало 1 очко и B2=на второй костивыпало 1 очко.

P (X = 2) = P (A2)P (B2)⇒ P (X = 2) =1

6· 1

6⇒ P (X = 2) =

1

36.

2. X = 3 : A31=на первой кости выпало 1 очко и B31=на второй костивыпало 2 очка или A32=на первой кости выпало 2 очка и

B22=на второй кости выпало 1 очко.

P (X = 3) = P (A31)P (B31) + P (A32)P (B32)⇒

⇒ P (X = 3) =1

6· 1

6+

1

6· 1

6⇒ P (X = 3) =

2

36.

3. X = 4 : A41=на первой кости выпало 1 очко и B41=на второй костивыпало 3 очка или A42=на первой кости выпало 2 очка и

B42=на второй кости выпало 2 очка или A43=на первой костивыпало 3 очка и B43=на второй кости выпало 1 очко.

P (X = 4) = P (A31)P (B31) + P (A32)P (B32)⇒

103

Page 105: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

⇒ P (X = 4) =1

6· 1

6+

1

6· 1

6⇒ P (X = 3) =

2

36.

Продолжив разбор вариантов выпадения очков для каждого значениясуммы аналогичным образом, получим таблицу закона распределения дляизучаемой случайной величины X:

X 2 3 4 5 6 7 8 9 10 11 12

p1

36

2

36

3

36

4

36

5

36

6

36

5

36

4

36

3

36

2

36

1

36

.

Складывая вероятности из второй строки:1

36+

2

36+

3

36+

4

36+

5

36+

6

36+

5

36+

4

36+

3

36+

2

36+

1

36= 1,

убеждаемся в правильности составления закона распределения.Умножая скалярно вектор значений X на вектор вероятностей

2 · 1

36+ 3 · 2

36+ 4 · 3

36+ 5 · 4

36+ 6 · 5

36+ 7 · 6

36+ 8 · 5

36+

+9 · 4

36+ 10 · 3

36+ 11 · 2

36+ 12 · 1

36=

252

36= 7,

находим математическое ожидание M(X) = 7.Далее, дополняя таблицу строкой квадратов значений случайной вели-

чины

X2 4 9 16 25 36 49 64 81 100 121 144

X 2 3 4 5 6 7 8 9 10 11 12

p1

36

2

36

3

36

4

36

5

36

6

36

5

36

4

36

3

36

2

36

1

36

,

вычисляем математическое ожидание квадрата случайной величины:

4 · 1

36+ 9 · 2

36+ 16 · 3

36+ 25 · 4

36+ 36 · 5

36+ 49 · 6

36+ 64 · 5

36+

+81 · 4

36+ 100 · 3

36+ 121 · 2

36+ 144 · 1

36=

1974

36≈ 54, 83.

После применения формулы 5.13 находим дисперсиюD(X) = 54, 83− 49⇒ D(X) ≈ 5, 83.

Замечание 5.12. Следует заметить, что эту задачу можно было бырешить со значительно меньшими усилиями, если рассматривать искомуюслучайную величину X как сумму двух случайных величин X1 и X2, каж-дая из которых представляет число выпавших очков на соответствующемкубике.

Так как кубики одинаковы, то X1 = X2.Поэтому, M(X1) = M(X2) и D(X1) = D(X2).

Так как вероятность выпадения одной грани вверх величина постоянная

104

Page 106: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

и равная1

6, то

M(X1) = M(X2) = 1 · 16

+ 2 · 16

+ 3 · 16

+ 4 · 16

+ 5 · 16

+ 6 · 16⇒

⇒M(X1) = M(X2) = 3, 5

Аналогично, вычисляем M(X21) = M(X2

2)

1 · 16

+ 4 · 16

+ 9 · 16

+ 16 · 16

+ 25 · 16

+ 36 · 16⇒

⇒M(X21) = M(X2

2) =91

6≈ 15, 16.

Следовательно, D(X1) = D(X2) = 15, 16− (3, 5)2 ⇒⇒ D(X1) = D(X2) ≈ 2, 91.

Согласно свойствам математического ожидания и дисперсии (см. 5.7 и 5.11)M(X1 +X2) = M(X1) +M(X2); D(X1 +X2) = D(X1) +D(X2).

Поэтому, M(X) = 2M(X1), D(X) = 2D(X1)⇒M(X) = 7; D(X) = 5, 82 .

5.5 Одинаково распределенные независимые случайныевеличины

Предположим, что две независмые случайные величины X1и X

2имеют

одинаковые распределения. Очевидно, что они имеют и одинаковые число-вые характеристики. Рассмотрим среднее арифметическое этих величин.

Обозначив среднее арифметическое этих величин

X =X

1+X

2

2,

введем также следующие обозначения:M(X

1) = M(X

2) = a, D(X

1) = D(X

2) = D, σ(X

1) = σ(X

2) = σ.

С помощью этих обозначений рассмотрим связь между числовыми харак-теристиками среднего арифметического и соответствующими характеристи-ками каждой из величин.

Свойство 5.13. Математическое ожидание среднего арифметическо-го двух одинаково распределенных независимых случайных величин равноматематическому ожиданию каждой из этих величин, то есть

M(X) = a.Из свойств линейности математического ожидания (см. 5.6-5.7) следует

M

(X

1+X

2

2

)=M(X

1) +M(X

2)

2=a+ a

2= a⇒M(X) = a.

105

Page 107: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Свойство 5.14. Дисперсия среднего арифметического двух одинаковораспределенных независимых случайных величин в два раза меньше ди-сперсии каждой из них:

D(X) =D

2.

Из свойств дисперсии для независимых случайных величин (см. 5.10-5.11) следует

D

(X

1+X

2

2

)=D(X

1) +D(X

2)

22=D +D

4=D

2⇒ D(X) =

D

2.

Свойство 5.15. Среднее квадратическое отклонение среднего ариф-метического двух одинаково распределенных независимых случайных ве-личин в

√2 раз меньше среднего квадратического отклонения каждой из

них:σ(X) =

σ√

2.

Из определения 5.14 и свойства 5.14 имеем√D(X) =

√D

2=

√D√2

=σ√2⇒ σ(X) =

σ√2.

Замечание 5.13. Нетрудно заметить, что свойства 5.13-5.15 имеютместо для любого конечного числа независимых случайных величин.

Замечание 5.14. Из свойства 5.15 следует, что среднее арифметиче-ское двух независимых случайных величин имеет меньшее рассеивание,чем каждая из них.

В силу замечания 5.13 можно предположить, что для большого количе-ства взаимно независимых случайных величин их среднее арифметическоебудет иметь значительно меньшее рассеивание, чем каждая из них. Этим иобъясняется, что на практике при проведении большого числа измеренийнекоторой характеристики выбирают среднее арифметическое этих изме-рений.

Среди большого мира распределений вероятностей всевозможных дис-кретных случайных величин наибольший интерес на практике представля-ют рассмотренные ниже распределения.

5.6 Примеры распределений дискретных случайных величин

5.6.1 Биномиальное распределение вероятностей

Рассмотрим решение следующей задачи.Задача 5.17. В городе 3 коммерческих банка. У каждого риск банк-

ротства в течение года составляет 20%. Составьте ряд распределения

106

Page 108: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

числа банков, которые могут обанкротиться в течение следующего года,а также найдите математическое ожидание и дисперсию полученногораспределения.

Решение. Пусть случайная величина Y − число банков, которые мо-гут обанкротиться в течение следующего года. По условию задачи Y можетпринимать значения из множества 0, 1, 2, 3.

Поскольку вероятность банкротства для каждого банка p = 0, 2 по-стоянна, то вероятность того, что каждый банк не обанкротится, q = 0, 8(q = 1 − 0, 2), также постоянна, следовательно, вычисление вероятностейбанкротства для каждого банка определяется одной и той же формулойБернулли (при n = 3)

Pn(k) = Cknp

kqn−k.

Вычислим эти вероятности.1. P (Y = 0) = C0

3(0, 2)0 · (0, 8)3 ⇒ P (Y = 0) = 0, 512.

2. P (Y = 1) = C13(0, 2)1 · (0, 8)2 ⇒ P (Y = 1) = 0, 384.

3. P (Y = 2) = C23(0, 2)2 · (0, 8)1 ⇒ P (Y = 2) = 0, 096.

4. P (Y = 3) = C33(0, 2)3 · (0, 8)0 ⇒ P (Y = 3) = 0, 008.

Так как сумма найденных вероятностей

0, 512 + 0, 384 + 0, 096 + 0, 008 = 1,

то закон распределения вероятностей для Y имеет следующий вид:

Y 0 1 2 3

p 0, 512 0, 384 0, 096 0, 008.

Далее, согласно 5.5, вычислим математическое ожидание Y :

M(Y ) = 0 · 0, 512 + 1 · 0, 384 + 2 · 0, 096 + 3 · 0, 008⇒M(Y ) = 0, 6.

Построим над таблицей строку квадратов значений Y и определимM(Y 2):

Y 2 0 1 4 9

Y 0 1 2 3

p 0, 512 0, 384 0, 096 0, 008

.

M(Y 2) = 0 · 0, 512 + 1 · 0, 384 + 4 · 0, 096 + 9 · 0, 008⇒M(Y 2) = 0, 84.

Вычитая из полученного результата квадрат математического ожида-ния, находим:

D(Y ) = 0, 84− (0, 6)2 ⇒ D(Y ) = 0, 48.

Анализируя решение этой задачи, можно сделать несколько выводов:1. Математическое ожидание Y и ее дисперсия были вычислены благода-

107

Page 109: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

ря построению закона распределения вероятностей.2. Закон распределения вероятностей был построен потому, что случайнаявеличина Y в условии задачи принимала всего четыре значения.

Возникает вполне естественный вопрос: как искать математическоеожидание и дисперсию, описывающие основные характеристики случай-ной величины, если случайная величина принимает гораздо большее числозначений?

Так как схема Бернулли (см. определение 4.1) встречается достаточночасто, то попробуем разобраться с характеристиками случайной величины,вероятности значений которой связаны со схемой Бернулли, в общем слу-чае.

Предположим, что в некотором опыте, состоящем из n независимых ис-ходов, интересующее нас событие A наступает в каждом из этих исходов спостоянной вероятностью p (соответственно не наступает с вероятностьюq = 1− p).

Число исходов, в которых может наступить событие A, будем рассмат-ривать как случайную величину X.

Из схемы Бернулли (см. определение 4.1) вытекает, что вероятность то-го, что событие A наступит k раз в данном опыте, определяется формулойБернулли

Pn(k) = Cknp

kqn−k.

Определение 5.15. Дискретная случайная величина X называетсяраспределенной по биномиальному закону, если вероятности событийωk : X = k определяются по формуле Бернулли.

Построим закон распределения этой величины. Для этого, как и Я. Бер-нулли1, воспользуемся несимметричной монетой.

Пусть вероятность выпадения герба равна p, а вероятность выпадениярешетки q = 1− p. В этом случае закон распределения случайной величи-ны X − числа выпадений герба − будет иметь следующий вид

X 0 1

p q p.

Если монету подбросить два раза, то вероятность того, что герб вы-падет 0, 1, 2 раза будет соответственно равна q2, 2qp, p2. Поэтому законраспределения в этом случае примет вид

X 0 1 2

p q2 2qp p2 .

1См. Корбалан Ф., Санц Х. Укрощение случайности. Теория вероятностей. М. : Де Агостини, 2014.С. 48.

108

Page 110: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

В случае трехкратного подбрасывания монеты вероятность того, чтогерб выпадет 0, 1, 2, 3 раза будет соответственно равна q3, 3q2p, 3qp2, p3.При этом закон распределения примет вид

X 0 1 2 3

p q3 3q2p 3qp2 p3 .

Выпишем для каждого из вышеприведенных законов распределения слу-чайной величины X соответствующюю сумму вероятностей:

q + p = 1;q2 + 2qp+ p2 = (q + p)2 = 1;

q3 + 3q2p+ 3qp2 + p3 = (q + p)3 = 1.В полученных выражениях легко увидеть знакомые каждому школьни-

ку квадрат суммы и куб суммы. Очевидно, что продолжая подбрасыватьмонету и записывать с помощью формулы Бернулли (4.1) соответствующиевероятности, мы получим таблицу закона распределения в общем случае:

X 0 1 2 . . . k . . . n− 1 n

p qn C1npq

n−1 C2np

2qn−2 . . . Cknp

kqn−k . . . Cn−1n pn−1q pn

.

Из вышесказанного логично предположить1, что сумма вероятностей

qn + C1npq

n−1 + C2np

2qn−2 · · ·+ Cknp

kqn−k + Cn−1n pn−1q + pn = (q + p)n = 1.

Так как сумма вероятностей в итоге превратилась в бином Ньютона2,(q + p)n, то именно по этой причине распределение назвали − биномиаль-ным распределением.

Далее, нам нужно вычислить математическое ожиданиеX. Но решатьэту задачу «в лоб» с помощью формулы (5.5) проблематично, так как дляэтого придется залезть в дебри комбинаторики.

Поэтому подойдем к этой проблеме с другой стороны.Представим, что случайная величина X − число появлений события A яв-ляется суммой чисел появлений события A в отдельных испытаниях.

То есть если случайная величина X1 − число появлений A в первомиспытании; случайная величина X2 − число появлений A во втором испы-тании; . . . ; случайная величинаXn − число появлений A в n−м испытании,то

X = X1 +X2 + · · ·+Xn.

Так как каждое из слагаемых в последнем равенстве представляет число1Конечно, с точки зрения математики этот факт не мешало бы доказать с помощью метода мате-

матической индукции (но это мы оставим читателям).2Бином Ньютона − формула для разложения на отдельные слагаемые целой неотрицательной сте-

пени суммы двух переменных, имеющая вид(a+ b)n = C0

nan + C1

nan−1b+ C2

nan−2b2 + · · ·+ Ckna

n−kbk + · · ·+ Cnnbn.

109

Page 111: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

появлений события в одном испытании, то закон распределения вероятно-стей для каждого из них можно описать в виде следующей таблицы:

Xk = k 0 1

p q p.

Следовательно, M(Xk) = 0 · q + 1 · p⇒M(Xk) = p, (k = 1, n).Согласно свойству 5.7 для математического ожидания

M(X) = M(X1) +M(X2) + · · ·+M(Xn).

Подставив вместо каждого слагаемого в равенстве p, получим

M(X) = np. (5.16)

Применим этот подход для вычисления дисперсии биномиального рас-пределения вероятностей.Здесь нам придется учесть что так как каждый исход в опыте не зависит отот другого исхода, то рассматриваемые случайные величины Xk взаимнонезависимы. Поэтому, согласно свойству 5.11

D(X) = D(X1) +D(X2) + · · ·+D(Xn).

Очевидно также, чтоD(X1) = D(X2) = · · · = D(Xn).

Для вычисления D(Xk) добавим в последний закон распределения стро-ку квадратов значений Xk:

X2k = k2 0 1

Xk = k 0 1

p q p

.

Найдем M(X2k):

M(X2k) = 0 · q + 1 · p⇒M(X2

k) = p, (k = 1, n).Вычитая из этого представления квадрат математического ожиданияXk,имеем

D(Xk) = p− p2 ⇒ D(Xk) = p(1− p)⇒ D(Xk) = pq (k = 1, n).Подставляя последний результат в сумму для вычисления дисперсии X,

имеемD(X) = npq. (5.17)

Замечание 5.15. Если бы мы знали формулы (5.16) и (5.17) до реше-ния задачи 5.17, то мы бы нашли математическое ожидание и дисперсиюдля случайной величины Y гораздо быстрее. Теперь же остается толькопроверить правильность тех вычислений.

110

Page 112: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

В задаче 5.17 n = 3, p = 0, 2, q = 0, 8. Поэтому,M(Y ) = 3·0, 2⇒M(Y ) = 0, 6;D(Y ) = 3·0, 2·0, 8⇒ D(Y ) = 0, 48.

То есть ошибок ранее мы не допустили.Замечание 5.16. В заключение заметим, что биномиальное распреде-

ление применяется там, где требуется оценка количества успехов в выборке,состоящей из n наблюдений, например, при проведении выборочного кон-троля за качеством производственных изделий, при котором отбор изделийдля пробы производится по схеме случайной повторной выборки, То естькогда проверенные изделия возвращаются в исходную партию. Тогда коли-чество нестандартных изделий среди отобранных есть случайная величинас биномиальным законом распределения вероятностей.

Кроме этого, биномиальное распределение связано с задачами о случай-ных блужданиях и перемешиваниях.

С ростом n биномиальное распределение стремится к непрерывному нор-мальному распределению вероятностей.

Если же при n→∞ p→ 0 таким образом, что произведение λ = np яв-ляется величиной постоянной, биномиальное распределение вероятностейпревращается в пуассоновское распределение.

5.6.2 Распределение Пуассона

Определение 5.16. Дискретная случайная величина X называется рас-пределенной по закону Пуассона1, если вероятности событийωk : X = k определяются по формуле Пуассона:

Pn(k) =λk

k!e−λ. (5.18)

В отличие от биномиального распределения распределение Пуассона явля-ется бесконечным, То есть случайная величина пробегает счетное множе-ство значений. Поэтому ее закон распределения имеет следующий вид:

X 0 1 2 . . . k . . .

p e−λ λe−λλ2

2e−λ . . .

λk

k!e−λ . . .

.

Чтобы убедиться, что таблица истинна, вычислим сумму вероятностей1Распределение, названное пуассоновским, было рассмотрено в предельной форме С. Д. Пуассоном

в 1830 году в работе, посвященной соотношению рождаемости мальчиков и девочек (Memoire sur laproportion des naissances des filles et des garcons), а затем в 1837 году в приближенной форме в работе«Исследования о вероятности приговоров в уголовных и гражданских делах» ( the Recherches sur laprobabilite des jugements en matiere criminelle et matiere civil) (cм. Earliest Known Uses of Some of theWords of Mathematics (P) [Электронный ресурс] : URL : http://jeff560.tripod.com/v.html (датаобращения: 12.06.2016)).

111

Page 113: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

e−λ + λe−λ +λ2

2!e−λ · · ·+ λk

k!e−λ + . . . .

Вынеся e−λ, как общий множитель, за скобки, имеем

e−λ(

1 +λ

1!+λ2

2!· · ·+ λk

k!+ . . .

).

Можно заметить, что числовой ряд в скобке является рядом Маклоре-на для функции eλ. Заменив скобку суммой ряда, получаем произведениеe−λeλ = 1.

Таким образом, мы показали, что сумма вероятностей равна 1, а значит,распределение построено правильно.

Используя формулу 5.5, вычислим математическое ожидание X:

M(X) = 0 · e−λ + 1 · λe−λ + 2 · λ2

2!e−λ · · ·+ k · λ

k

k!e−λ + . . . .

С помощью знака сокращенного суммирования перепишем правую частьравенства в компактной форме и преобразуем

0 · e−λ + 1 · λe−λ + 2 · λ2

2!e−λ · · ·+ k · λ

k

k!e−λ + · · · =

∞∑k=0

kλk

k!e−λ.

Так как при k = 0 первое слагаемое суммы обращается в нуль, то изменимнижнее значение индекса суммирования на единицу:

∞∑k=0

kλk

k!e−λ =

∞∑k=1

kλk

k!e−λ =

∞∑k=1

kλk

k(k − 1)!e−λ =

∞∑k=1

λk

(k − 1)!e−λ.

Представив λk = λ · λk−1, вынесем λe−λ за знак суммирования:

λe−λ∞∑k=1

λk−1

(k − 1)!.

Заменив переменную суммирования k − 1 = m⇒ m = 0, имеем

λe−λ∞∑k=1

λk−1

(k − 1)!= λe−λ

∞∑m=0

λm

m!.

Как мы видели выше, ряд∞∑m=0

λm

m!− ряд Маклорена для функции eλ.

Следовательно, M(X) = λe−λ · eλ. Таким образом,

M(X) = λ. (5.19)

Далее, дополнив таблицу распределения Пуассона строкой для квадра-тов значений случайной величины, определим M(X2).

X2 0 1 4 . . . k2 . . .

X 0 1 2 . . . k . . .

p e−λ λe−λλ2

2e−λ . . .

λk

k!e−λ . . .

.

112

Page 114: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Для этого представим скалярное произведение векторов строки квадратови вероятностей в компактном виде и преобразуем его:

0 · e−λ + 1 · λe−λ + 4 · λ2

2!e−λ · · ·+ k2 · λ

k

k!e−λ + · · · =

∞∑k=0

k2λk

k!e−λ =

=∞∑k=1

k2 λ · λk−1

k(k − 1)!e−λ = λ

∞∑k=1

kλk−1

(k − 1)!e−λ.

Представив k = (k− 1) + 1, перепишем последнюю сумму и разобъем ее надве:

λ∞∑k=1

((k − 1) + 1)λk−1

(k − 1)!e−λ = λe−λ

( ∞∑k=1

(k − 1)λk−1

(k − 1)!+∞∑k=1

λk−1

(k − 1)!

).

Заменив, как и выше, k − 1 = m ⇒ m = 0, преобразуем последнееравенство к виду

λe−λ

( ∞∑m=0

mλm

m!+∞∑m=0

λm

m!

).

Так как λe−λ∞∑m=0

mλm

m!= λ2 (см. с. 109), а λe−λ

∞∑m=0

λm

m!= λ, то

M(X2) = λ2 + λ.Поэтому, вычитая из этого результата квадрат математического ожида-ния M(X), получаем:

D(X) = λ. (5.20)

Замечание 5.17. Следует заметить, что распределение вероятностейПуассона играет важную роль во многих задачах физики, теории связи,теории надежности, теории массового обслуживания.

В заключение рассмотрим задачу, которая привела к понятию матема-тического ожидания. Задача была впервые сформулирована в 1713 годуН. Бернулли1 и в дальнейшем стала известна как Санкт-петербургскийпарадокс2.

В начале XVIII столетия в Санкт-Петербурге популярной была игра:правильная монета подбрасывается до тех пор, пока не выпадет «решетка».Если «решетка» выпадет при k-м бросании, то игрок получает из банка2k рублей. То есть с каждым бросанием его выигрыш удваивается.

Первый вопрос звучал так: Сколько нужно заплатить игроку за уча-1См. Википедия [Электронный ресурс] : URL : https://isaran.ru/?q=ru/person&guid=

-58575804-D56F-F367-59CE-8763F90CD305(\T2A\cyrd\T2A\cyra\T2A\cyrt\T2A\cyra\T2A\cyro\T2A\cyrb\T2A\cyrr\T2A\cyra\T2A\cyrshch\T2A\cyre\T2A\cyrn\T2A\cyri\T2A\cyrya:12.06.2016).

2См. Корбалан Ф., Санц Х. Указ. соч. С. 43-45.

113

Page 115: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

стие в игре, чтобы игра стала «безобидной» («безобидность» игры пред-полагает, что математическое ожидание чистого выигрыша должнобыть равно нулю)?Решение. Пусть X − величина выигрыша игрока. Так как с каждым

бросанием его выигрыш удваивается, то X может принимать следующиезначения:

X 2 22 23 . . . 2k . . .

Учитывая что при k-м возможном значении X вероятность выигрыша1

2k,

составим закон распределения

X 2 22 23 . . . 2k . . .

p1

2

1

22

1

23. . .

1

2k. . .

Вычисляя математическое ожиданиеM(X) = 2 · 1

22+ 22 · 1

22+ · · ·+ 2k · 1

2k+ · · · ⇒M(X) = 1 + 1 + . . . ,

быстро убедились, что такая постановка задачи приводит к парадоксу: по-тери банка имеют бесконечное математическое ожидание.

Поэтому, исходя из ограниченности ресурсов, был сформулирован вто-рой вопрос. Решить задачу, предполагая, что в банке 1000000 рублей идействует соглашение о том, что в случае выпадания «решетки» приk-м бросании монеты или позднее, если 2k > 1000000, то весь банк от-дается игроку в качестве выигрыша.

Оценим 1000000 = 106 с помощью степеней двойки524288 = 1019 < 106 < 1020 = 1048576.

Выделим частичную сумму 19 слагаемых1

2 · 1

22+ 22 · 1

22+ · · ·+ 219 · 1

219+

(1

220+

1

220+ . . .

)· 106 =

19 +

(1 +

1

2+

1

4+ . . .

)· 106

220= 19 +

1

1− 12

· 106

220≈ 19 + 2 · 0, 954 = 20, 908.

Таким образом, M(X) ≈ 21. Следовательно, среднее значение выигры-ша игрока 21 рубль. Отсюда можно сделать вывод о том, что

если вступительный взнос игрока будет равен 21 рублю,то игра может стать выгодной для банка.

1Так как с учетом соглашения больше 1000000 игрок не получит, то все последующие выигрышиможно ограничить этой суммой, которая окажется общим множителем ряда, составленного из членовгеометрической прогрессии.

114

Page 116: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

6 Непрерывные случайные величины

Теория вероятностей есть

в сущности не что иное, как

здравый смысл, сведенный

к исчислению.

Пьер Симон де Лаплас1

6.1 Определение непрерывной случайной величины

Понятие закона распределения (см. определение 5.2) имеет смысл тольков том случае, когда случайная величина принимает конечное или счетноемножество значений. Если же значения случайной величины представляют«сплошное» множество точек на числовой прямой, то это понятие теряетсвой смысл.

В то же время определение функции распределения 5.3F (x) = P (X < x)

как более общее понятие остается в силе.Для того, чтобы ввести с помощью функции распределения новый класс

случайных величин, понадобится два понятия из мира математическогоанализа:

Определение 6.1. Функция f(x) называется кусочно непрерыв-ной на некотором множестве, если она непрерывна внутри множе-ства за исключением конечного числа точек, а на границах множестваимеет односторонние пределы.

Определение 6.2. Функция f(x) называется кусочно дифферен-цируемой на некотором множестве, если ее производная на этоммножестве имеет конечное число точек разрыва.

Так, например, функция f(x) = |x| является кусочно дифференцируе-мой функцией на отрезке [−1; 1].

Она непрерывна на отрезке [0; 1] (рис. 6.1), а ее производная2

f ′(x) =

−1, если − 1 ≤ x < 0,

1, если 0 < x ≤ 1.

является кусочно непрерывной, имея разрыв первого рода в точке x = 0(рис. 6.2).

1См. Вероятность и математическая статистика... С. 863.2В точках x = −1 и x = 1 речь идет о соответствующих односторонних производных.

115

Page 117: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

x

y

1−1

1

Рис. 6.1

x

y

1−1

−1

1

Рис. 6.2Зная о том, что представляют собой кусочно непрерывные и конечно

дифференцируемые функции, можно ввести следующееОпределение 6.3. Случайная величина X называется непре-

рывной, если ее функция распределения F (x) является непрерывной, ку-сочно дифференцируемой функцией, производная которой кусочно непре-рывна в области определения.

Восстановим сформулированные в предыдущей главе свойствафункции распределения:Свойство 5.1 ∀x 0 ≤ F (x) ≤ 1.Свойство 5.2 ∀x

1, x

2: x

1< x

2⇒ F (x

1) ≤ F (x

1).

Свойство 5.3 limx→−∞

F (x) = 0.

Свойство 5.4 limx→∞

F (x) = 1.

Эти свойства справедливы и для функции распределения непрерывной слу-чайной величины.

Рассмотрим два следствия, вытекающие из этих свойств.Следствие 6.1. Вероятность того, что случайная величина X при-

мет значение из промежутка [a; b), равна приращению функции распре-деления на этом промежутке:

P (a ≤ X < b) = F (b)− F (a). (6.1)

Это следствие вытекает из доказательства свойства 5.2, из которого следу-ет, что

P (x1≤ X < x

2) = F (x

2)− F (x

1). (6.2)

Если в равенстве 6.2 обозначить x1

= a, а x2

= b, то получится требуемоеутверждение.

Это следствие справедливо и для дискретных случайных величин. Ноесли случайная величина является непрерывной, то оказывается, что

P (a ≤ X < b) = P (a < X < b) = P (a < X ≤ b) = P (a ≤ X ≤ b).(6.3)

116

Page 118: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Эти равенства опираются на следующее следствие:Следствие 6.2. Вероятность того, что непрерывная случайная ве-

личина X примет некоторое фиксированное значение x, равна нулю, тоесть

P (X = x) = 0.

Если предположить, что x − некоторое фиксированное число, совпа-дающее с x

1в формуле (6.2): x

1= x, а x

2= x+ ∆x, то

P (x ≤ X < x+ ∆x) = F (x+ ∆x)− F (x).

Так как X − непрерывная случайная величина, то функция распределенияF (x) − непрерывная функция. Поэтому lim

∆x→0F (x+ ∆x) = F (x). Следова-

тельно,P (X = x) = lim

∆x→0P (x ≤ X < x+ ∆x) = 0.

Из равенств (6.3) вытекает, что вероятность того, что непрерывная слу-чайная величина принимает значения из данного промежутка, не зависитот принадлежности концов промежутка самому промежутку.

Замечание 6.1. Следует заметить, что если P (X = x) = 0, то это со-всем не означает, что событие, при котором X = x, является невозможнымсобытием.Так как непрерывная случайнаяX в результате опыта обязатель-но принимает какое-нибудь возможное значение, то этим значением можетоказаться и x.

Задача 6.1. Случайная величина X задана функцией распределения

F (x) =

0, при x ≤ 1,(x− 1)2, при 1 < x ≤ 2,1, при x > 2.

1) Постройте график функции F (x).2) Найдите вероятности того, что в результате опыта случайная ве-личина X примет значения, принадлежащие:

а) интервалу (1, 2; 1, 6);б) отрезку [1, 7; 2, 3];в) лучу x : x > 1, 5;г) лучу x : x ≤ 1, 3.Решение. 1) Построим требуемый график (рис. 6.3).

x

F (x)

1

1

2Рис. 6.3

117

Page 119: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

2) С помощью формулы (6.1) вычислим требуемые вероятности:а) P (1, 2 < X < 1, 6) = F (1, 6)− F (1, 2).

Так как 1, 2 ∈ (1; 2), то F (1, 2) = (1, 2− 1)2, то есть F (1, 2) = 0, 04.Аналогично, F (1, 6) = (1, 6− 1)2 ⇒ F (1, 6) = 0, 36.Поэтому P (1, 2 < X < 1, 6) = 0, 36− 0, 04⇒ P (1, 2 < X < 1, 6) = 0, 32.

б) Согласно формуле (6.1) P (1, 7 ≤ X ≤ 2, 3) = F (2, 3)− F (1, 7).Так как 1, 7 ∈ (1; 2), то F (1, 7) = (1, 7− 1)2, то есть F (1, 7) = 0, 49.В силу того, что 2, 3 > 2, F (2, 3) = 1.Поэтому P (1, 7 ≤ X ≤ 2, 3) = 1− 0, 49⇒ P (1, 7 ≤ X ≤ 2, 3) = 0, 51.

в) Представим луч x : x > 1, 5 в виде бесконечного интервала (1, 5; ∞).Тогда, согласно формуле (6.1) P (1, 5 < X <∞) = F (∞)− F (1, 5).Так как 1, 5 ∈ (1; 2), то F (1, 5) = (1, 5− 1)2, то есть F (1, 5) = 0, 25.Поскольку F (∞) = 1,то P (1, 5 < X <∞) = 1− 0, 25⇒ P (X > 1, 5) = 0, 75.

г) Как и в предыдущем задании, представим луч x : x ≤ 1, 3 в видебесконечного множества (−∞; 1, 3].Тогда, согласно той же формуле P (−∞ < X ≤ 1, 3) = F (1, 3)−F (−∞).Так как 1, 3 ∈ (1; 2), то F (1, 3) = (1, 3− 1)2, то есть F (1, 3) = 0, 09.Известно, что F (−∞) = 0.Поэтому P (−∞ < X ≤ 1, 3) = 0, 09− 0⇒ P (X ≤ 1, 3) = 0, 09.

Объединяя результаты а)-г), получаем

P (1, 2 < X < 1, 6) = 0, 32; P (1, 7 ≤ X ≤ 2, 3) = 0, 51;P (X > 1, 5) = 0, 75; P (X ≤ 1, 3) = 0, 09.

В начале главы непрерывная случайная величина X была определена спомощью функции распределения F (x). Этот способ задания не являетсяединственным.

6.2 Плотность распределения вероятностей непрерывнойслучайной величины и ее свойства

В качестве закона распределения возможных значений случайной ве-личины, имеющего смысл только для непрерывных случайных величин,введем понятие плотности распределения вероятностей.

Определение 6.4. Плотностью распределения вероятностейнепрерывной случайной величины называется первая производная еефункции распределения, то есть

f(x) = F′(x).

Замечание 6.2. В силу определения плотность распределения f(x)иногда называют дифференциальной функцией, а функцию распределения

118

Page 120: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

F (x) − интегральной функцией (так как она является для функции плот-ности первообразной функцией)1.

Замечание 6.3. С точки зрения теории вероятностей термин плот-ность вероятности можно объяснить следующим образом: Предположим,что отрезок [x; x+∆x] является бесконечно малым. Из формулы (6.1) сле-дует, что

P (x ≤ X ≤ x+ ∆x) = F (x+ ∆x)− F (x).

С помощью формулы Лагранжа имеем, что

F (x+ ∆x)− F (x) ≈ F′(x)∆x = f(x)∆x.

Поэтому,P (x ≤ X ≤ x+ ∆x) ≈ f(x)∆x.

Следовательно, вероятность того, что случайная величина принимаетзначение, принадлежащее отрезку [x; x + ∆x], приближенно равна про-изведению плотности вероятности в точке x на длину интервала ∆x.

С точки зрения механики плотность вероятности можно определитьтак: представьте, что вероятность того, что случайная величина принимаетзначения на участке [x; x+ ∆x), есть некоторая масса, равная 1.

При этом эта масса распределена произвольным образом на данномучастке2. Тогда средняя плотность, с которой распределена эта масса научастке, будет равна отношению

P (x ≤ X ≤ x+ ∆x)

∆x.

А так как (см. равенство (6.1))P (x ≤ X ≤ x+ ∆x) = F (x+ ∆x)− F (x),

то средняя плотность равнаF (x+ ∆x)− F (x))

∆x.

«Заставив» ∆x→ 0, получаем, что

lim∆x→0

F (x+ ∆x)− F (x)

∆x= F ′(x) = f(x).

Из этой аналогии массы и вероятности вытекает механический смыслплотности вероятности.

Так как плотность вероятности является производной неубывающей1Из определения 6.4 становится ясно, почему функция распределения должна быть дифференци-

руемой в области определения.2Если мы распределим массу дискретным образом, то сумма вероятностей, которые будут соответ-

ствовать событиям, при которых случайная величина принимает значения именно в этих точках, будетравна 1. Поэтому и выбранная масса равна 1.

119

Page 121: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

функции F (x), то она обладает следующим свойством.Свойство 6.1. Плотность распределения неотрицательная функция,

то есть∀x ∈ (−∞;∞) f(x) ≥ 0.

Поскольку F (x) является первообразной функцией для функции плот-ности f(x) на любом отрезке [a; b], то согласно формуле Ньютона-Лейбница

b∫a

f(x)dx = F (b)− F (a).

Поэтому в силу (6.1) имеем

P (a ≤ X ≤ b) =

b∫a

f(x)dx. (6.4)

x

y

a c b

y = f(x)

Рис. 6.4

С точки зрения геометрии вероятностьP (a ≤ X ≤ b)

совпадает с площадью криволинейной трапе-ции, ограниченной графиком функции плотно-сти y = f(x), осью OX и прямыми x = a иx = b (рис. 6.4).Если взять a = −∞, а b = ∞, то получим

достоверное событие X ∈ (−∞;∞).Зная, что его вероятность равна единице, получаем

Свойство 6.2.

∞∫−∞

f(x)dx = 1.

Задача 6.2. Функция плотности непрерывной случайной величиныX определена на всей числовой оси равенством

f(x) =C

1 + 9x2.

Определите значение параметра C.

Решение. Согласно свойству 6.2∞∫

−∞

Cdx

1 + 9x2= 1.

Используя свойство однородности несобственного интеграла, вынесем кон-станту C за знак интеграла

∞∫−∞

Cdx

1 + 9x2= C

∞∫−∞

dx

1 + 9x2.

120

Page 122: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее вычислим значение интеграла∞∫

−∞

dx

1 + 9x2= lim

a→ −∞b→ ∞

b∫a

dx

1 + 9x2= lim

a→ −∞b→ ∞

(1

3arctg 3x

∣∣∣ba

)=

=1

3

(limb→∞

arctg 3b− lima→∞

arctg 3a)

=1

3

(π2−(−π

2

))=π

3.

Следовательно, C · π3

= 1.

Таким образом, значение параметра C =3

π.

Если в формуле (6.4) взять a = −∞, а b = x, то получим представлениефункции распределения в интегральной форме1

F (x) =

x∫−∞

f(t)dt. (6.5)

Задача 6.3. Дана функция плотности

f(x) =

0, при x ≤ 2,2x− 4, при 2 < x ≤ 3,0, при x > 3.

Определите интегральную функцию распределения F (x).Решение. Так как область определения функции плотности является

объединением трех интервалов(−∞;∞) = (−∞; 2] ∪ (2; 3] ∪ (3;∞),

то придется верхнему пределу x из интегрального представления функцииF (x) (6.5) «прогуляться» по всем этим интервалам.1. Предположим что x ∈ (−∞; 2). В этом случае f(x) = 0. Тогда

x∫−∞

f(t)dt =

x∫−∞

0dt = 0.

2. Допустим что x ∈ (2; 3]. Следовательно2,x∫

−∞

f(t)dt =

2∫−∞

0dt+

x∫2

(2t− 4)dt = 0 + (t2 − 4t)

∣∣∣∣∣x

2

=

= x2 − 4x− (22 − 4 · 2) = x2 − 4x+ 4 = (x− 2)2.1Переменная интегрирования x обозначена через t, чтобы можно было отличить ее и верхний предел

интегрирования.2Второй интеграл можно было вычислить проще, если вынести общий множитель 2:x∫

2

(2t− 4)dt = 2

x∫2

(t− 2)dt = 2 · (t− 2)2

2

∣∣∣x2= (x− 2)2.

121

Page 123: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

3. Пусть x ∈ (3; ∞; ). В этом случаеx∫

−∞

f(t)dt =

2∫−∞

0dt+

3∫2

(2t− 4)dt+

∞∫3

0dt = 0 + 1 + 0 = 1.

Объединяя результаты пунктов 1.-3., получаем представление инте-гральной функции распределения1

F (x) =

0, при x ≤ 2,(x− 2)2, при 2 < x ≤ 3,1, при x > 3.

6.3 Числовые характеристики непрерывной случайнойвеличины

По аналогии с дискретными случайными величинами введем понятиячисловых характеристик непрерывных случайных величин.

6.3.1 Математическое ожидание непрерывной случайной величины

Предположим, что непрерывная случайная величина X задана с помо-щью плотности распределения f(x). Допустим также, что все ее возмож-ные значения лежат на отрезке [a; b]. По аналогии с определением инте-грала разобъем отрезок на n отрезков, имеющих длины ∆x

1, ∆x

2, . . . , ∆x

n.

Выберем на каждом из интервалов произвольную точку xi, (i = 1, n). Да-

лее, пользуясь тем, что число отрезков конечно, определим по аналогиис математическим ожиданием дискретной случайной величины следую-щую сумму:

x1P (a < X ≤ x

1) + x

2P (x1 < X ≤ x

2) + · · ·+ x

nP (x

n−1< X ≤ xn).

Из замечания 6.3 следует, что для каждого из выбранных интервалов ве-роятность

P (xi−1< X ≤ x

i) ≈ f(x

i−1)∆x

i, (i = 1, n).

Следовательно, сумму можно переписать в новом виде:

x1f(a)∆x

1+ x

2f(x

1)∆x

2+ · · ·+ x

nf(x

n−1)∆x

n

или в компактном видеn∑i=1

xif(x

i−1)∆x

i.

1С точки зрения определения интегральной функции распределения непрерывной случайной ве-личины не мешает убедиться в том, что полученная функция действительно непрерывна. Для этогонужно вычислить односторонние пределы в точках x = 2 и x = 3. Попробуйте эту проверку выполнитьсамостоятельно.

122

Page 124: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Пусть λ = maxn∆x

1, ∆x

2, . . . ,∆x

n. Если «заставить» λ стремиться к ну-

лю, то левые концы отрезков xi−1→ x

i, а вместе с ними и x

i→ x

i.

В результате получаем

limλ→0

n∑i=1

xif(x

i)∆x

i=

b∫a

xf(x)dx.

Из этого равенства и следуетОпределение 6.5. Математическим ожиданием непрерывной

случайной величины X, возможные значения которой принадлежатотрезку [a; b], называется определенный интеграл

M(X) =

b∫a

xf(x)dx. (6.6)

В том случае, когда возможные значения непрерывной случайной вели-чины X заполняют всю числовую ось, математическое ожидание1

M(X) =

∞∫−∞

xf(x)dx. (6.7)

Определенное таким образом математическое ожидание непрерывнойслучайной величины обладает теми же свойствами 5.5-5.8, что и мате-матическое ожидание дискретной случайной величины (это объясняетсятем, что предельный переход сохраняет свойства линейности2).

Задача 6.4. Непрерывная случайная величина X задана своей функ-цией плотности

f(x) =

0, если x ≤ 0,2e−2x, если x ≥ 0.

Определите математическое ожидание X.Решение. Согласно формуле (6.7)

M(X) =

∞∫−∞

x ·2e−2xdx =

0∫−∞

x ·0dx+

∞∫0

x ·2e−2xdx = 0+2 · limb→∞

b∫0

xe−2xdx =

=

∣∣∣∣∣ u = x, du = dx,

dv = e−2xdx, v = −1

2e−2x

∣∣∣∣∣ = 2·

−1

limb→∞

xe−2x∣∣∣b0−

b∫0

e−2xdx

=

1При этом предполагается, что существует интеграл∞∫−∞

|x|f(x)dx.

2То есть предел суммы функций равен сумме их пределов (если они существуют), и константуможно выносить из под знака предела.

123

Page 125: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

= 2 ·(−1

2·(

0−(−1

2limb→∞

(e−2x

∣∣∣b0

))))=

1

2.

Следовательно, M(X) = 0, 5.

Замечание 6.4. К характеристикам положения непрерывной случай-ной величины кроме математического ожидания относятся мода и меди-ана.

Определение 6.6. Модой Mo непрерывной случайной величиныназывается ее значение, при котором плотность распределения имеетмаксимум.

Так, на рис. 6.4 Mo = c.Задача 6.5. Непрерывная случайная величина X задана своей функ-

цией плотности

f(x) =

0, если x ≤ 0,

x− x3

9, если 0 < x ≤ 3,

0, если x > 3.

Определите моду распределения случайной величины X.Решение. Согласно определению 6.6 для того, чтобы найти моду, нуж-

но определить, где находится точка максимума функции плотности. Изусловия задачи достаточно очевидно, что если такая точка есть, то она ле-жит на интервале (0; 3).

Первая производная на интервале (0; 3)

f ′(x) = 1− x2

3.

Стационарные точки производной являются решением уравнения

1− x2

3= 0.

Из двух точек x = −√

3 и x =√

3 нас интересует x =√

3. Так как вэтой точке производная меняет знак с плюса на минус1, то точка x =

√3

является точкой максимума функции плотности на рассматриваемом ин-тервале. Следовательно, заданная случайная величина X имеет моду

Mo =√

3.

Определение 6.7. Медианой2 Me непрерывной случайной вели-1Производная является квадратичной функцией, график которой − парабола, ветви которой на-

правлены вниз. В точке (√

3; 0) парабола пересекает ось абсцисс из положительной полуплоскости вотрицательную.

2Определение медианы впервые дал в 1843 году О. Курно в своей работе «Основы теории шансови вероятностей» (Exposition de la theorie des chanses et des probabilites) (cм. Курно О. Основы теориишансов и вероятностей. М. : Наука, 1970. С. 76).

Курно Антуан Огюстен (фр. Cournot Antoine Augustin, 1801-1877) − французский экономист,

124

Page 126: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

чины называется ее значение, при котором имеет место равенство

P (X < Me) = P (X > Me). (6.8)

Из определения 6.7 вытекает следствие о связи между медианойMe рас-пределения непрерывной случайной величины и интегральной функциейее распределения.

Следствие 6.3. F (Me) =1

2.

Истинность этого равенства вытекает из равенства (6.8).Перепишем это равенство подробнее.

P (−∞ < X < Me) = P (Me < X <∞).Из формулы (6.1) следует что

P (−∞ < X < Me) = F (Me), а P (Me < X <∞) = 1− F (Me).Подставляя правые части последних двух равенств в равенство (6.8),

получаем новое равенствоF (Me) = 1− F (Me),

из которого и следует истинность следствия.Замечание 6.5. Следует заметить, что это следствие можно получить

с помощью геометрии.С точки зрения геометрии, медиана− это абсцисса точки, в которой пло-

щадь, ограниченная функцией плотности, делится пополам. А так как всяплощадь, ограниченная функцией плотности и осью абсцисс равна еди-нице, то интегральная функция распределения в точке, соответствующеймедиане, равна

F (Me) = P (X < Me) = 0, 5.На рис. 6.4 медиана совпадает с модой, поэтому Me = c.

Задача 6.6. Непрерывная случайная величина X задана своей функ-цией плотности

f(x) =

0, если x ≤ 1,−6x2 + 18x− 12, если 1 < x < 2,0, если x ≥ 2.

Определите медиану распределения случайной величины X.Решение. Аналогично решению задачи 6.3 находим интегральную функ-

цию распределения заданной случайной величины

F (x) =

0, если x ≤ 1,−2x3 + 9x2 − 12x+ 5, если 1 < x < 2,1, если x ≥ 2.

философ и математик. (cм. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRK\T2A\cyru\T2A\cyrr\T2A\cyrn\T2A\cyro,_\T2A\CYRA\T2A\cyrn\T2A\cyrt\T2A\cyru\T2A\cyra\T2A\cyrn_\T2A\CYRO\T2A\cyrg\T2A\cyryu\T2A\cyrs\T2A\cyrt\T2A\cyre\T2A\cyrn (датаобращения: 12.06.2016)).

125

Page 127: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее, используя следствие 6.3, составим уравнение

−2x3 + 9x2 − 12x+ 5 =1

2.

Умножив обе части на 2 и вычтя единицу из обеих частей, получим урав-нение с целыми коэффициентами

4x3 − 18x2 + 24x− 9 = 0.Из курса элементарной алгебры известно что, если уравнение с целыми

коэфффициентами имеет рациональный корень, то числитель корня яв-ляется делителем свободного члена, а знаменатель − делителем старшего

коэффициента. На интервале (1; 2) таким числом является x =3

2.

Подставляя его вместо x в уравнение

4 ·(

3

2

)3

− 18 ·(

3

2

)2

+ 24 · 32− 9 = −27

2+

81

2− 36 + 9 = 0,

убеждаемся в том, что это число является корнем составленного уравне-ния1.

Следовательно, медиана распределения Me = 1, 5 .

Замечание 6.6. Следует заметить, что график заданной функцииплотности (рис. 6.5) изображается симметрично расположенной парабо-лой, абсцисса вершины которой определяет медиану и моду распределениязаданной функции.

x

y

01 3

2 2

y = f(x)

Рис. 6.5

6.3.2 Дисперсия непрерывной случайной величины

Дисперсия непрерывной случайной величины определяется точно так-же, как и дисперсия дискретной случайной величины.

Определение 6.8. Дисперсией непрерывной случайной величи-ны называется математическое ожидание квадрата отклонения случай-ной величины от ее математического ожидания.

1Составленное уравнение имеет еще два корня:3−√

3

3 +√

3

2. Но эти корни не могут быть

медианами распределения, так как плотность вероятности в соответствующих им точкам равна нулю.

126

Page 128: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Если возможные значения случайной величины X лежат на [a; b], то

D(X) =

b∫a

(x−M(x))2f(x)dx. (6.9)

Если же возможные значения случайной величины X заполняют всючисловую ось, то

D(X) =

∞∫−∞

(x−M(x))2f(x)dx. (6.10)

Так как математическое ожидание непрерывной случайной величиныобладает теми же свойствами, что и для дискретной, то для вычислениядисперсии используется формула (6.9)

D(X) = M(X2)− (M(X))2, (6.11)

в которой

M(X2)

=

b∫a

x2f(x)dx. (6.12)

Естественно, что сохраняются и свойства дисперсии 5.9-5.12.Точно так же, как и в случае с дискретной случайной величиной, опре-

деляется среднее квадратическое отклонение непрерывной случайной ве-личины.

Определение 6.9. Средним квадратическим отклонением не-прерывной случайной величины от ее математического ожида-ния называется квадратный корень из дисперсии этой величины.

σ(X) =√D(X). (6.13)

Задача 6.7. Случайная величина X задана интегральной функциейраспределения

F (x) =

0, при x ≤ 0,x3, при 0 < x ≤ 1,1, при x > 1.

1) Найдите функцию плотности f(x).2) Постройте график f(x);3) найдите математическое ожидание M(X);4) найдите дисперсию D(X);5) найдите среднее квадратическое отклонение σ(X).

127

Page 129: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Решение. 1) Согласно определению 6.4 f(x) = F′(x). Поэтому

f(x) =

0, при x ≤ 0,

3x2, при 0 < x ≤ 1,0, при x > 1.

2) График функции плотности на рис. 6.6 имеет следующий вид.

x

f(x)

10

3

Рис. 6.63) Так как случайная величина X определена на всей числовой прямой, тосогласно формуле (6.7) ее математическое ожидание

M(X) =

∞∫−∞

xf(x)dx =

0∫−∞

x · 0dx+

1∫0

x · 3x2dx+

∞∫1

x · 0dx =

= 0 + 3

1∫0

x3dx+ 0 =3

4x4∣∣∣10

=3

4(1− 0) = 0, 75.

4) Перед тем, как вычислить дисперсию согласно формуле (6.9), найдем

M(X2)

=

∞∫−∞

x2f(x)dx =

0∫−∞

x2 · 0dx+

1∫0

x2 · 3x2dx+

∞∫1

x2 · 0dx =

= 0 + 3

1∫0

x4dx+ 0 =3

5x5∣∣∣10

=3

5(1− 0) = 0, 6.

Так как M(X) = 0, 75, то его квадрат (M(X))2 = 0, 5625. Следовательно,

D(X) = 0, 6− 0, 5625⇒ D(X) = 0, 0375.

5) Подставляя найденное значение дисперсии в формулу (6.13), найдемсреднее квадратическое отклонение

σ(X) =√

0, 0375⇒ σ(X) = 0, 19.

Объединяя результаты 3)-5), получаем

M(X) = 0, 75; D(X) = 0, 0375; σ(X) = 0, 19.

Рассмотрим наиболее популярные в технических приложениях распре-деления вероятностей непрерывной случайной величины.

128

Page 130: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

6.4 Равномерное распределение

6.4.1 Определение и график функции плотностиравномерного распределения

Определение 6.10. Распределение вероятностей непрерывной случай-ной величины называется равномерным1, если функция плотности ве-роятностей определяется следующим образом

f(x) =

0, если x ≤ a,

1

b− a, если a < x < b,

0, если x ≥ b.

График (рис. 6.7) функции плотности равномерного распределения вы-глядит следующим образом.

x

f(x)

a b0

1b−a

Рис. 6.7

6.4.2 Интегральная функция равномерного распределения

Используя представление интегральной функции распределения (6.5),аналогично решению задачи 6.3 построим интегральную функцию равно-мерного распределения непрерывной случайной величины X.

Область определения функции плотности является объединением трехинтервалов

(−∞;∞) = (−∞; a] ∪ (a; b) ∪ [(b;∞),1. Предположим что x ∈ (−∞; a]. В этом случае f(x) = 0. Тогда

x∫−∞

f(t)dt =

x∫−∞

0dt = 0.

2. Допустим что x ∈ (a; b). Следовательно,x∫

−∞

f(t)dt =

a∫−∞

0dt+

x∫a

dt

b− a= 0 +

t

b− a

∣∣∣∣∣x

a

=x− ab− a

.

1Равномерное распределение было впервые рассмотрено в 1767 году Т. Байесом в его работе «Очеркик решению проблемы доктрины шансов» (Essay towards solving a Problem in the Doctrine of Chances),а затем в 1809 году К. Ф. Гауссом в работе «Теория движения небесных тел» (Theory of the Motionof Heavenly Bodies moving around the Sun in Conic Sections) (cм. Earliest Known Uses of Some of theWords of Mathematics (U) [Электронный ресурс] : URL : http://jeff560.tripod.com/u.html (датаобращения: 12.06.2016)).

129

Page 131: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

3. Пусть x ∈ [b; ∞; ). Поэтомуx∫

−∞

f(t)dt =

a∫−∞

0dt+

b∫a

dt

b− a+

∞∫b

0dt = 0 + 1 + 0 = 1.

Объединяя результаты пунктов 1-3, получаем представление интеграль-ной1 функции равномерного распределения непрерывной случайной величи-ны X

F (x) =

0, если x ≤ a,x− ab− a

, если a < x < b,

1, если x ≥ b.

(6.14)

Построим график (рис. 6.8) интегральной функции равномерного рас-пределения.

x

F (x)

a b0

1

Рис. 6.8Далее определим числовые характеристики равномерного распределе-

ния.

6.4.3 Математическое ожидание равномерного распределения

Так как график функции плотности вероятностей непрерывной равно-мерно распределенной случайной величины X симметричен относительносередины интервала (a; b), то математическое ожидание2

M(X) =a+ b

2. (6.15)

6.4.4 Дисперсия равномерного распределения

Для вычисления дисперсии равномерного распределения воспользуемсяформулой (6.11). Вычислим сначала

M(X2) =

∞∫−∞

x2f(x)dx =

a∫−∞

x2 · 0dx+

b∫a

x2dx

b− a+

∞∫b

x2 · 0dx =

1Как и в задаче 6.3, не мешает убедиться в том, что полученная функция действительно непрерывна.Для этого нужно вычислить односторонние пределы в точках x = a и x = b. Попробуйте эту проверкувыполнить самостоятельно.

2Конечно, математическое ожидание можно найти и с помощью самой функции плотности поформуле (6.7).

130

Page 132: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

=1

3(b− a)x3∣∣∣ba=

b3 − a3

3(b− a)=b2 + ba+ a3

3.

Далее вычислим разность

M(X2)−M 2(X) =b2 + ba+ a3

3−(a+ b

2

)2

=

=4b2 + 4ba+ 4a2 − 3a2 − 6ab− 3b2

12=b2 − 2ba+ a2

12.

«Сворачивая» числитель последней дроби с помощью формулы квадратразности, получаем формулу вычисления дисперсии равномерного распре-деления

D(X) =(b− a)2

12. (6.16)

6.4.5 Среднее квадратическое отклонение равномерного распределения

Зная дисперсию равномерного распределения, можно с помощью форму-лы (6.13) вычислить среднее квадратическое отклонение данного распре-деления. Извлекая квадратный корень из дисперсии, получаем

σ(X) =b− a2√

3. (6.17)

Замечание 6.7. Из формул (6.15)-(6.17) видно что, зная параметрыравномерного распределения a и b, можно получить все числовые характе-ристики распределения.

Но можно и наоборот, зная, например,математическое ожиданиеM(X)и среднее квадратическое отклонение σ(X), решить обратную задачу опре-деления параметров распределения.

Для этого достаточно составить и решить следующую систему уравне-ний

a+ b

2= M(X),

b− a2√

3= σ(X).

Рассмотрим решение задач, связанных с равномерным распределением.Задача 6.8. Цена деления шкалы вольтметра 0, 2 V. Показания вольт-

метра округляют до ближайшего целого деления. Найдите вероятностьтого, что допущенная ошибка превысит 0, 04 V.

Решение. Предположим, что случайная величинаX есть ошибка округ-ления, которая распределена равномерно между целыми показаниями шка-лы вольтметра.

131

Page 133: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Ошибка округления превысит 0, 04, если истинные показания вольтмет-ра окажутся в диапазоне (0, 04; 0, 2−0, 04). Следовательно, нужно опреде-лить вероятность того, что случайная величина будет принимать значенияиз этого интервала.

Так как интегральная функция равномерного распределения определя-ется представлением (6.14), (в котором a = 0, а b = 0, 2) то, опираясь наформулу вычисления вероятности (6.1) попадания значений случайной ве-личины в заданный интервал, имеем

P (0, 04 < X < 0, 16) =0, 16− 0

0, 2− 0− 0, 04− 0

0, 2− 0⇒ P (0, 04 < X < 0, 16) = 0, 6.

Таким образом,вероятность того, что допущеннаяошибка превысит 0, 04 V равна 0, 6.

Задача 6.9. В некотором городе трамвай ходит по расписанию синтервалом 10 минут. Какова вероятность того, что пассажир, подо-шедший к остановке, будет ожидать трамвай более двух минут?

Решение. Пусть случайная величина Y определяет время ожиданиятрамвая. Пассажир будет ожидать трамвай более двух минут, если он по-дойдет к остановке в течение первых восьми минут после ухода очередноготрамвая, то есть в интервале времени (0; 8).

Поскольку случайная величина Y в данном случае распределена по рав-номерному закону с параметрами a = 0 и b = 10, то, используя формулы(6.14) и (6.1), получаем

P (0 < X < 8) =8− 0

10− 0− 0− 0

10− 0⇒ P (0 < X < 8) = 0, 8.

В заключение отметим, что в реальных условиях равномерное распре-деление вероятностей случайной величины может встречаться при анали-зе ошибок округления при проведении числовых расчетов (такая ошибка,как правило, оказывается равномерно распределенной на интервале от −5до +5 единиц округляемого десятичного знака) или при определении вре-мени ожидания обслуживания при точно периодическом через каждые Тединиц времени включении обслуживающего устройства, когда заявка наобслуживание поступает случайно в этом интервале.

132

Page 134: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

6.5 Нормальное распределение

6.5.1 Определение и график функции плотностинормального распределения

Определение 6.11. Распределение вероятностей непрерывной случай-ной величины называется нормальным1 или распределением Гаусса,если функция плотности вероятностей определяется следующим обра-зом

f(x) =1

σ√

2πe

−(x− a)2

2σ2

(6.18)

Чтобы построить график функции плотности нормального распределе-ния нужно вспомнить элементы исследования функции из математическо-го анализа.

Очевидно, что область определения Df = (−∞; ∞).Рассмотрим поведение функции на границах области определения, вычис-лив следующие пределы:

limx→−∞

1

σ√

2πe

−(x− a)2

2σ2

= 0; limx→∞

1

σ√

2πe

−(x− a)2

2σ2

= 0.

Так как в бесконечности функция стремится к нулю, то график функцииимеет горизонтальную асимптоту y = 0, совпадающую с осью абсцисс.Далее вычислим первую производную функции и найдем с ее помощьюинтервалы возрастания (убывания) и точки экстремума2.

1

σ√

e−(x− a)2

2σ2

= − 1

σ√

2πe

−(x− a)2

2σ2

· 2(x− a)

2σ2.

Следовательно, f ′(x) = − x− aσ3√

2πe

−(x− a)2

2σ2

.

Приравнивая производную нулю, вычислим стационарную точку первойпроизводной

1Впервые идея нормального распределения появляется во втором издании «Доктрины шансов»(The Doctrine of Chances) А. де Муавра, изданном в 1738 году, долгое время оставаясь малоизвест-ным фактом. В 1809 в работе «Теория движения небесных тел» (Theoria motus corporum coelestiumin sectionibus conicis solem ambientium) К. Гаусс дал первое определение нормального закона рас-пределения (см. Википедия [Электронный ресурс] : URL : https://en.wikipedia.org/wiki/Normal_distribution#History (дата обращения: 12.06.2016)).

2Если они, конечно, есть.

133

Page 135: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

f ′(x) = 0⇒ x− a = 0⇒ x = a.Так как знаменатель дроби и множитель-экспонента положительны, то

знаки первой производной определяются линейным числителем x− a.

xf ′(x)

f(x) a

+ −

Рис. 6.9

Из рис. 6.9 видно, что на интервале от минус бесконечности до a функциявозрастает, а на интервале от a до плюс бесконечности она убывает. Поэто-му в точке x = a функция имеет максимум1, который равен

f(a) =1

σ√

2π.

Для исследования функции на выпуклость нам понадобится вторая про-изводная.

− 1

σ3√

(x− a)e

−(x− a)2

2σ2

=

− 1

σ3√

e−(x− a)2

2σ2

− (x− a)2(x− a)

2σ2e

−(x− a)2

2σ2

=

= − 1

σ3√

(1− (x− a)2

σ2

)e

−(x− a)2

2σ2

.

Таким образом,

f ′′(x) = − 1

σ3√

(1− (x− a)2

σ2

)e

−(x− a)2

2σ2

.

Найдем стационарные точки второй производной. Вторая производ-ная обращается в нуль только тогда, когда в нуль обращается скобка-сомножитель.

1− (x− a)2

σ2= 0⇒ (x− a)2 − σ2 = 0⇒ (x− a− σ)(x− a+ σ) = 0.

Следовательно, вторая производная имеет две стационарные точки1То, что эта функция имеет максимум, можно было догадаться из положительности экспоненты и

стоящей перед ней дроби. А то, что этот максимум будет в точке x = a, можно было определить изсимметрии функции относительно этой точки ((−(x− a))2 = (x− a)2).

К сожалению, исследование на выпуклость графика так просто провести не удастся.

134

Page 136: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

x1 = a− σ и x2 = a+ σ,симметрично расположенные относительно точки максимума x = a.

Так как первый и третий сомножители на знак второй производной невлияют, то ее знаки полностью определяются квадратным трехчленом, сто-ящим в скобках и представляющим разность квадратов (а также знаком«минус» в представлении второй производной). Графиком этого трехчленаявляется парабола, ветви которой направлены вверх. Исходя из этого, мыимеем следующее чередование знаков второй производной (рис. 6.10).

xf ′′(x)

f(x) x1 x2

+ − +

Рис. 6.10

Таким образом, график функции плотности нормального распределе-ния имеет две точки перегиба, отделяющие интервалы выпуклости вниз отинтервала выпуклости вверх.Значения функции в точках перегиба равны

f(a− σ) =1

σ√

2eπ; f(a+ σ) =

1

σ√

2eπ.

Теперь мы имеем достаточно информации, чтобы построить схематическийграфик функции плотности вероятностей нормального распределения.

x

f(x)

ax1 x2

1

σ√

2eπ

1

σ√

Рис. 6.11

Из рис. 6.11 очевидно, что мода нормального распределения Mo = a(см. определение 6.6). А так как график функции плотности симметриченотносительно прямой x = a, то площадь криволинейной трапеции слеваот прямой x = a равна площади криволинейной трапеции справа от этойпрямой. В силу этого согласно формуле (6.4)

P (X < a) = P (X > a).Поэтому из определения 6.7 следует, что медиана нормального распределе-ния

Me = a.

135

Page 137: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Поскольку в неотрицательности функции f(x) сомневаться не прихо-дится, то осталось убедиться (см. свойство 6.2) в том, что

∞∫−∞

f(x)dx = 1.

Подставив функцию плотности в интеграл, выполним следующие преоб-разования:

1

σ√

∞∫−∞

e

−(x− a)2

2σ2

dx =

∣∣∣∣∣x− aσ

= t,

dx = σdt

∣∣∣∣∣ =1√2π

∞∫−∞

e

−t2

2dt.

Так как функция, стоящая под интегралом четная, а пределы интегриро-вания симметричны относительно начала координат, то1

1√2π

∞∫−∞

e

−t2

2dt =

2√2π

∞∫0

e

−t2

2dt.

Интеграл2

∞∫0

e

−t2

2dt =

√2

∞∫0

e

−t2

2d

(t√2

)=√

2

∞∫0

e−z2

dz =√

2

√π

2=

√π

2.

Подставляя полученное значение вместо интеграла в предыдущую строчку,убеждаемся в том, что

1

σ√

∞∫−∞

e

−(x− a)2

2σ2

dx = 1. (6.19)

6.5.2 Нормированное нормальное распределение

Так как параметры a и σ нормального распределения тесно связаныс метрическими единицами, используемыми в исследовании, и с масшта-бом изображения, то это оказывает большое влияние на общность любогопроводимого исследования. Чтобы этого избежать, прибегают к процессу

1См., например, Бидерман В. И. Математика: элементы математического анализа. Хабаровск : Изд-во Тихоокеан. гос. ун-та, 2013. С. 146.

2Интеграл∞∫

0

e−z2

dz называется интегралом Эйлера-Пуассона. Впервые был вычислен Л. Эйлером

в 1729 году. Позднее С. Д. Пуассон нашел более простой способ его вычисления. Более подробно см.Зорич В. А. Математический анализ. Ч. II. М. : Наука, 1984. С. 424.

136

Page 138: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

нормирования1.Определение 6.12. Нормальное распределение вероятностей непре-

рывной случайной величины называется нормированным, если парамет-ры распределения фиксируют следующим образом:

a = 0, σ = 1.В этом случае функция плотности приобретает более компактный видфункции Гаусса, с которой мы уже встречались ранее2,

fN

(x) =1√2π

e

−x2

2, (6.20)

а само нормированное нормальное распределение часто обозначаетсяN(x; 0; 1).График функции плотности нормированного произведения симметриченотносительно оси OY и выглядит так (рис. 6.12):

x

fN

(x)

−1 1

1√2eπ

1√2π

Рис. 6.12

Нормирование необходимо для того, чтобы закономерности нормаль-ного распределения привязать к универсальным единицам измерения слу-чайной величины − среднеквадратическим (стандартным) отклонениям.После нормирования случайное значение оказывается не просто наблюдае-мой величиной (размер исследуемой величины, например), а отклонениемот средней арифметической (которая равна нулю), измеряемым в средне-квадратических отклонениях, что приводит к так называемому правилутрех сигм, которое мы рассмотрим ниже.

6.5.3 Интегральная функция нормального распределения

С помощью представления (6.5) определим интегральную функцию нор-мированного нормального распределения вероятностей

1Эта ситуация имеет аналогию в школьной программе, когда классическую теорему Пифагора,тесно связанную с квадратами единиц измерения, заменяют на безразмерные синус и косинус, разделивна квадрат длины гипотенузы обе части известного равенства.

2См. «Схема Бернулли» (с. 54).

137

Page 139: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

FN

(x) =1√2π

x∫−∞

e

−t2

2dt. (6.21)

Очевидно, что при x→ −∞ FN

(x)→ 0. А при x→∞ из равенства (6.19)вытекает что F

N(x) → 1. Таким образом, прямые y = 0 и y = 1 являются

горизонтальными асимптотами графика FN

(x).Из рис. 6.12 очевидно, что медиана Me = 0. Поэтому для нормирован-

ного нормального распределения FN

(0) =1

2(см. следствие 6.3).

Чтобы определить значения функции FN

(x) выполним следующее пре-образование

x∫−∞

e

−t2

2dt =

0∫−∞

e

−t2

2dt+

x∫0

e

−t2

2dt.

Подставляя полученное разложение в формулу (6.21), имеем

FN

(x) =1√2π

0∫−∞

e

−t2

2dt+

1√2π

x∫0

e

−t2

2dt.

Присмотревшись внимательно, можно увидеть, что второй интеграл вполученной сумме представляет интегральную функцию Лапласа1

Φ(x) =

x∫0

e

−t2

2dt.

Первый же интеграл суммы с точки зрения геометрии определяет пло-щадь криволинейной трапеции, расположенной слева от оси ординат нарис. 6.12. А так как эта площадь передставляет в силу симметрии полови-ну площади всей криволинейной трапеции на этом рис., то

0∫−∞

e

−t2

2dt =

1

2.

Поэтому

FN

(x) =1

2+ Φ(x).

Используя таблицу значений интегральной функции Лапласа (прил. 2),1См. «Схема Бернулли» (с. 54).

138

Page 140: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

построим схематический график интегральной функции нормированногораспределения нормальной случайной величины (рис. 6.13).

x

FN

(x)

a

12

Рис. 6.13

Рассмотрим интегральную функцию ненормированного нормального ра-спределения

F (x) =1

σ√

x∫−∞

e

−(t− a)2

2σ2

dt.

Выполнив заменуt− aσ

= z, получим dt = σdz. При этом нижний предел

интегрирования не изменится, а верхний примет новое значениеx− aσ

. Со-ответственно интегральная функция распределения примет новый вид

F (x) =1√2π

x−aσ∫

−∞

e

−z2

2dz.

Далее с помощью интегральной функции Лапласа ее можно переписать ввиде

F (x) =1

2+ Φ

(x− aσ

).

При построении графика F (x) (рис. 6.14) с помощью графика на рис.6.13 нужно учесть, что новый график не только сместится на a вдоль оси

абсцисс, но и деформируется1 за счет коэффициента1

σ.

x

F (x)

a

1

12

Рис. 6.14

1Отразить на графике смещение по отношению к графику интегральной функции нормированного

нормального распределения, связанное с коэффициентом1

σ, без введения масштаба достаточно слож-

но, поэтому построение более точного графика при конкретных σ оставляем читателям в качествесамостоятельной работы.

139

Page 141: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее определим числовые характеристики нормального распределения.

6.5.4 Математическое ожидание нормального распределения

Используя формулу (6.7), докажем теорему.Теорема 6.1. Математическое ожидание нормально распределенной

непрерывной случайной величины равно параметру a.Д о к а з а т е л ь с т в о. Вычислим значение интеграла

1

σ√

∞∫−∞

xe

−(x− a)2

2σ2

dx =

∣∣∣∣∣∣∣x− aσ

= t;

x = σt+ a;dx = σdt

∣∣∣∣∣∣∣ =

=1

σ√

∞∫−∞

(σt+ a)e

−t2

2σdt =

1√2π

σ∞∫

−∞

te

−t2

2dt+ a

∞∫−∞

e

−t2

2dt

.

Первый интеграл в скобке является интегралом от нечетной функции ссимметричными пределами интегрирования, поэтому он равен нулю1.

Второй интеграл в скобке есть интеграл Эйлера-Пуассона (см. сноскуна с. 133), поэтому он равен

√2π.

Таким образом, после сокращения значения интеграла Пуассона-Эйлерасо знаменателем дроби перед скобками, получаем, что математическоеожидание нормально распределенной случайной величины

M(X) = a. (6.22)

6.5.5 Дисперсия нормального распределения

Используя формулу вычисления дисперсии (6.10), докажем следующуютеорему.

Теорема 6.2. Дисперсия нормально распределенной непрерывной слу-чайной величины равна σ2.

Д о к а з а т е л ь с т в о. С помощью аналогичной техники заменыпеременной в интеграле, полагая M(X) = a, вычислим интеграл

1

σ√

∞∫−∞

(x− a)2e

−(x− a)2

2σ2

dx =

∣∣∣∣∣∣∣x− aσ

= t;

x = σt+ a;dx = σdt

∣∣∣∣∣∣∣ =1

σ√

∞∫−∞

σ2t2e

−t2

2σdt.

1См., например, Бидерман В. И. Указ. соч. С. 145.

140

Page 142: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

После вынесения σ3 за знак интеграла представим подынтегральную функ-цию в виде произведения сомножителей

t2e

−t2

2= t · te

−t2

2.

Так какtdt =

1

2d(t2) =

1

2· 2d

(t2

2

),

воспользуемся далее формулой интегрирования по частям

σ2

√2π

∞∫−∞

t2e

−t2

2dt =

∣∣∣∣∣∣∣u = t; du = dt;

dv = te

−t2

2dt; v = −e

−t2

2

∣∣∣∣∣∣∣ =

=σ2

√2π

−t · e−t2

2∣∣∣∣∣∞

−∞

−∞∫

−∞

e

−t2

2dt

.

Подстановка1

t · e−t2

2∣∣∣∣∣∞

−∞

= limb→∞

b

eb22

− lima→−∞

a

ea22

=(∞∞

)−(−∞∞

)=

= limb→∞

1

beb22

− lima→−∞

1

aea22

=

(1

)+

(1

)= 0 + 0 = 0.

Интеграл, стоящий в скобках, является уже знакомым интегралом Пуас-сона-Эйлера и поэтому равен

√2π.

Умножив дробь, стоящую перед скобками, на значение интеграла Пуас-сона-Эйлера, убеждаемся в истинности утверждения теоремы о том, чтодисперсия нормально распределенной случайной величины

D(X) = σ2. (6.23)

6.5.6 Среднее квадратическое отклонение нормальногораспределения

Зная дисперсию нормального распределения, можно с помощью форму-лы (6.13) вычислить среднее квадратическое отклонение данного распре-деления. Извлекая квадратный корень из дисперсии, получаем

σ(X) = σ. (6.24)1Здесь при вычислении пределов используется правило Лопиталя − Бернулли (см., например, Би-

дерман В. И. Указ. соч. С. 81).

141

Page 143: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Замечание 6.8. Из формул (6.22)-(6.24) видно, что, зная параметрынормального распределения a и σ, мы одновременно знаем его числовыехарактеристики. Так, например, вид функции плотности

f(x) =1

6√

2πe

−(x+ 1)2

72

позволяет сказать1, что математическое ожидание M(X) = −1, среднееквадратическое отклонение σ(X) = 6, а дисперсия D(X) = 36.

6.5.7 Вероятность попадания нормально распределеннойслучайной величины в заданный интервал

Предположим что непрерывная случайная величина X распределена понормальному закону с параметрами a и σ, а Φ(x) − интегральная функцияЛапласа. При этих условиях справедлива следующая

Теорема 6.3. Вероятность попадания нормально распределенной слу-чайной величины X в заданный интервал (α; β) определяется равенством

P (α < X < β) = Φ

(β − aσ

)− Φ

(α− aσ

). (6.25)

Д о к а з а т е л ь с т в о. Согласно предположениям распределениеслучайной величины X имеет своей функцией плотности вероятностей

f(x) =1

σ√

2πe

−(x− a)2

2σ2

.

Тогда из формулы (6.4) следует, что

P (α < X < β) =1

σ√

β∫α

e

−(x− a)2

2σ2

dx.

Используя стандартную замену

t =x− aσ

, x = σt+ a, dx = σdt,

введем новые пределы интегрирования

tн =α− aσ

, tв =β − aσ

.

и, сократив σ, подставим в представление для вероятности

P (α < X < β) =1√2π

β−aσ∫

α−aσ

e

−t2

2σ2

dt.

1В формуле (6.18) x− a = x+ 1 = x− (−1), а 2σ2 = 72 = 2 · 36 = 2 · 62.

142

Page 144: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее, используя аддитивность отрезка интегрирования, представим инте-грал в виде суммы

β−aσ∫

α−aσ

e

−t2

2σ2

dt =

0∫α−aσ

e

−t2

2σ2

dt+

β−aσ∫

0

e

−t2

2σ2

dt.

Так какR∫r

ϕ(t)dt = −r∫

R

ϕ(t)dt,

то, поменяв пределы интегрирования в первом слагаемом местами, полу-чим

β−aσ∫

α−aσ

e

−t2

2σ2

dt =

β−aσ∫

0

e

−t2

2σ2

dt−

α−aσ∫

0

e

−t2

2σ2

dt. .

Учитывая, что каждый из интегралов в правой части является значениеминтегральной функции Лапласа в точке соответствующего верхнего пре-дела интеграла, имеем требуемое равенство

P (α < X < β) = Φ

(β − aσ

)− Φ

(α− aσ

).

6.5.8 Вероятность отклонения нормально распределеннойслучайной величины от ее центра рассеивания

Пусть центр рассеивания нормально распределенной случайной вели-чины X равен a, а ее среднее квадратическое отклонение равно σ. Тогдаотклонение случайной величины от ее центра рассеивания меньше чем наδ можно записать в виде неравенства1

|X − a| < δ.Сформулируем и докажем следующую теоремуТеорема 6.4. Вероятность отклонения случайной величины X от ее

центра рассеивания a меньше чем на δ равна удвоенному значению ин-тегральной функции Лапласа от отношения δ к среднеквадратическомуотклонению σ.

То есть

P (|X − a| < δ) = 2Φ

σ

). (6.26)

1Здесь δ > 0.

143

Page 145: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Д о к а з а т е л ь с т в о. Неравенство, определяющее отклонение,более подробно можно переписать, сняв знак модуля,

a− δ < X < a+ δ.Полагая в условиях предыдущей теоремы 6.3 α = a − δ, а β = a + δ,воспользуемся равенством (6.25)

P (a− δ < X < a+ δ) = Φ

(a+ δ − a

σ

)− Φ

(a− δ − a

σ

).

Далее, приведя подобные, имеем

P (a− δ < X < a+ δ) = Φ

σ

)− Φ

(− δσ

).

Учитывая, что функция Φ(x) является нечетной и поэтому Φ(−x)=-Φ(x),получаем требуемое утверждение

P (a− δ < X < a+ δ) = 2Φ

σ

).

6.5.9 Правило трех сигм

Исследование вероятности попадания значений нормально распределен-ной случайной величины в определенный интервал зависит от характе-ристики рассеивания случайной величины. Это связано как с единицамиизмерения данной величины, так и с тем, что одни случайные величинытеснее группируются вокруг среднего значения, а другие более разброса-ны.

Универсальной характеристикой рассеивания является величина сред-него квадратического отклонения σ.

Посмотрим, как будет выглядеть вероятность отклонения значений слу-чайной величины от среднего значения a, если измерять это отклонение «всигмах».

Пусть в равенстве (6.26) отклонение δ = tσ (здесь t − коэффициенткратности). Тогда равенство (6.26) можно будем переписать так

P (|X − a| < tσ) = 2Φ(t). (6.27)

Далее, выбирая поочередно t равным 1, 2, 3, выясним, как располагают-ся значения нормально распределенной случайной величины относительносвоего среднего значения.

Пусть t = 1. ТогдаP (|X − a| < σ) = 2Φ(1).

Из таблицы значений интегральной функции Лапласа (прил. 2) известно,что Φ(1) = 0, 3413. Поэтому

P (|X − a| < σ) = 2 · 0, 3413⇒ P (|X − a| < σ) = 0, 6826.

144

Page 146: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

То есть 68,26% значений нормально распределенной случайной величинырасполагаются от ее математического ожидания на расстоянии, меньшемчем «сигма».

Предположим, что t = 2. Подставив его в формулу (6.27), находимP (|X − a| < 2σ) = 2Φ(2).

Из таблицы значений интегральной функции Лапласа (прил. 2) можно най-ти Φ(2) = 0, 4772. Поэтому

P (|X − a| < 2σ) = 2 · 0, 4772⇒ P (|X − a| < 2σ) = 0, 9544.То есть 95,44% значений нормально распределенной случайной величины

располагаются от ее математического ожидания на расстоянии, меньшемчем два «сигма».

Выберем t = 3. В этом случаеP (|X − a| < 3σ) = 2Φ(3).

Из таблицы значений интегральной функции Лапласа (прил. 2) мы знаем,что Φ(3) = 0, 49865. Следовательно,

P (|X − a| < 3σ) = 2 · 0, 49865⇒ P (|X − a| < 3σ) = 0, 9973.То есть 99,73% значений нормально распределенной случайной величины

располагаются от ее математического ожидания на расстоянии, меньшемчем три «сигма».

Это означает, что только 0,27% значений случайной величины отклоня-ются от ее математического ожидания на расстояние, большее чем три«сигма».

События со столь малой вероятностью считаются практически невоз-можными. Поэтому в практических исследованиях при неизвестном рас-пределении случайной величины, если случайная величина отклоняется отсреднего значения не более чем на три среднеквадратических отклонения,считают, что есть основания предполагать, что случайная величина рас-пределена по нормальному закону. Иначе, это предположение отвергают.

В заключение сформулируем следующее правило трех сигм:Если случайная величина распределена по нормальному закону, то модульее отклонения от математического ожидания не превышает утроенно-го среднего квадратического отклонения.

6.5.10 Примеры решения задач, связанных с нормальным распределением

Задача 6.10. Длина X некоторой детали представляет собой случай-ную величину, распределенную по нормальному закону распределения, иимеет среднее значение 20 мм и среднее квадратическое отклонение −0,2 мм.

Найдите:

145

Page 147: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

а) выражение плотности распределения;б) вероятность того, что длина детали будет заключена между

19,7 и 20,3 мм;в) вероятность того, что величина отклонения не превышает 0,1 мм;г) какой процент составляют детали, отклонение которых от среднего

значения не превышает 0,1 мм;д) каким должно быть задано отклонение, чтобы процент деталей,

отклонение которых от среднего не превышает заданного, повысилсядо 54%;

е) интервал, симметричный относительно среднего значения, в которомбудет находиться X с вероятностью 0,95.Решение

Из условия задачи для всех вопросов общими являются a = 20, σ = 0, 2.а) Прежде чем подставить значения a = 20 и σ = 0, 2 в функцию плотно-сти вероятностей нормального распределения (см. 6.18), вычислим

2σ2 = 2 · (0, 2)2 ⇒ 2σ2 = 0, 08.

Подставляя данные и найденное значения в представление (6.18), имеем

f(x) =1

0, 2 ·√

2πe

−(x− 20)2

0, 08.

б) Из условия задачи согласно формуле (6.25) β = 20, 3, α = 19, 7. Поэтомупосле подстановки в формулу (6.25) имеем

Φ

(20, 3− 20

0, 2

)− Φ

(19, 7− 20

0, 2

)= Φ

(0, 3

0, 2

)− Φ

(−0, 3

0, 2

)=

= 2Φ

(3

2

)= 2Φ(1, 5) = 2 · 0, 4332 = 0, 8664.

(Значение Φ(1, 5) = 0, 4332 взято в таблице значений интегральной функ-ции Лапласа (прил. 2)).в) Из условия задачи согласно формуле (6.26) δ = 0, 1. Таким образом,после подстановки в формулу (6.26) имеем

P (|X − 20| < 0, 1) = 2Φ

(0, 1

0, 2

)= 2Φ(0, 5) = 2 · 0, 1915 = 0, 383.

(Значение Φ(0, 5) = 0, 1915 взято в таблице значений интегральной функ-ции Лапласа (прил. 2)).г) Из ответа на вопрос в) известно, что вероятность при отклонении меньше0,1 мм равна 0,383. Следовательно, из 100 деталей в среднем 38,3 деталибудут иметь такое же отклонение. Поэтому 38% деталей имеют подобноеотклонение.

146

Page 148: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

д) Так как процент отклонения составляет 54%, то из формулы (6.26) вы-текает следующее уравнение

P (|X − 20| < δ) = 0, 54.Сравнивая правую часть полученного уравнения с правой части формулы

(6.26) P (|X − 20| < δ) = 2Φ

0, 2

),

получаем новое уравнение

0, 2

)= 0, 54.

Откуда следует, что

Φ

0, 2

)= 0, 27.

Просматривая в таблице значения интегральной функции Лапласа (прил.2), находим, что 0, 27 = Φ(0, 74). Поэтому

δ

0, 2= 0, 74⇒ δ = 0, 74 · 0, 2⇒ δ = 0, 148.

Следовательно, для повышения до 54 процентов числа деталей, для ко-торых отклонение от среднего не превышало заданного, необходимо, чтобыотклонение равнялось бы 0,148 мм.e) Так как интервал, в котором будут находится значения нормально рас-пределенной случайной величины X, симметричен относительно среднегозначения a = 20, то его можно описать с помощью двойного неравенства

20− δ < X < 20 + δ

или с помощью неравенства с модулем|X − 20| < δ.

Дальнейшее решение совпадает с ответом на вопрос д) при условии заменычисла 0,54 на 0,95. Поэтому составляем уравнение

0, 2

)= 0, 95.

Из которого следует, что

Φ

0, 2

)= 0, 475.

С помощью таблицы значений интегральной функции Лапласа (прил. 2),находим, что 0, 475 = Φ(1, 96). Поэтому

δ

0, 2= 1, 96⇒ δ = 1, 96 · 0, 2⇒ δ = 0, 392.

В итоге, искомый интервал определяется так(20− 0, 392; 20 + 0, 392).

Следовательно, интервал (19, 608; 20, 392), в котором будет находится

147

Page 149: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

X, симметричен относительно среднего значения.Задача 6.11. Автомат изготавливает детали, которые отделом

технического контроля считаются стандартными, если отклонение Xот контрольного размера не превышает 0,8 мм. Каково наиболее вероят-ное число стандартных деталей среди изготовленных 150 деталей, еслислучайная величина X распределена по нормальному закону с σ = 0, 4 мм?

Решение. Полагая в формуле (6.26) δ = 0, 8 и σ = 0, 4, вычислим ве-роятность отклонения X от контрольного размера a

P (|X − a| < 0, 8) = 2Φ

(0, 8

0, 4

)⇒ P (|X − a| < 0, 8) = 2Φ(2).

Из таблицы значений интегральной функции Лапласа (прил. 2) следует,что Φ(2) = 0, 4772. Поэтому

P (|X − a| < 0, 8) = 2 · 0, 4772⇒ P (|X − a| < 0, 8) = 0, 9544.Округлив это число до сотых, будем считать P = 0, 95. Так как q = 1−P ,

то q = 0, 05.Из схемы Бернулли (см. определение 4.1) известно, что наивероятней-

шее число наступлений событияnP − q ≤ m ≤ nP + P .

По условию n = 150. Подставляя данные в двойное неравенство

150 · 0, 95− 0, 05 ≤ m ≤ 150 · 0, 95 + 0, 95,

после арифметических вычислений получаем142, 45 ≤ m ≤ 143, 45.

Следовательно, наиболее вероятное число стандартных деталей средиизготовленных 150 деталей равно 143.

Задача 6.12. Рост взрослого человека является случайной величи-ной, распределенной по нормальному закону. Согласно статистике сред-нее значение роста взрослого шведа − 178 см, а среднее квадратическоеотклонение − 6 см. Определите вероятность того, что хотя бы один извстреченных пяти взрослых шведов имеет рост от 175 см до 185 см.

Решение. Из условия задачи согласно формуле (6.25) a = 178, σ = 6,β = 185, α = 175.

Подставим данные значения в указанную формулу

Φ

(185− 178

6

)− Φ

(175− 178

6

)= Φ

(7

6

)− Φ

(−3

6

)=

= Φ(1, 16) + Φ(0, 5) = 0, 3770 + 0, 1915 = 0, 5685.

(Значения Φ(1, 16) = 0, 3770 и Φ(0, 5) = 0, 1915 взяты в таблице значенийинтегральной функции Лапласа (прил. 2). Учтено так же, что

148

Page 150: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Φ(−x) = −Φ(x).)Следовательно, вероятность того, что рост взрослого шведа меньше

175 см и больше 185 см, q = 1− 0, 5685. То есть q = 0, 4315.Вычислим вероятность Q того, что ни один из встреченных пяти взрослыхшведов не имеет рост от 175 см до 185 см.

Q = q5 ⇒ Q = (0, 4315)5 ⇒ Q = 0, 015.Так как данное событие является противоположным искомому, то нужнаявероятность

P = 1−Q⇒ 1− 0, 015⇒ Q = 0, 985.

Таким образом,вероятность того, что хотя бы один из встреченныхпяти взрослых шведов имеет рост от 175 см до 185 смравна 0,985.

Задача 6.13. Браковка шариков для подшипников происходит сле-дующим образом: если шарик не проходит в отверстие диаметром d1,но проходит в отверстие диаметром d2 (d1 < d2), то он считаетсястандартным. Если хотя бы одно из этих условий не выполнено, ша-рик отправляется в брак. Диаметр шарика d является случайной ве-личиной X, распределенной по нормальному закону с характеристиками

M(X) =d1 + d2

2и σ(X) =

d2 − d1

4. Определите вероятность того, что

случайно выбранный шарик будет забракован.

Решение. Из условия задачи согласно формуле (6.25)

a =d1 + d2

2, σ =

d2 − d1

4, β = d2, α = d1.

С помощью формулы (6.25) вычислим вероятность стандартности ша-рика

P (d1 < X < d2) = Φ

(d2 − aσ

)− Φ

(d1 − aσ

).

Так какd2 − a = d2 −

d1 + d2

2=d2 − d1

2, то

d2 − aσ

=d2 − d1

2:d2 − d1

4= 2.

Аналогично, вычислив

d1 − a = d1 −d1 + d2

2=d1 − d2

2,

найдемd1 − aσ

=d1 − d2

2:d2 − d1

4= −2.

Подставляя найденные значения аргументов в правую часть формулы для

149

Page 151: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

вероятности, имеем

Φ(2)− Φ(−2) = 2Φ(2) = 2 · 0, 4772 = 0, 9544.

Следовательно, P (d1 < X < d2) = 0, 9544.

Так как нас интересует противоположное событие, то его вероятность Pопределяется вычитанием из единицы полученного значения.

Поэтому P = 1− 0, 9544⇒ P = 0, 0456.

В итоге, имеем вероятность того, что случайно выбранный шарикбудет забракован, равна 0,0456.

6.5.11 О роли нормального закона в теории вероятностей и ее приложениях

Нормальный закон распределения, или закон Гаусса, является наибо-лее часто встречающимся на практике законом распределения. Объясне-ние этому дает следующая теорема, которую сформулируем без доказа-тельства.

Теорема 6.5. Центральная предельная теорема Если случайнаявеличина X представляет собой сумму очень большого числа взаимнонезависимых случайных величин, влияние каждой из которых на всюсумму ничтожно мало, то X имеет распределение, близкое к нормаль-ному1.

1Формулировка А. М. Ляпунова.История доказательства центральной предельной теоремы связана с работами большого числа

математиков, среди которых можно выделить П. С. Лапласа, А. Муавра, П. Л. Чебышева, А. А. Мар-кова, А. М. Ляпунова, Т. Линдеберга и С. Н. Бернштейна (и представляет отдельную увлекательнуюисторию, далеко выходящую за рамки данного курса).

Чебышев Пафнутий Львович (1821-1894) − русский математик и механик, основопо-ложник петербургской математической школы, академик Петербургской академии наук и24 иностранных академий. Автор фундаментальных результатов в теории чисел и тео-рии вероятностей, создатель общей теории ортогональных многочленов и теории равномер-ных приближений. Основал математическую теорию синтеза механизмов и разработал рядпрактически важных концепций механизмов (см. Википедия [Электронный ресурс] : URL :https://ru.wikipedia.org/wiki/\T2A\CYRCH\T2A\cyre\T2A\cyrb\T2A\cyrery\T2A\cyrsh\T2A\cyryo\T2A\cyrv,_\T2A\CYRP\T2A\cyra\T2A\cyrf\T2A\cyrn\T2A\cyru\T2A\cyrt\T2A\cyri\T2A\cyrishrt_\T2A\CYRL\T2A\cyrsftsn\T2A\cyrv\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обра-щения: 12.06.2016)).

Марков Андрей Андреевич (1856-1922) − русский математик, академик, внесший большой вкладв теорию вероятностей, математический анализ и теорию чисел (см. Википедия [Электронный ресурс]: URL : https://ru.wikipedia.org/wiki/\T2A\CYRM\T2A\cyra\T2A\cyrr\T2A\cyrk\T2A\cyro\T2A\cyrv,_\T2A\CYRA\T2A\cyrn\T2A\cyrd\T2A\cyrr\T2A\cyre\T2A\cyrishrt_\T2A\CYRA\T2A\cyrn\T2A\cyrd\T2A\cyrr\T2A\cyre\T2A\cyre\T2A\cyrv\T2A\cyri\T2A\cyrch_(\T2A\cyrs\T2A\cyrt\T2A\cyra\T2A\cyrr\T2A\cyrsh\T2A\cyri\T2A\cyrishrt) (дата обращения: 12.06.2016)).

Ляпунов Александр Михайлович (1857−1918) − русский математик и механик. Основные работыв области дифференциальных уравнений, гидродинамики, теории вероятностей. А. М. Ляпунов −создатель теории устойчивости равновесия и движения механических систем с конечным числомпараметров. Академик Петербургской Академии наук, член-корреспондент Парижской академиинаук, член Национальной академии деи Линчеи (Италия) и ряда других академий наук и научных

150

Page 152: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Так, например, отклонение выходного параметра X (при известных до-пущениях) любого прибора от номинала можно представить в виде суммыn элементарных отклонений , связанных с отдельными причинами типа:X1 − отклонение, вызванное влиянием температуры;X2 − отклонение, вызванное влиянием влажности воздуха;X3 − отклонение, вызванное ошибкой ввода какого-нибудь параметра;X4 − отклонение, вызванное недостаточной чистотой материала изделия;. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .и так далее.

Число n этих отклонений велико, как и число n причин, вызывающихсуммарное отклонение X. При этом каждое из отдельных слагаемых X1,X2, . . . , Xn не оказывает влияния на рассеяние суммы, отличного от влия-ния других слагаемых (иначе были бы приняты меры для устранения этоговлияния).

Нормальное распределение распространено в технических приложениях:ошибки измерения параметров, ошибки выполнения команд, ошибки вводаразличных величин в техническое устройство распределены по нормально-му закону.

Нормальный закон имеет широкое применение в биологии: вес, размери другие параметры представителей растительного и животного мира вомногих случаях имеют нормальное распределение, так как их разброс свя-зан с суммарным воздействием многих факторов, каждый из которых неимеет доминирующего влияния1.

И, наконец, в самой математике как предельный закон он связан сомножеством распределений случайной величины и поэтому без него невоз-обществ (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyrya\T2A\cyrp\T2A\cyru\T2A\cyrn\T2A\cyro\T2A\cyrv,_\T2A\CYRA\T2A\cyrl\T2A\cyre\T2A\cyrk\T2A\cyrs\T2A\cyra\T2A\cyrn\T2A\cyrd\T2A\cyrr_\T2A\CYRM\T2A\cyri\T2A\cyrh\T2A\cyra\T2A\cyrishrt\T2A\cyrl\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обращения: 12.06.2016)).

Бернштейн Сергей Натанович (1880−1968) − советский математик. Решил 19-ю пробле-му Гильберта. Автор первой аксиоматики в теории вероятностей. Создатель конструктив-ной теории функций. Академик АН СССР и Парижской академии наук. Член Немецкогои Французского союзов математиков. (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyre\T2A\cyrr\T2A\cyrn\T2A\cyrsh\T2A\cyrt\T2A\cyre\T2A\cyrishrt\T2A\cyrn,_\T2A\CYRS\T2A\cyre\T2A\cyrr\T2A\cyrg\T2A\cyre\T2A\cyrishrt_\T2A\CYRN\T2A\cyra\T2A\cyrt\T2A\cyra\T2A\cyrn\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обра-щения: 12.06.2016)).

Линдеберг Ярл Вальдемар (швед. Lindeberg Jarl Waldemar, 1876−1932) − финский математик.Основные работы в области теории вероятностей и математической статистики. Его именем названодин из вариантов центральной предельной теоремы, а также соответствующее условие Линдеберга(см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyri\T2A\cyrn\T2A\cyrd\T2A\cyre\T2A\cyrb\T2A\cyre\T2A\cyrr\T2A\cyrg,_\T2A\CYRYA\T2A\cyrr\T2A\cyrl\T2A\CYRV\T2A\cyra\T2A\cyrl\T2A\cyrsftsn\T2A\cyrd\T2A\cyre\T2A\cyrm\T2A\cyra\T2A\cyrr(дата обращения: 12.06.2016)).

1Естественно, и в мире людей: в медицине, социологии, экономике нормальный закон находит своиприложения.

151

Page 153: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

можны ни математическая статистика, ни теоретическая физика.

6.6 Показательное распределение

6.6.1 Определение и график функции плотностипоказательного распределения

Определение 6.13. Распределение вероятностей непрерывной случай-ной величины называется показательным1 или экспоненциальным спараметром λ > 0, если функция плотности вероятностей определяетсяследующим образом

f(x) =

0, если x < 0,

λe−λx, если x ≥ 0.(6.28)

x

f(x)

0

λ

Рис. 6.15

Так как e > 1, а λ > 0, то функ-ция плотности показательного рас-пределения монотонно убывает на бес-конечном интервале [0; ∞). Схемати-ческий график функции имеет следу-ющий вид (рис. 6.15):

6.6.2 Интегральная функция показательного распределения

Так как область определения функции плотностиDf = (−∞; 0) ∪ [0; ∞),

то следует рассмотреть два случая.Пусть x «движется» только по отрицательной части оси абсцисс. Оче-

видно, что в этом случае в каждой точке интегральная функция будетравна нулю.

Если x находится в правой полуплоскости, то с помощью представления(6.5) определим интегральную функцию показательного распределения ве-роятностей

1Первыми работами, в которых исследовалось показательное распределение можно считать работыЛ. Больцмана «Исследования о равновесии живой силы между движущимися материальными точка-ми» (Studien uber das Gleichgewicht der lebendigen Kraft zwischen bewegten materiellen Punkten), (1868год) и В. Витворта «Выбор и шанс» (Choice and Chance) (1886 год) (см. The Exponential distribution.c. 3.)

Больцман Людвиг (нем. Boltzmann Ludwig Eduard, 1844-1906) − австрийский физик-теоретик, ос-нователь статистической механики и молекулярно-кинетической теории (см. Википедия [Электронныйресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyro\T2A\cyrl\T2A\cyrsftsn\T2A\cyrc\T2A\cyrm\T2A\cyra\T2A\cyrn,_\T2A\CYRL\T2A\cyryu\T2A\cyrd\T2A\cyrv\T2A\cyri\T2A\cyrg(дата обращения: 12.06.2016)).

152

Page 154: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

F (x) =

x∫−∞

f(t) dt.

Учитывая область определения функции плотности, имеемx∫

−∞

f(t) dt =

0∫−∞

dt+

x∫0

λe−λtdt.

Рассмотрим каждое из слагаемых в отдельности.Очевидно, что первый из интегралов равен нулю. А второй интеграл

x∫0

λe−λtdt = λ

(−1

λ

)e−λt

∣∣∣∣∣x

0

= −(e−λx − e−λ·0

)= 1− e−λx.

Следовательно, функция

F (x) =

0, если x < 0,

1− e−λx, если x ≥ 0.(6.29)

является интегральной функцией показательного распределения.Далее построим схематический график интегральной функции.

Так какlimx→∞

(1− e−λx) = 1,

то график имеет правую горизонтальную асимптоту y = 1.Поскольку F ′(x) = f(x), учтем, что f(x) > 0. Поэтому интегральнаяфункция возрастает в правой полуплоскости. Для исследования характеравыпуклости графика, определим вторую производную функции F (x).

Так как она одновременно является первой производной для функцииплотности, имеем (

λe−λx)′

= −λ2e−λx.

В силу отрицательности второй производной график интегральной функ-ции является выпуклым вверх в правой полуплоскости и имеет следующийвид (рис. 6.16):

x

F (x)

1

Рис. 6.160

153

Page 155: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

6.6.3 Математическое ожидание показательного распределения

Используя формулу (6.7), докажем следующую теорему.Теорема 6.6. Математическое ожидание непрерывной случайной ве-

личины, распределенной по показательному закону, равно1

λ.

Д о к а з а т е л ь с т в о. Предположим, что X − непрерыв-ная случайная величина, распределенная по показательному закону. Тогда

M(X) =

∞∫−∞

xf(x) dx.

В силу «кусочного» задания функции∞∫

−∞

xf(x) dx =

0∫−∞

x · 0dx+

∞∫0

x · λe−λxdx.

Первый интеграл в сумме равен нулю, а для вычисления второго понадо-бится формула интегрирования по частям:

λ ·∞∫

0

xe−λxdx = λ · lim

b→∞

b∫0

xe−λxdx =

=

∣∣∣∣∣ u = x, du = dx,

dv = e−λxdx, v = −1

λe−λx

∣∣∣∣∣ = λ ·

−1

λ·

limb→∞

xe−λx∣∣∣b0−

b∫0

e−λx

dx

=

= λ ·

−1

λ·

0−

−1

λlimb→∞

e−λx∣∣∣∣∣b

0

=1

λ.

Таким образом1, в случае показательного распределения случайной ве-личины X ее математическое ожидание

M(X) =1

λ. (6.30)

Задача 6.14. Время ремонта и обслуживания автомобиля являетсяслучайной величиной, которая удовлетворительно описывается показа-тельным законом распределения. По итогам работы за год в автопаркебыло отмечено, что на ремонт и обслуживание каждого из дежурных ав-томобилей после одной поездки тратилось в среднем 8 минут. Найдитевероятность того, что после очередной поездки это время не превысит

1 При вычислении предела от подстановки было использовано правило д ′Лопиталя-Бернулли(см. Бидерман В. И. Указ. соч. С. 81):

limb→∞

xe−λx

∣∣∣∣∣b

0

= limb→∞

b

eλb− 0 · e−λ·0 =

(∞∞

)= limb→∞

(b)′(eλb)′ = lim

b→∞

1

λ · eλb=

(1

)= 0.

154

Page 156: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

16 минут.Решение. Пусть случайная величина T − время работы и обслужи-

вания дежурного автомобиля после очередной поездки. Согласно условиюM(X) = 8. Поэтому из формулы (6.30) следует, что

λ =1

8или λ = 0, 125.

Следовательно, интегральная функция распределения (см. представление(6.29) имеет следующий вид:

F (t) =

0, если t < 0,

1− e−0,125t

, если t ≥ 0.Так как

P (T ≤ 16) = P (−∞ < T ≤ 16), то P (T ≤ 16) = F (16)(см. формулу (6.1 и пункт г решения задачи 6.1).Поэтому после вычислений

1− e−0,125·16

= 1− e−2

= 1− 0, 135 = 0, 865получаем, что

вероятность того, что после очередной поездкивремя на ремонт и обслуживание не превысит 16минут, равна 0, 865.

6.6.4 Медиана показательного распределения

Теорема 6.7. Медиана непрерывной случайной величины, распределенной

по показательному закону, равнаln 2

λ.

Д о к а з а т е л ь с т в о. Для доказательства этого утверждениявоспользуемся следствием 6.3. Для этого с помощью представления инте-гральной функции (6.29) составим уравнение

1− e−λx =1

2.

Вычитая единицу из обеих частей и умножив затем обе части на минус 1,получим

e−λx

=1

2.

Прологарифмировав обе части полученного уравнения по основанию e,имеем1

λ · x = ln 2.После деления обеих частей равенства на λ, убеждаемся в истинности тео-ремы.

1ln1

2= ln 2−1 = − ln 2.

155

Page 157: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Следовательно, медиана показательного распределения

Me(X) =ln 2

λ. (6.31)

6.6.5 Дисперсия показательного распределения

Используя формулу вычисления дисперсии (6.10), докажем следующуютеорему.

Теорема 6.8. Дисперсия непрерывной случайной величины, распре-

деленной по показательному закону, равна1

λ2.

Д о к а з а т е л ь с т в о. Вычислим M(X2). Согласно формуле

(6.7) M(X2) =

∞∫−∞

x2f(x) dx.

Учитывая «кусочный» характер задания функции плотности, предста-вим искомый интеграл в виде суммы

∞∫−∞

x2f(x) dx =

0∫−∞

x2 · 0 dx+ λ ·∞∫

0

x2e−λxdx. (6.32)

Так как первый из интегралов равен нулю, то проблемой является тольковторой интеграл. Вычислим его с помощью формулы интегрирования почастям:

∞∫0

x2e−λxdx = lim

b→∞

b∫0

x2e−λxdx =

=

∣∣∣∣∣u = x2, du = 2xdx,

dv = e−λxdx, v = −1

λe−λx

∣∣∣∣∣ = limb→∞

−1

λ·

x2e−λx∣∣∣∣∣b

0

−2 ·b∫

0

xe−λxdx

=

= −1

λ·

0− 2 · limb→∞

b∫0

xe−λxdx

=

∣∣∣∣∣u = x, du = dx,

dv = e−λx

dx, v = −1

λe−λx

∣∣∣∣∣ =

=2

λ·

−1

λ·

xe−λx∣∣∣∣∣b

0

−b∫

0

e−λx

dx

= − 2

λ2·

0− limb→∞

(−1

λ

)e−λx

∣∣∣∣∣b

0

=2

λ3.

Подставляя последний результат1 в равенство (6.32), получаем1 При вычислении предела от первой подстановки было использовано правило д ′Лопиталя − Бер-

нулли (см. Бидерман В. И. Указ. соч. С. 81):

limb→∞

x2e−λx

∣∣∣∣∣b

0

= limb→∞

b2

eλb− 0 · e

−λ·0=(∞∞

)= limb→∞

(b2)′(eλb)′ = lim

b→∞

2(b)′

λ · (eλb)′= limb→∞

2

λ2 · eλb=

(2

)= 0.

156

Page 158: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

M(X2) =2

λ2.

Подставляя полученную дробь, а также значение математическогоожидания (см. равенство (6.30) в формулу (6.10)

D(X) =2

λ2−(

1

λ

)2

,

убеждаемся в истинности доказываемой теоремы.

D(X) =1

λ2. (6.33)

6.6.6 Среднее квадратическое отклонение показательного распределения

Зная дисперсию показательного распределения, можно с помощью фор-мулы (6.13) вычислить среднее квадратическое отклонение данного рас-пределения. Извлекая квадратный корень из дисперсии, получаем

σ(X) =1

λ. (6.34)

Замечание 6.9. Из формул (6.30), (6.33), (6.34) видно, что показатель-ное распределение является однопараметрическим распределением, так какзависит только от одного параметра λ. Зная его, мы одновременно знаемвсе числовые характеристики показательного распределения.

6.6.7 Вероятность попадания показательно распределеннойслучайной величины в заданный интервал

Предположим, что непрерывная случайная величина X распределенапо показательному закону с параметром λ. Тогда имеет место следующая

Теорема 6.9. Вероятность попадания показательно распределеннойслучайной величины X в интервал (α; β), расположенный на неотрица-тельной полуоси, определяется равенством

P (α < X < β) = e−αλ − e−βλ. (6.35)

Д о к а з а т е л ь с т в о. В силу предположений о распределениислучайной величины X на неотрицательной полуоси интегральная функ-ция распределения выглядит согласно формуле (6.29)

F (x) = 1− e−λx.Тогда из формулы (6.4) следует, чтоP (α < X < β) = F (β)−F (α)⇒ P (α < X < β) = 1−e−λβ−

(1− e−λα

)⇒

⇒ P (α < X < β) = e−αλ − e−βλ.

Что и требовалось доказать.

157

Page 159: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

6.6.8 Понятие о роли показательного распределения в теории надежности

В связи с возрастающими потребностями развития всевозможных техни-ческих систем в начале ХХ столетия возникла теория надежности техниче-ских систем, математической основой которой, в первую очередь, явиласьтеория вероятностей.

Связано это с тем, что центральным понятием теории надежности явля-ется понятие отказ, связанное с нарушением работосопособного состоянияобъекта. Несмотря на то, что факт отказа объекта − событие детермини-рованное, однако неполнота сведений об объекте и протекающих в нем ив окружающей природе процессах приводят к вероятностному характеруотказов. Поскольку время появления отказа − cлучайная величина, тоизучение этого события в теории надежности ведется методами теории ве-роятностей1.

Так как любой объект изучения состоит из отдельных элементов, тоимеет смысл ввести следующие определения.

Определение 6.14. Элементом называется любой агрегат, не под-лежащий техническому расчленению.

Определение 6.15. Математической надежностью элементаназывается вероятность события, в котором при заданных условиях эле-мент будет работать безотказно в течение времени t. Вероятность это-го события обозначается P (t). Иногда ее называют законом надежностиэлемента.

Определение 6.16. Математической ненадежностью элемен-та называется вероятность противоположного события, в котором призаданных условиях элемент выйдет из строя, то есть откажет, в те-чение времени t. Вероятность этого события обозначается

Q(t) = 1− P (t), (6.36)

Предположим, что непрерывная случайная величина T определяет вре-мя безотказной работы элемента. Тогда ненадежность элемента Q(t) сов-падает с интегральной функцией F (t) распределения случайной величиныT :

Q(t) = P (T < t) = F (t).Следовательно в силу противоположности событий

P (t) = 1− F (t), (6.37)

Ненадежность Q(t) обладает всеми свойствами интегральной функциираспределения (рис. 6.17):

1А также математической статистики и теории случайных процессов.

158

Page 160: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Q(0) = 0;∀ t1 ≥ 0, t2 ≥ 0 t1 < t2 ⇒ Q(t1) ≤ Q(t2);limt→∞

Q(t) = 1.

Надежность P (t) обладает противоположными свойствами (рис. 6.18):P (0) = 1;∀ t1 ≥ 0, t2 ≥ 0 t1 < t2 ⇒ P (t1) ≥ P (t2);limt→∞

P (t) = 0.

t

F (t)1

Рис. 6.17

0t

P (t)1

Рис. 6.18

0

Наряду с интегральной функцией распределения на практике большоеприменение имеет функция плотности распределения1

f(t) = F ′(t) или f(t) = Q′(t) или f(t) = −P ′(t). (6.38)

Дифференциал интегральной функции распределенияdF (t) = f(t)dt

определяет вероятность того, что время работы T принимает значения наинтервале [t; t+ dt], то есть вероятность того, что элемент, который началработать в момент t = 0, откажет на участке времени [t; t+ dt].

В приближенных расчетах плотность f(t) определяется формулой

f(t) ≈∆n(t)

N∆t, (6.39)

где ∆t − длина участка времени;∆n(t) − число элементов, отказавших на участке времени;N − общее число испытываемых элементов.В теории надежности с плотностью f(t) связана другая характеристика.Определение 6.17. Интенсивностью отказов называется отно-

шение плотности распределения времени безотказной работы элементак его надежности, то есть

λ(t) =f(t)

P (t). (6.40)

С точки зрения физики интенсивность отказов определяет среднее числоотказов в единицу времени, приходящееся на один исправно работающий

1Эту функцию иногда называют плотностью отказов или частотой отказов

159

Page 161: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

элемент. Объяснить это можно с помощью формул (6.40) и (6.39).Так как

λ(t) =f(t)

P (t)≈ ∆n(t)

N∆tP (t),

аN · P (t) ≈ n(t),

тоλ(t) ≈ ∆n(t)

n(t)∆t.

С точки зрения теории вероятности величина λ(t)dt определяет услов-ную вероятность отказа элемента на интервале времени (t; t+ ∆t) приусловии, что до момента t элемент работал безотказно.

Чтобы это объяснить, рассмотрим следующие события:Предположим, что событие A − элемент исправно работал до момента t, асобытие B − элемент отказал на интервале времени (t; t + ∆t). Произве-дение событий A и B заключается в том, что элемент исправно работал домомента tИ после этого отказал на интервале времени (t; t+∆t). Согласнотеореме об умножении вероятностей 3.4 зависимых событий

P (AB) = P (A)PA(B). (6.41)

Но так как P (A) = P (t), а P (AB) = f(t)dt (см. с. 156), то, разделив обечасти равенства (6.41) на P (A), согласно формуле (6.40) получим

PA(B) =

P (AB)

P (A)⇒ P

A(B) =

f(t)dt

P (t)= λ(t).

Далее, выразим связь между надежностью P (t) и интенсивностью отказовλ(t), исключив из рассмотрения плотность распределения времени безот-казной работы элемента f(t).Используя формулы (6.38) и (6.40), получим

λ(t) =f(t)

P (t)⇒ λ(t) = −P

′(t)

P (t)⇒ λ(t) = −(lnP (t))′.

Проинтегрировав последнее равенство, находим

lnP (t) = −t∫

0

λ(τ)dτ.

Далее, пропотенцировав обе части полученного равенства по e, имеем

P (t) = e−

t∫0

λ(τ )dτ. (6.42)

В тех случаях, когда происходят внезапные отказы элементов, или ис-следуется распределение времени между соседними отказами и временемвосстановления, интенсивность отказов превращается в константу λ(t) =

160

Page 162: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

λ.Соответственно, надежность элемента имеет вид

P (t) = e−λt (t ≥ 0), (6.43)

а функция плотности распределения времени безотказной работыf(t) = λe−λt (t ≥ 0)

показывает, что соответствующее распределение случайной величины T −времени безотказной работы элемента − является показательным распре-делением.

Поскольку λ(t) в общем случае зависит от t, не удивительно, что пока-зательное распределение является частным случаем таких распределений,как

распределение Вейбулла (при1 α = 1)f(t) = λαtα−1e−λt

α

игамма-распределение (при2 α = 1)

f(t) =λ(λt)α−1e−λt

Γ(α).

Роль показательного распределения в теории надежности связана такжес его характеристическим свойством.

Теорема 6.10. При заданной интенсивности отказов λ вероятностьбезотказной работы элемента на интервале с длительностью t не за-висит от времени предыдущей работы до начала данного интервала, азависит только от длительности интервала.

Д о к а з а т е л ь с т в о. Рассмотрим следующие события:A − элемент безотказно работает на интервале (0, to);B − элемент безотказно работает на интервале (to, to + t);AB − элемент безотказно работает на интервале (0, to + t).Согласно формуле (6.43) определим вероятности этих событий:

P (A) = e−λto; P (B) = e−λt;P (AB) = e−λ(to+t) = e−λtoe−λt.

1Здесь α − показатель формы распределения.2Γ(α) − гамма-функция, − функция, которая расширяет понятие факториала на множества

нецелых действительных и комплексных чисел и имеет следующий вид: Γ(α) =

∞∫0

tα−1e−tdt (здесь

α ∈ C : Re(α) > 0). Гамма-функция была введена Л. Эйлером в 1730 году, а ее обозначение исовременный вид определены А. М. Лежандром в 1814 году. (В рассматриваемом случае Γ(1) = 1.)

Лежандр Адриен Мари (фр. Adrien-Marie Legendre, 1752-1833) − французский математик, членПарижской Академии наук. Основные работы связаны с геометрией, теорией чисел и математическиманализом (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRL\T2A\cyre\T2A\cyrzh\T2A\cyra\T2A\cyrn\T2A\cyrd\T2A\cyrr,_\T2A\CYRA\T2A\cyrd\T2A\cyrr\T2A\cyri\T2A\cyre\T2A\cyrn_\T2A\CYRM\T2A\cyra\T2A\cyrr\T2A\cyri (дата обращения: 12.06.2016)).

161

Page 163: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Далее найдем условную вероятность того, что элемент будет безотказноработать на интервале (to, to+ t) при условии, что он безотказно отработална предыдущем интервале (0, to):

PA(B) =

P (AB)

P (A)⇒ P

A(B) =

e−λtoe−λt

e−λto⇒ P

A(B) = e−λt.

Так как полученная условная вероятность зависит только от t и независит от to, то время работы to элемента на предыдущем интервале невлияет на вероятность его работы на следующем интервале. Таким обра-зом, условная вероятность на самом деле является безусловной. Следова-тельно, время работы элемента на раннем этапе не влияет на вероятностьего работы в последствии. Что и требовалось доказать1.

Задача 6.15. Два независимо работающих элемента проходят ис-пытания. Длительность работы каждого из элементов имеет показа-тельное распределение, соответственно равное

f1(t) =

0, если t < 0,0, 03e−0,03t, если t ≥ 0.

f2(t) =

0, если t < 0,0, 04e−0,04t, если t ≥ 0.

Найдите вероятность того, что за время t = 4 часа:1) оба элемента выйдут из строя;2) оба элемента не выйдут из строя;3) только один элемент выйдет из строя;4) хотя бы один элемент выйдет из строя.

Решение. Из формул (6.28) и (6.29) следует, что при t ≥ 0 вероятностивыхода из строя для каждого из элементов соответственно равны

F1(t) = 1− e−0,03t и F2(t) = 1− e−0,04t.Подставив поочередно из условия задачи в каждое из представлений времяt = 4 и выполнив вычисления

1− e−0,03·4 = 1− e−0,12 = 1− 0, 887 = 0, 113;1− e−0,04·4 = 1− e−0,16 = 1− 0, 852 = 0, 148,

получим вероятности выхода из строя за 4 часа для каждого из элементов:

F1(4) = 0, 113 и F2(4) = 0, 148. (6.44)

Зная эти вероятности, можно ответить на заданные вопросы.1) Оба элемента выйдут из строя тогда и только тогда, когда выйдет изстроя первый элемент И выйдет из строя второй элемент.

Так как элементы работают независимо друг от друга, то по теореме3.5 об умножении вероятностей независимых событий2

1Содержание этого параграфа полностью взято из следующих источников: Вентцель Е. С. Иссле-дование операций. М. : Советское радио, 1972. 552 с. и Острейковский В. А. Теория надежности. М. :Высш. шк., 2003. 462 с.

2Или согласно замечанию 3.6.

162

Page 164: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

P1 = 0, 113 · 0, 148⇒ P1 = 0, 017.2) Оба элемента не выйдут из строя тогда и только тогда, когда не выйдетиз строя первый элемент И не выйдет из строя второй элемент.

Согласно формуле (6.37) вероятности безотказной работы более четырехчасов для элементов соответственно равны

P1(4) = 1− 0, 113⇒ P1(4) = 0, 887;P2(4) = 1− 0, 148⇒ P2(4) = 0, 852.

Следовательно, из той же теоремы 3.5 об умножении вероятностей неза-висимых событий1

P2 = 0, 887 · 0, 852⇒ P2 = 0, 756.3) Только один элемент выйдет из строя тогда и только тогда, когда изстроя выйдет первый элемент И не выйдет из строя второй элемент ИЛИне выйдет из строя первый элемент И выйдет из строя второй элемент.

С помощью формулы полной вероятности2 (см. теорему 3.6), используярешения предыдущих пунктов, имеем

P3 = F1(4) · P2(4) + P1(4) · F2(4)⇒⇒ P3 = 0, 113 · 0, 852 + 0, 887 · 0, 148⇒ P3 = 0, 228.

4) Так как событие «хотя бы один элемент выйдет» противоположно со-бытию «ни один элемент не выйдет из строя», вероятность которого P2

известна, тоP4 = 1− P2 ⇒ P4 = 1− 0, 756⇒ P4 = 0, 244.

Объединяя полученные результаты, получаемP1 = 0, 017; P2 = 0, 756; P3 = 0, 228; P4 = 0, 244.

6.7 Понятие о моментах

Решая задачу, связанную с проблемой моментов в математическом ана-лизе3, П. Л. Чебышев обнаружил связь между основными понятиями тео-ретической механики − центром масс, распределением масс системы ма-териальных точек относительно центра масс, моментами инерции −и основными понятиями теории случайных величин − математическиможиданием и дисперсией.

Рассмотрим основные понятия этой связи.Определение 6.18. Начальным моментом k-го порядка слу-

чайной величины называется математическое ожидание k-й степени1Или согласно замечанию 3.6.2Или следуя замечанию 3.6.3Работа называлась «О предельных величинах интегралов» и была опубликована в Journal de

Liouville в 1874 году (см. Чебышев П. Л. Полн. собр. соч. Математический анализ. Том III. М.-Л. :Изд-во Акад. наук СССР, 1948. С. 63-65, С. 396-403).

163

Page 165: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

этой величины:αk(X) = M(Xk). (6.45)

Таким образом, определенная ранее характеристика положения случай-ной величины − математическое ожидание (см. определение 6.5) − яв-ляется одновременно первым начальным моментом.

Так как отклонение случайной величины от ее математического ожи-дания само является случайной величиной, то оно имеет собственное имя.

Определение 6.19. Центрированной случайной величиной на-зывается отклонение случайной величины от ее математического ожи-дания:

X=X-M(X). (6.46)

Как было показано ранее, математическое ожидание центрированнойслучайной величины равно нулю:

M(X) = 0.С помощью нового понятия введем следующееОпределение 6.20. Центральным моментом k-го порядка слу-

чайной величины называется начальный момент этого же порядка со-ответствующей центрированной случайной величины:

µk(X) = M(Xk)

= M((X −M(X))k

). (6.47)

Так, для дискретной случайной величины1

µk(X) =n∑i=1

(xi −M(X))kpi,

а для непрерывной случайной величины

µk(X) =

∞∫−∞

(x−M(X))kf(x)dx.

Как было показано при определении дисперсии дискретной случайнойвеличины, первый центральный момент случайной величины в силу ра-венства нулю интереса не представляет.

Интерес представляет второй центральный момент, который совпада-ет с дисперсией случайной величины

В случае дискретной случайной величины

1Или µk(X) =∞∑i=1

(xi −M(X))kpi, если случайная величина может принимать счетное множество

значений.

164

Page 166: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

µ2(X) =n∑i=1

(xi −M(X))2pi = D(X),

а для непрерывной случайной величины

µ2(X) =

∞∫−∞

(x−M(X))2f(x)dx = D(X).

Как уже говорилось выше (см. замечания 5.5 и 5.11), с точки зрениятеоретической механики математическое ожидание случайной ве-личины, как характеристика положения, является аналогом центрамасс системы материальных точек на числовой прямой, а вто-рой центральный момент, являясь характеристикой рассеивания воз-можных значений случайной величины относительно ее математиче-ского ожидания, служит аналогом момента инерции распределениямасс относительно центра масс на числовой прямой.

Математическое ожидание и дисперсия случайной величины являют-ся важными числовыми характеристиками для случайной величины, ноиногда возникает необходимость в более точном ее описании. Для этогоиспользуют центральные моменты третьего и четвертого порядков.

Очень важную роль для описания распределения случайной величиныиграет мера его асимметричности или скошенности.

Так как для симметричных распределений случайной величины всецентральные моменты нечетного порядка равны нулю, поэтому для мерыасимметричности достаточно выбрать любой из них. Для описания этоймеры введем следующее1

Определение 6.21. Коэффициентом асимметрии случайнойвеличины называется отношение третьего центрального момента этойвеличины к кубу ее среднего квадратического отклонения2:

Sk(X) =µ3(X)

σ3(X). (6.48)

На рис. 6.19 и 6.20 изображены две асимметричные кривые с положи-

x

f(x)

Рис. 6.19

Sk > 0

x

f(x)

Рис. 6.20

Sk < 0

1Обозначение Sk происходит от английского слова skew − косой, скошенный.2Деление на σ3(X) необходимо для того, чтобы сделать характеристику безразмерной.

165

Page 167: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

тельным и отрицательным коэффициентами скошенности.В качестве примеров рассмотрим задачи на вычисление коэффициентов

асимметрии для равномерного и показательного распределения.Задача 6.16. Определите коэффициент асимметрии равномерно рас-

пределенной непрерывной случайной величины X.Решение. Так как равномерное распределение является симметричным

распределением (см. рис. 6.7), а числитель формулы (6.48) является цен-тральным моментом третьего нечетного порядка, то для равномерногораспределения коэффициент асимметрии

Sk(X) = 0.Задача 6.17. Определите коэффициент асимметрии случайной вели-

чины X, имеющей показательное распределение с параметром λ

f(x) =

0, если x < 0,

λe−λx, если x ≥ 0.Решение. Для решения этой задачи нам понадобится формула вычис-

ления центрального момента третьего порядка µ3, аналогичная формулевычисления дисперсии (см. (6.11)).

Согласно формуле (6.47)µ3 = M

((X −M(X))3

).

С помощью школьной формулы куб разности1 преобразуем правую частьтретьего центрального моментаM((X −M(X))3

)= M

(X3 − 3X2 ·M(X) + 3X · (M(X))2 − (M(X))3

).

Далее с помощью свойств линейности математического ожидания (см.свойства 5.5-5.7) раскроем скобки в правой части полученного выраженияи перегруппируем слагаемые

M(X3 − 3X2 ·M(X) + 3X · (M(X))2 − (M(X))3

)=

= M(X3)− 3M

(X2)·M(X) + 3M(X) · (M(X))2 − (M(X))3 =

= M(X3)− 3M(X) ·

(M(X2)− (M(X))2

)− (M(X))3.

Так как выражение в скобках в заключительной части преобразования естьдисперсия D(X) (см. формулу (см. (6.11)), то в итоге получаем

M((X −M(X))3

)= M

(X3)− 3M(X) ·D(X)− (M(X))3.

Используя вычисленные ранее математическое ожидание и дисперсиюпоказательного распределения (см. формулы (6.30) и (6.33), имеем

M((X −M(X))3

)= M

(X3)− 3 · 1

λ· 1

λ2− 1

λ3⇒

⇒M((X −M(X))3

)= M

(X3)− 4

λ3.

1(a− b)3 = a3 − 3a2b+ 3ab2 − b3.

166

Page 168: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Согласно формуле1 (6.7)

M(X3)

=

∞∫0

x3 · λe−λxdx.

При интегрировании по частям нам постоянно нужен будет предел2

limx→∞

xk · e−λx = 0.∞∫

0

x3 · λe−λxdx = limb→∞

b∫0

x3 · λe−λxdx =

∣∣∣∣∣u = x3, du = 3x2dx,

dv = e−λxdx, v = −1

λe−λx

∣∣∣∣∣ =

= λ · limb→∞

−1

λ· x3 · e−λx

∣∣∣∣∣b

0

−3 ·(−1

λ

b∫0

x2 · e−λxdx

.

Согласно вышеуказанному пределу первое слагаемое в скобке стремится кнулю, и после сокращения на λ нам предстоит найти

3 · limb→∞

b∫0

x2 · e−λxdx =

∣∣∣∣∣u = x2, du = 2xdx,

dv = e−λxdx, v = −1

λe−λx

∣∣∣∣∣ =

= 3 · limb→∞

−1

λ· x2 · e−λx

∣∣∣∣∣b

0

−2 ·(−1

λ

b∫0

x · e−λxdx

.

Как и выше, первое слагаемое в скобке стремится к нулю, а нам надо вы-числить

6

λ· limb→∞

b∫0

x · e−λxdx =

∣∣∣∣∣ u = x, du = dx,

dv = e−λxdx, v = −1

λe−λx

∣∣∣∣∣ =

=6

λ· limb→∞

−1

λ· x · e−λx

∣∣∣∣∣b

0

−(−1

λ

b∫0

e−λxdx

.

Аналогично, освобождаясь от первого слагаемого в скобке, вычислим

6

λ2· limb→∞

b∫0

e−λxdx =

6

λ2· limb→∞

−1

λ· e−λx

∣∣∣∣∣b

0

=6

λ2·(

0−(−1

λ

))=

6

λ3.

Вспоминая о третьем центральном моменте, получаем

M((X −M(X))3

)=

6

λ3− 4

λ3⇒M

((X −M(X))3

)=

2

λ3.

1Нижний предел поднят до нуля, так как функция плотности показательного распределения наотрицательной части оси абсцисс равна нулю.

2 limb→∞

bk

eλb=(∞∞

)= limb→∞

(bk)′

(eλb)′= · · · = lim

b→∞

k!

λk · eλb=

(1

)= 0.

167

Page 169: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Разделив третий центральный момент на куб среднего квадратиче-ского отклонения (см. формулы (6.34) и (6.48), получаем коэффициентасимметрии распределенной по показательному закону случайной вели-чины X

Sk(X) = 2.В некоторых случаях характеристикой распределения непрерывной слу-

чайной величины является мера пикообразности ее вершины, которая срав-нивается с пикообразностью вершины нормального распределения, для ко-торого эта мера равна нулю.

Определение 6.22. Эксцессом случайной величины называетсяотношение четвертого центрального момента этой величины к четвер-той степени ее среднего квадратического отклонения, уменьшенное на3:

E(X) =µ4(X)

σ4(X)− 3. (6.49)

x

f(x)E(X) > 0

E(X) = 0

E(X) < 0

Рис. 6.21

На рис. 6.21 изображе-ны кривые распределений сразными эксцессами: криваянормального распределения сE(X)=0, кривая с более ос-трой вершиной, чем у нор-мального распределения, име-ющая положительный экс-цесс, и кривая с пологой вер-шиной, имеющая отрицатель-ный эксцесс.

Задача 6.18. Непрерывная случайная величина X имеет распределе-ние с плотностью

f(x) = Ae−x2

.Определите эксцесс E(X).

Решение. Используя свойство 6.2, вычислим коэффициент A. Для это-го нужно будет решить уравнение

∞∫−∞

Ae−x2

dx = 1.

Вынося константу за знак интеграла, имеем

A

∞∫−∞

e−x2

dx = 1.

168

Page 170: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Интеграл в левой части является интегралом Эйлера-Пуассона1∞∫

−∞

e−x2

dx =√π.

Поэтому

A =1√π.

Следовательно, плотность распределения случайной величины X описы-вается функцией

f(x) =1√πe−x2

.

Далее для решения задачи нам понадобится формула вычисления цен-трального момента четвертого порядка µ4, аналогичная формуле вычис-ления дисперсии (см. (6.11)).

Согласно формуле (6.47)µ4 = M

((X −M(X))4

).

С помощью бинома Ньютона2 преобразуем правую часть четвертого цен-трального момента

M((X −M(X))4

)=

= M(X4 − 4X3 ·M(X) + 6X2 · (M(X))2 − 4X (M(X))3 + (M(X))4

).

Далее с помощью свойств линейности математического ожидания (см.свойства 5.5-5.7) раскроем скобки в правой части полученного выраженияи перегруппируем слагаемыеM(X4)− 4M

(X3)·M(X) + 6M

(X2)· (M(X))2 − 4M(X) · (M(X))3 + (M(X))4 =

= M(X4)− 4M

(X3)·M(X) + 6M

(X2)· (M(X))2 − 6 (M(X))4 + 3 (M(X))4 =

= M(X4)− 4M

(X3)·M(X) + 6 (M(X))2

(M(X2)− (M(X))2

)+ 3 (M(X))4 .

Так как выражение в скобках в заключительной части преобразования естьдисперсия D(X) (см. формулу (см. (6.11)), то в итоге получаемM((X −M(X))4

)= M

(X4)−4M

(X3)·M(X)+6 (M(X))2D(X)+3 (M(X))4 .

Функция плотности является четной функцией с графиком, симмет-ричным относительно оси ординат (рис. 6.22), поэтому ее математическоеожиданиеM(X) = 0. По этой же причине и начальный момент третьегопорядка M(X3) = 0.

1См. Зорич В. А. Указ. соч. С. 424.2(a− b)4 = a4 − 4a3b+ 6a2b2 − 4ab3 + b4.

169

Page 171: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

x

f(x)1√π

Рис. 6.22 1√2

− 1√2

1√eπ

Следовательно,M(X −M(X))4

)= M

(X4).

Но прежде, чем заняться его вычислением, нам придется вычислить на-чальный момент второго порядка M(X2), который пригодится при вы-числении искомого центрального момента. А так M(X2) в нашем случаесовпадает с дисперсией, то он пригодится при вычислении среднего квад-ратического отклонения σ(X).

Далее при интегрировании мы будем использовать символьное выраже-ние1

xke−x2

∣∣∣∣∣∞

0

= limx→∞

xk

ex2 − 0 · e−02

= 0.

Согласно формуле (6.7)

M(X2) =1√π

∞∫−∞

x2 · e−x2

dx.

Так как под интегралом находится четная функция, то согласно свойстваминтеграла от такой функции в симметричных пределах2

1√π

∞∫−∞

x2 · e−x2

dx =2√π

∞∫0

x2 · e−x2

dx.

Далее, используя формулу интегрирования по частям и вышеуказанноесимвольное выражение, получим3

1Здесь и далее k − целое число. Для вычисления предела, как и в сноске на с. 164, нужно применитьнесколько раз правило Лопиталя − Бернулли.

2См., например, Бидерман В. И. Указ. соч. С. 146.

3Заметим, что интеграл в скобке есть интеграл Пуассона-Эйлера∞∫

0

e−x2

dx =

√π

2.

170

Page 172: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

2√π

∞∫0

x2 · e−x2

dx =

∣∣∣∣∣ u = x, du = dx,

dv = xe−x2

dx, v = −1

2e−x2

∣∣∣∣∣ =

=2√π

−x2e−x2

∣∣∣∣∣∞

0

+1

2

∞∫0

e−x2

dx

=2√π

(0 +

1

2·√π

2

)=

2√π·√π

4=

1

2

Таким образом,

1√π

∞∫−∞

x2 · e−x2

dx =1

2⇒M(X2) =

1

2. (6.50)

Теперь можно вычислить и M(X4). Согласно формуле (6.7)

M(X4) =1√π

∞∫−∞

x4 · e−x2

dx.

Как и выше, под интегралом четная функция, а пределы интегрированиясимметричны. Поэтому

1√π

∞∫−∞

x4 · e−x2

dx =2√π

∞∫0

x4 · e−x2

dx.

Снова используя формулу интегрирования по частям, получим1

2√π

∞∫0

x4 · e−x2

dx =

∣∣∣∣∣ u = x, du = dx,

dv = x3e−x2

dx, ?

∣∣∣∣∣.Теперь нам придется взять паузу, чтобы вычислить2 функцию v.

v =

∫x3e

−x2

dx =1

2

∫x2e

−x2

d(x2) =

∣∣∣∣∣t = x2

∣∣∣∣∣ =1

2

∫te−tdt =

=

∣∣∣∣u = t, du = dt,

dv = e−tdx, v = −e−x2

∣∣∣∣ =1

2

(−te−t − (−)

∫e−tdt

)=

=1

2

(−te−t − e−t

)= −t+ 1

2e−t = −x

2 + 1

2e−x2

.

Продолжая прерванные для нахождения v вычисления, имеем3

1Здесь использовано представление x4 = x · x3.2Здесь использовано представление x3dx = x2 · xdx =

1

2x2d(x2).

3Во второй строке преобразований, в скобке, первый интеграл вычислен выше (см. формулу (6.50)).

171

Page 173: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

2√π

∞∫0

x4 · e−x2

dx =2√π

−xx2 + 1

2e−x

2

∣∣∣∣∣∞

0

+1

2

∞∫0

(x2 + 1)e−x2

dx

=

=2√π· 1

2

0 +

∞∫0

x2e−x2

dx+

∞∫0

e−x2

dx

=1√π

(√π

2+

√π

2

)= 1

1√π

∞∫−∞

x4 · e−x2

dx = 1⇒M(X4) = 1⇒M(X −M(X))4

)= 1.

Так как M(X2) = D(X), то из равенства (6.50) среднее квадратическоеотклонение

σ(X) =√D(X)⇒ σ(X) =

1√2.

Далее с помощью формулы вычисления эксцесса (6.49) имеем

E(X) =1(1√2

)4 − 3⇒ E(X) = 1.

В итоге, эксцесс заданной в условии задачи случайной величины X

E(X) = 1.

x

f(x)1√π

1√2π

Рис. 6.23

1√2

− 1√2

1−1

1√eπ

Замечание 6.10. То, чтоэксцесс данной случайной ве-личины X больше эксцес-са нормально распределеннойслучайной величины мож-но потвердить графически,сравнивая графики функцийплотности заданной случай-ной величины и случайнойвеличины, имеющей норми-рованное нормальное распре-деление (рис. 6.23).

Рассматривая рис. 6.21 − 6.23, эксцесс случайной величины можно опре-делить как коэффициент островершинности случайной величины.

172

Page 174: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

7 Закон больших чисел

Иногда нужно пытаться снова и снова, Чтобы

получить желаемый результат. Чем больше

пытаешься, тем скорее получится. Или, в сущ-

ности, иногда просто надо не сдаваться.

Джоджо Мойес

В начале XVIII столетия в развитии теории вероятностей как мате-матической науки наступает момент, когда приходит осознание того, что«частота появления какого-либо случайного события при неограничиваю-щемся числе независимых наблюдений, производимых в одинаковых усло-виях, сближается с его вероятностью»1

Приходит понимание того, что «само понятие математической вероятно-сти было бы бесплодно, если бы не находило своего осуществления в видечастоты появления какого-либо результата при многократном повторенииоднородных условий».

Этим пониманием мир обязан Якобу Бернулли, открывшему общийпринцип, согласно которому при большом числе случайных величин ихсредний результат перестает быть случайным и может быть предска-зан с большой степенью определенности. Этот принцип получил названиезакон больших чисел2.

В более узком смысле под законом больших чисел понимают груп-пу теорем, в каждой из которых при заданных условиях устанавливаетсязакономерность приближения средних характеристик большого числа ис-пытаний к некоторым определенным постоянным.

В основе доказательств этих теорем лежат два неравенства.

7.1 Неравенство Маркова

Теорема 7.1. Неравенство Маркова. Если случайная величина X при-нимает только неотрицательные значения и имеет конечное матема-тическое ожидание M(X), то для любого положительного числа ε вернонеравенство

P (X > ε) ≤M(X)

ε. (7.1)

1См. Бернулли Я. Указ. соч. С. 4.2Впервые этот термин использовал Д. Пуассон при работе над обобщением теоремы Бернулли в

исследовании «Recherches sur la probabilite des jugements en matiere criminelle et en matiere civill» (рус-ское название работы «Исследования о вероятности приговоров в уголовных и гражданских делах»)в 1837 году (см. Бернулли Я. Указ. соч. С. 14).

173

Page 175: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Д о к а з а т е л ь с т в о. В определении 5.5 было введено понятиеиндикатора I

Aслучайного события A. Используем его для доказательства

данного неравенства.Событие, при котором случайная величина X ≤ ε, обозначим A, а про-

тивоположное ему событие A заключается в том, что случайная величинаX > ε. Достаточно очевидно, что сумма индикаторов противоположныхсобытий

IA

+ IA

= 1.Представим модуль случайной величины

X = X · IA

+X · IA.

Так как первое слагаемое X · IAнеотрицательно, то имеем неравенство

X > X · IA.

Поскольку X > ε, то верно двойное неравенствоX > X · I

A> ε · I

A.

Из монотонности математического ожидания следует истинность следу-ющего неравенства

M(X) > M(ε · IA).

Согласно биномиальному закону распределения математическое ожида-ние

M(IA) = P (A),

поэтому имеет место следующее неравенствоM(X) > ε · P (A).

А так как P (A) = P (X > ε), то имеемM(X) > εP (X > ε).

Далее, разделив обе части последнего неравенства на положительное чис-ло ε, убеждаемся в истинности доказываемого неравенства

P (X > ε) ≤ M(X)

ε.

Следствие 7.1. Так как события X ≤ ε и X > ε − противоположные,то неравенство (7.1) эквивалентно неравенству

P (X ≤ ε) ≥ 1−M(X)

ε. (7.2)

Задача 7.1. Согласно мировой статистике, в наши дни средний срокслужбы автомобиля до того как машина попадет на свалку, в глобальноммасштабе, составляет 12 лет1. Оцените вероятность того, выбранный в ав-тосалоне автомобиль прослужит не более 25 лет.

Решение. Предположим, что случайная величина X − срок службы1[Электронный ресурс] : URL : http://www.1gai.ru/publ/514593-dolgovechnost-i-srok-sluzhby\

[email protected] (дата обращения: 12.06.2016).

174

Page 176: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

автомобиля до утилизации. Согласно условию ее математическое ожиданиеM(X) = 12, а длина предполагаемого интервала службы ε = 25. Подстав-ляя эту информацию в неравенство (7.2) получаем

P (X ≤ 25) ≥ 1− 12

25⇒ P (X ≤ 25) ≥ 0, 52.

Таким образом (хоть это и грубая оценка), получаем, чтовероятность того, что автомобиль прослужитне более 25 лет, составляет не менее 52 про-центов.

Задача 7.2. В течение трех семестров установлено, что в среднем сту-дент Вася опаздывает на лекции не более чем на две минуты. Оценитевероятность того, что в четвертом семестре Вася будет опаздывать на лек-ции более чем на 5 минут.

Решение. Предположим, что случайная величина Y − время опозда-ния Васи на лекцию. Из условия известно, что математическое ожиданиеM(Y ) = 2, а длина предполагаемого времени опоздания ε = 5. Подставляяэти данные в неравенство (7.1) получаем

P (X > 5) ≤ 2

5⇒ P (X > 5) ≤ 0, 4.

Следовательно,вероятность того, что Вася будет опаздывать на лекциив четвертом семестре более чем на 5 минут, составляетменее 40 процентов1.

Если ввести ограничение не только на математическое ожидание слу-чайной величины X, но и на ее дисперсию, то можно получить

7.2 Неравенство Бьенеме − Чебышева

Полученное И. Ж. Бьенеме в 1853 году и переоткрытое П. Л. Чебы-шевым1 неравенство утверждает, что случайная величина как правило при-

1В советской и последующей российской математической литературе неравенство называетсянеравенством Чебышева. История неравенства тесно связана с открытием Бьенеме метода моментов(или метода математических ожиданий). Сам Чебышев в августе 1873 года назвал этот методметодом Бьенеме. Поскольку данное неравенство было впервые сформулировано Бьенеме в работе,посвященной этому методу, а вклад Чебышева в развитие метода по мнению академика А. А. Маркова(старшего) превосходит вклад открывателя, то логично назвать неравенство неравенством Бьенеме− Чебышева (см. Бернулли Я. Указ. соч. С. 15).

Бьенеме Иренэ-Жюль (Irenee-Jules Bienayme, 1796-1878) − французский статистик, член Француз-ской академии наук. (см. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyrsftsn\T2A\cyre\T2A\cyrn\T2A\cyre\T2A\cyrm\T2A\cyre,_\T2A\CYRI\T2A\cyrr\T2A\cyre\T2A\cyrn\T2A\cyre-\T2A\CYRZH\T2A\cyryu\T2A\cyrl\T2A\cyrsftsn (дата обращения:12.06.2016)).

Следует отметить, что в работах Чебышева и Маркова Бьенеме пишется как Биенэмэ (возможно,в период борьбы с косомополитизмом в СССР в конце 40-х годов XX столетия неравенство «потеряло»

175

Page 177: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

нимает значения, близкие к значению математического ожидания. Еслисформулировать более точно, оно оценивает вероятность того, что случай-ная величина примет значение, далекое от своего среднего.

Теорема 7.2. Неравенство Бьенеме − Чебышева. Если случайнаявеличина X имеет конечную дисперсию D(X), то для любого положи-тельного числа ε верно неравенство

P (|X −M(X)| > ε) ≤D(X)

ε2. (7.3)

Д о к а з а т е л ь с т в о. Предположим, что случайная величинаX = (X −M(X))2, а положительное число ε = ε2. Подставляя X и ε внеравенство Маркова (7.1), получаем

P[(X −M(X))2 > ε2

]≤ M(X −M(X))2

ε2. (7.4)

Так как неравенство (X −M(X))2 > ε2 эквивалентно неравенству|X −M(X)| > ε,

а M (X −M(X))2 есть дисперсия D(X), то из неравенства (7.4) следуетистинность доказываемого неравенства (7.3).

Аналогично следствию 7.1 неравенство

P (|X −M(X)| ≤ ε) ≥ 1−D(X)

ε2(7.5)

равносильно неравенству (7.3).Ранее, изучая нормальный закон распределения непрерывной случай-

ной величин, мы сформулировали правило трех сигм для нормальногозакона. Неравенство 7.3 позволяет сформулировать в виде следствия этоправило для всех распределений случайной величины, имеющих конечнуюдисперсию.

Следствие 7.2. Если случайная величина X имеет конечную диспер-сию D(X), то справедливо неравенство1

P(|X −M(X)| ≥ 3

√D(X)ε

)≤

1

9. (7.6)

Задача 7.3. В некотором населенном пункте среднесуточное потреб-ление энергии составляет 25000 кВт·час. В среднем зафиксированные зафамилию Бьенеме).

1 D(X)(3√D(X)

)2 =D(X)

9D(X)=

1

9.

176

Page 178: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

последний месяц отклонения не превышали 300 кВт·час. Оцените с веро-ятностью более 0,9 электропотребление в этом населенном пункте в бли-жайшие сутки.

Решение. Предположим, что случайная величина X − количествоэлектроэнергии, израсходованной в этом населенном пункте в ближайшиесутки. Согласно условию среднее квадратическое отклонение σ можно счи-тать равным 300. Поэтому дисперсия D(X) = 3002. Неизвестную величинуинтервала отклонения обозначим за ε. Подставляя эти числа в неравенство(7.5), получаем

P (|X −M(X)| ≤ ε) ≥ 1− 3002

ε2.

Так как по условию нужна оценка вероятности более 0,9, то составляемследующее неравенство

1− 3002

ε2> 0, 9.

Решим это неравенство.3002

ε2< 0, 1⇒ 300

ε<√

0, 1⇒ ε >300

0, 316⇒ ε > 949, 37.

Округляя последний результат до десятков, можно считать, что

в данном населенном пункте в ближайшие сутки с вероятностьюболее чем 0, 9 будет израсходовано 25000± 950 кВт·час.

Замечание 7.1. Заметим, что неравенства Маркова (7.1)-(7.2) и Бье-неме − Чебышева (7.3)-(7.5), являясь универсальными неравенствами, независящими от конкретных распределений, дают приближенные грубыеоценки. Более точные оценки можно получить только определив тип соот-ветствующего распределения при условии известных для этого распреде-ления оценок. В качестве примера рассмотрим следующую задачу.

Задача 7.4. Вероятность изготовления на отлаженном токарном стан-ке детали равна 0,95. Оцените с помощью неравенства Бьенеме − Че-бышева вероятность того, что среди изготовленных 500 деталей число бра-кованных деталей окажется в пределах от 15 до 35. Сравните полученнуюоценку с вероятностью данного события, вычисленной по формуле Муавра− Лапласа.

Решение. В данной задаче случайная величина X − число бракован-ных деталей − распределена по биномиальному закону. Так как вероят-ность изготовления бракованной детали q = 1 − p, то в данном случаеq = 1 − 0, 95, то есть q = 0, 05. Для рассматриваемой величины ма-тематическое ожидание вычисляется по формуле M(X) = np. ПоэтомуM(X) = 500 · 0, 05, следовательно, M(X) = 25. Дисперсия в этом случаевычисляется с помощью формулы D(X) = npq. Подставляя данные, имеем

177

Page 179: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

D(X) = 500 · 0, 05 · 0, 95⇒ D(X) = 23, 75.Вероятность того, что X удовлетворяет двойному неравенству, преоб-

разуем следующим образомP (15 ≤ X ≤ 35) = P (15− 25 ≤ X − 25 ≤ 35− 25) =

= P (−10 ≤ X − 25 ≤ 10) = P (|X − 25| ≤ 10).Подставляя в неравенство (7.5) вычисленные параметры, имеем

P (|X − 25| ≤ 10) ≥ 1− 23, 75

102⇒ P (|X − 25| ≤ 10) ≥ 0, 7625.

Таким образом, вероятность того, что среди изготовленных 500 деталейчисло бракованных деталей окажется в пределах от 15 до 35, не меньше,чем 0,7625.

Оценим вероятность этого события с помощью формулы Муавра − Лап-ласа. В условиях этой формулы δ = 10, σ =

√23, 75, то есть σ = 4, 87.

Следовательно,

P (|X − 25| ≤ 10) = 2Φ

(10

4, 87

)⇒ P (|X − 25| ≤ 10) = 2Φ (2, 053)⇒

⇒ P (|X − 25| ≤ 10) = 2 · 0, 4798⇒ P (|X − 25| ≤ 10) = 0, 9596.Как отмечено в замечании 7.1, оценка по формуле Муавра − Лапласа

точнее более грубой оценки, полученной с помощью неравенства Бьенеме− Чебышева1.

7.3 Теорема Чебышева

Неравенства Маркова и Бьенеме − Чебышева являются на языке мате-матики леммами2, то есть необходимыми ступеньками к закону большихчисел как к ряду теорем, первой из которых является

Теорема 7.3. Теорема Чебышева3. Если существует положитель-ная константа C, ограничивающая дисперсии n попарно независимыхслучайных величин X1, X2, . . . , Xn, то при неограниченном увеличении nсредняя арифметическая случайных величин сходится по вероятности ксредней арифметической их математических ожиданий M(X1), M(X2),. . . , M(Xn), то есть

limn→∞

P

(∣∣∣∣X1 +X2 + · · ·+Xn

n−M(X1) +M(X2) + · · ·+M(Xn)

n

∣∣∣∣ ≤ ε) = 1.

(7.7)1Следует заметить, что оценка с помощью неравенства Бьенеме − Чебышева имеет преимущество

в скорости ее получения, для нее не нужно искать значения интегральной функции Лапласа.2Лемма − (греч. ληµµα − предположение) − вспомогательное утверждение, позволяющее доказы-

вать другие утверждения.3Неравенство и теорема были доказаны П. Л. Чебышевым в 1867 году, в работе «О средних вели-

чинах».

178

Page 180: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Д о к а з а т е л ь с т в о. По условию задачи для дисперсий данныхслучайных величин справедливы неравенства

D(X1) ≤ C, D(X2) ≤ C, . . . , D(Xn) ≤ C. (7.8)

Определим новую случайную величину

X =X1 +X2 + · · ·+Xn

n.

Из линейности математического ожидания следует, что

M(X) = M

(X1 +X2 + · · ·+Xn

n

)=M(X1) +M(X2) + · · ·+M(Xn)

n.

Так как рассматриваемые случайные величины являются независимы-ми, то из свойств дисперсии известно, что

D(X) = D

(X1 +X2 + · · ·+Xn

n

)=D(X1) +D(X2) + · · ·+D(Xn)

n2.

Учитывая ограничения (7.8), имеем неравенство

D(X1) +D(X2) + · · ·+D(Xn)

n2≤

n︷ ︸︸ ︷C + C + · · ·+ C

n2=nC

n2=C

n,

из которого следует верхняя оценка дисперсии

D(X) ≤ C

n. (7.9)

Совершив в неравенстве (7.5) замену случайной величины

X =X1 +X2 + · · ·+Xn

n,

получим следующее неравенство

P

(∣∣∣∣X1 +X2 + · · ·+Xn

n−M(X1) +M(X2) + · · ·+M(Xn)

n

∣∣∣∣ ≤ ε) ≥ 1−D(X)

ε2.

(7.10)С помощью (7.9) получаем нижнюю оценку правой части неравенства

(7.10)

1− D(X)

ε2≥ 1−

C

nε2

= 1− C

nε2.

Учитывая ее, перепишем неравенство (7.10)

P

(∣∣∣∣X1 +X2 + · · ·+Xn

n−M(X1) +M(X2) + · · ·+M(Xn)

n

∣∣∣∣ ≤ ε) ≥ 1−C

nε2.

(7.11)

Так как с увеличением n дробьC

nε2стремится к нулю, а вероятность

по определению не может быть больше единицы, убеждаемся в истинности

179

Page 181: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

равенства (7.7).Следствие 7.3. Так как события |X| ≤ ε и |X| > ε являются проти-

воположными, то истинным является и неравенство

P

(∣∣∣∣X1 +X2 + · · ·+Xn

n−M(X1) +M(X2) + · · ·+M(Xn)

n

∣∣∣∣ > ε

)≤

C

nε2,

(7.12)из которого следует другая формулировка теоремы (7.3):Если существует положительная константа C, ограничивающая дис-

персии n попарно независимых случайных величин X1, X2, . . . , Xn, то принеограниченном увеличении n отклонение средней арифметической слу-чайных величин от средней арифметической их математических ожи-даний M(X1), M(X2), . . . , M(Xn) маловероятно, то есть

limn→∞

P

(∣∣∣∣X1 +X2 + · · ·+Xn

n−M(X1) +M(X2) + · · ·+M(Xn)

n

∣∣∣∣ > ε

)= 0.

(7.13)Обобщая утверждения теоремы Чебышева (7.3) и следствия (7.3), мож-

но утверждать, что среднее арифметическое большого числа случайныхслагаемых стабилизируется с ростом этого числа. Как бы сильно каж-дая случайная величина не отклонялась от своего среднего значения, присуммировании эти отклонения взаимно гасятся, так что среднее ариф-метическое приближается к постоянной величине.

Следствие 7.4. С точки зрения математической статистики теоремаЧебышева (7.3) представляет наибольший интерес в случае, когда все слу-чайные величины X1, X2, . . . , Xn имеют равные математические ожидания

M(X1) = M(X2) = · · · = M(Xn) = M(X)и равные дисперсии

D(X1) = D(X2) = · · · = D(Xn) = D(X)В этом случае в качестве оценки неизвестного исследователю математиче-ского ожидания используют выборочное среднее арифметическое1

X =X1 +X2 + · · ·+Xn

n.

Теорема Чебышева (7.3) является математическим фундаментом приме-няемого в математической статистике выборочного метода, который поз-воляет по небольшой случайной выборке2 делать вывод о всем множествеизучаемых элементов.

Задача 7.5. Для определения среднего дохода налогоплательщиковнекоторого населенного пункта была проведена проверка 200 жителей это-го населенного пункта, выбранных случайным образом. Оцените вероят-ность того, что среднегодовой доход жителей этого населенного пункта

1Это возможно, например, при измерениях некоторой физической величины.2Под выборкой понимается некоторое подмножество элементов, извлекаемое для исследования из

всего множества элементов, которое предполагается бесконечным.

180

Page 182: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

отклонится от среднего арифметического годовых доходов выбранных 200жителей не более, чем на 1000 рублей, если из статистики предыдущих летизвестно, что среднее квадратическое отклонение годового дохода в дан-ном пункте не превышает 3000 рублей.

Решение. Пусть Xi − случайная величина, характеризующая годовойдоход жителя, имеющего номер i в данной выборке1. Так как в каждомслучае i дисперсия D(Xi) ≤ C = 30002, то можно воспользоваться нера-венством (7.11)

P

(∣∣∣∣X1 +X2 + · · ·+X200

200− M(X1) +M(X2) + · · ·+M(X200)

200

∣∣∣∣ ≤ 1000

)> 1− 30002

200 · 10002.

Сократив дробь и вычтя ее из единицы, можно утверждать, чтовероятность того, что среднегодовой доход жителей этого населенногопункта отклонится от среднего арифметического годовых доходов вы-бранных 200 жителей не более, чем на 1000 рублей больше, чем 0, 955.

Задача 7.6. Сколько необходимо провести замеров длины данной де-тали, чтобы с вероятностью не менее чем 0, 9 утверждать, что отклонениепо абсолютной величине средней арифметической этих замеров от факти-ческой длины детали F не превышает 0, 5 при условии, что среднее квад-ратическое отклонение каждого из замеров не превышает 2.

Решение. Предположим, что Xi − случайная величина, определяющаяi-й замер2. Так как в каждом случае i дисперсия D(Xi) ≤ C = 22, то каки в предыдущей задаче 7.5 воспользуемся неравенством (7.11)

P

(∣∣∣∣X1 +X2 + · · ·+Xn

n− F

∣∣∣∣ ≤ 0, 5

)≥ 1− 22

n · (0, 5)2.

По условию задачи правая часть неравенства

1− 4

0, 25n≥ 0, 9.

Решив полученное неравенство относительно n

1− 0, 9 ≥ 16

n⇒ n ≥ 16

0, 1⇒ n ≥ 160,

получаем, что

в условиях задачи нужно провести не менее 160 замеров.

Теорема Чебышева (7.3) позволяет получить доказательство теоремыБернулли, положившей начало исследованиям закона больших чисел.

1Здесь i пробегает множество значений от 1 до 200.2Здесь i пробегает множество значений от 1 до n.

181

Page 183: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

7.4 Теорема Бернулли

Теорема Бернулли1 рассматривает связь между статистической веро-ятностью события2, найденной в условиях практики, и его теоретическойвероятностью3.

Теорема 7.4. Теорема Бернулли. Если m − число наступлений со-бытия A в n попарно независимых испытаниях, а p − вероятность на-ступления события A в каждом из испытаний, то для любого положи-тельного числа ε верны неравенства

P

(∣∣∣∣mn − p∣∣∣∣ > ε

)≤

pq

nε2(7.14)

иP

(∣∣∣∣mn − p∣∣∣∣ ≤ ε) > 1−

pq

nε2. (7.15)

Д о к а з а т е л ь с т в о. Число наступлений события A в n по-парно независимых испытаниях можно считать случайной величиной, рас-пределенной по биномиальному закону, и воспринимать ее как сумму n

попарно независимых случайных величинm = X1 +X2 + · · ·+Xn,

которые можно рассматривать как индикаторные функции события A

Xi = IA

=

1, если A произошло в i-м испытании;0, если A не произошло в i-м испытании.

Так как для каждой величины-индикатора4 математическое ожиданиеM(Xi) = p, а дисперсияD(Xi) = p(1−p), то, полагая C = pq (где q = 1−p)и учитывая следствие 7.4 и неравенство (7.12), убеждаемся в истинностидоказываемого неравенства.

Задача 7.7. Оцените вероятность того, что при подбрасывании двухигральных костей 400 раз одновременно относительная частота выпадениядвух «шестерок» будет отличаться от вероятности этого события более чемна 0, 01.

Решение. Так выпадение «шестерки» на одной кости не зависит от еевыпадения на другой, то вероятность выпадения двух «шестерок» на двухкостях одновременно согласно теореме о произведении вероятностей неза-

1Теорема была получена Я. Бернулли в 1668 году, но опубликована она была в 1713 году.2С точки зрения статистического определения вероятности: вероятность события A − предел от-

ношения количества наступлений события A к количеству всех опытов при безграничном увеличе-нии числа опытов. Это отношение еще называют относительной частотой события.

3Следует помнить, что в теории вероятностей исследуются вероятности событий, которые еще ненаступили.

4См. свойства биномиального распределения или определение индикаторных функций.

182

Page 184: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

висимых событий1 будет равна p =1

6· 1

6, то есть p =

1

36. Соответственно

вероятность того, что при подбрасывании выпадет менее двух «шестерок»,

будет равна q = 1− 1

36, то есть q = 1− 35

36.

По условию задачи n = 400, а величина отклонения ε = 0, 01. Подстав-ляя эти данные в неравенство (7.14)

P

(∣∣∣∣ m400− 1

36

∣∣∣∣ > 0, 01

)≤

1

35· 35

36400 · (0, 01)2

,

после арифметических вычислений получаем, что

вероятность того, что при подбрасывании двух игральных костей 400 разодновременно относительная частота выпадения двух «шестерок» будетотличаться от вероятности этого события более чем на 0, 01, не будетпревышать 0, 675.

Задача 7.8. Вероятность того, что деталь окажется стандартной, со-ставляет 0, 95. Сколько деталей необходимо проверить, чтобы с вероятно-стью 0, 8 можно было бы утверждать, что абсолютная величина отклоне-ния относительной частоты появления стандартных деталей от вероятно-сти их появления не будет превышать 0, 01?

Решение. Согласно условию задачи p = 0, 95. Так как q = 1 − p, тоq = 0, 05. Предел отклонения ε = 0, 9. Подставляя эти данные в неравен-ство (7.15), имеем

P(∣∣∣mn− 0, 95

∣∣∣ < 0, 01)≥ 1− 0, 95 · 0, 05

n(0, 01)2.

Поскольку вероятность утверждения по условию 0, 8, то для правой частиполученного неравенства верна оценка

1− 0, 475

0, 0001n≥ 0, 8.

Решив полученное неравенство относительно n

1− 0, 8 ≥ 4750

n⇒ n ≥ 4750

0, 2⇒ n ≥ 23750,

получаем, что

в условиях задачи нужно проверить не менее 23750 деталей.

1Или принципу произведения.

183

Page 185: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

7.5 Сходимость по вероятности

С законом больших чисел связано важное понятие, обобщающее по-нятие сходимости последовательности, известное из математического ана-лиза. Вспомним определение сходимости для последовательности чисел.

Определение 7.1. Числовая последовательность an сходится кчислу a, если для любого сколь угодно малого положительного числа δсуществует номер N = N(δ), такой что для всех n > N |an − a| < δ.

Поскольку теория вероятностей имеет дело с последовательностями слу-чайных величин, то и сходимость этих последовательностей может бытьописана только с помощью вероятностных оценок. Поэтому для последо-вательностей случайных величин определение сходимости выглядит так:

Определение 7.2. Последовательность случайных величин Xn схо-дится по вероятности к случайной величине X, если для любогосколь угодно малого положительного числа ε и любого сколь угодно ма-лого положительного числа δ существует номер N = N(δ, ε), такой чтодля всех n > N

P (|Xn −X| < δ) ≥ 1− ε или P (|Xn −X| ≥ δ) < ε.Обозначается сходимость по вероятности следующим образом:

Xnp−→ X.

Поэтому все утверждения, связанные с законом больших чисел, нетолько в словесной формулировке, но и в символьной могут выглядетьиначе. Так, например, теорема Чебышева 7.3 наряду со своей словеснойформулировкой может иметь в качестве символьной

X1 +X2 + · · ·+Xn

n

p−→ M(X1) +M(X2) + · · ·+M(Xn)

n.

Замечание 7.2. В рамках данного курса невозможно рассказать о всехтеоремах закона больших чисел1. Можно только отметить, что в этихисследованиях наряду с Я. Бернулли и П. Л. Чебышевым большую рольсыграли исследования А. Муавра, П. С. Лапласа, Д. Пуассона, А. А. Мар-кова, Э. Бореля, А. Я. Хинчина, А. Н. Колмогорова, Б.В.Гнеденко2.

1Различие и многобразие теорем связаны с ограничениями на случайные величины, входящие впоследовательности. В одних из них рассматриваются замена независимости случайных величин нанекоррелированность, в других ограничения на дисперсии заменяется другими условиями.Связано этос задачами, возникающими в научных, технических и экономических приложениях.

2Борель Феликс Эдуар Жюстен Эмиль (фр. Felix Edouard Justin Emile Borel, 1871-1956) −французский математик. Основные работы в области геометрии, теории множеств, функциональногоанализа и теории вероятностей (cм. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRB\T2A\cyro\T2A\cyrr\T2A\cyre\T2A\cyrl\T2A\cyrsftsn,_\T2A\CYREREV\T2A\cyrm\T2A\cyri\T2A\cyrl\T2A\cyrsftsn, https://en.wikipedia.org/wiki/Pierre-Simon_Laplace(дата обращения: 12.06.2016)).

Хинчин Александр Яковлевич (1894-1959) − советский математик. Основные работы в областитеории функций действительного переменного, теории вероятностей, статистической физики, теории

184

Page 186: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

В заключение приведем два примера из разных областей, доказывающиена практике истинность теоретических выводов закона больших чисел.

Первый пример1 связан с именами французского натуралиста XVIII ве-ка Ж. Бюффона и английского математика К. Пирсона. Первый из нихподбрасывал монету 4040 раз, при этом он наблюдал 2048 раз выпадение«герба» и вычислил относительную частоту выпадений «герба» − 0,507.

Второй провел опыт с подбрасыванием дважды: сначала он подбросилмонету 12000 раз и наблюдал выпадение «герба» 6019 раз, вычислив отно-сительную частоту выпадений «герба» − 0,5016. Затем при подбрасываниимонеты 24000 раз он наблюдал выпадение «герба» 12012 раз, вычислив от-носительную частоту выпадений «герба» − 0,5005.

Таким образом, то, что мы знаем из теории о том, что вероятность вы-падения «герба» при подбрасывании одной монеты равна 0,5, имеет дока-занное подтверждение и не требует от нас проверки.

Второй пример известен из социологии2. Во время одного из социологи-ческих опросов некоторый вопрос был задан группе людей из 500 человек.При этом на него дали отрицательный ответ 54,9% опрошенных. Затемопросили еще 1000 человек, и отрицательный ответ социологи получилиот 53,9% опрошенных. Далее были опрошены еще 5000 человек, которыедали 55,4% отрицательных ответов. И, наконец, при опросе 30000 человекотрицательный ответ дали 55,5% опрошенных. Таким образом, практика издесь подтверждает, что для того чтобы узнать, что примерно 54-56% всехлюдей по данному вопросу настроены отрицательно, не нужно опрашиватьвсех людей или 30000 человек, а достаточно опросить не более 500 чело-век.

Практическая и теоретическая ценность закона больших чисел за-ключается в том, что он является математическим фундаментом теорииматематической статистики, без которого невозможно было бы серьезноотносится к ее выводам и уж тем более к практическим рекомендациям,которые востребованы в различного рода приложениях в науке, технике иэкономике.чисел (cм. Википедия [Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRH\T2A\cyri\T2A\cyrn\T2A\cyrch\T2A\cyri\T2A\cyrn,_\T2A\CYRA\T2A\cyrl\T2A\cyre\T2A\cyrk\T2A\cyrs\T2A\cyra\T2A\cyrn\T2A\cyrd\T2A\cyrr_\T2A\CYRYA\T2A\cyrk\T2A\cyro\T2A\cyrv\T2A\cyrl\T2A\cyre\T2A\cyrv\T2A\cyri\T2A\cyrch (дата обращения: 12.06.2016)).

Гнеденко Борис Владимирович (1912-1995) − советский математик, специалист по теории веро-ятностей, математической статистике, вероятностным и статистическим методам (cм. Википедия[Электронный ресурс] : URL : https://ru.wikipedia.org/wiki/\T2A\CYRG\T2A\cyrn\T2A\cyre\T2A\cyrd\T2A\cyre\T2A\cyrn\T2A\cyrk\T2A\cyro,_\T2A\CYRB\T2A\cyro\T2A\cyrr\T2A\cyri\T2A\cyrs_\T2A\CYRV\T2A\cyrl\T2A\cyra\T2A\cyrd\T2A\cyri\T2A\cyrm\T2A\cyri\T2A\cyrr\T2A\cyro\T2A\cyrv\T2A\cyri\T2A\cyrch, (дата обращения: 12.06.2016)).

1Помимо того, что этот пример подтверждает на практике выводы закона больших чисел, онявляется подтверждением фантастической работоспособности Ж. Бюффона и К. Пирсона.

2См. Миронов Б. Н., Степанов З. В. Историк и математика (Математические методы в историческомисследовании). Л. : Наука, 1976. С. 10.

185

Page 187: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

8 Двумерные случайные величины

Всякое случается на свете. И все,

что случается, случается. И все

случайности, которые, случившись,

случаются, становятся причиной

других случайностей.

Адамс Дуглас1

8.1 Понятие двумерной случайной величины

Функция распределения одной случайной величины не может описатьвсе многообразие природных и, в том числе, экономических процессов иявлений. Для описания этих процессов используются многомерные слу-чайные величины.

В качестве примеров случайных величин разной размерности рассмот-рим следующие примеры:1. Успеваемость студента, окончившего курс обучения в вузе, характери-зуется системой n случайных величин X1, X2, . . . , Xn − оценок студентаво вкладыше к его диплому.2. Станок-автомат штампует цилиндрические валики, диаметр валика X ивысота Y которых образуют систему двух случайных величин (X, Y ).3. Состояние погоды в данной географической точке и в данный моментвремени описывается некоторым набором параметров: температура возду-ха, атмосферное давление, направление и скорость ветра, наличие, вид иинтенсивность атмосферных осадков. Эти параметры можно изучать поотдельности, но для синоптиков имеет огромное значение изучение пара-метров погоды в их совокупности и взаимодействии. Следовательно, объ-ектом изучения является многомерная случайная величина.

В рамках данного курса мы ограничимся изучением двумерных дис-кретных случайных величин. Для изучения двумерных непрерывных слу-чайных величин, а также случайных величин большей размерности следуетобратиться к литературе из библиографического списка.

Определение 8.1. Совокупность (X, Y ) двух случайных величин Xи Y называется двумерной случайной величиной или двумернымслучайным вектором.

1Дуглас Н. А. Автостопом по Галактике. Кн. 5. В основном безвредна (см. [Электронный ре-сурс] : URL : http://royallib.com/read/adams_duglas/v_osnovnom_bezvredna.html#0(дата обраще-ния: 12.06.2016)).

186

Page 188: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

8.2 Дискретные двумерные случайные величины

8.2.1 Закон распределения дискретной двумерной случайной величины

Определение 8.2. Двумерная случайная величина (X, Y ) называетсядискретной двумерной случайной величиной, если случайные вели-чины X и Y являются дискретными случайными величинами.

Предположим, что случайная величинаX принимает значения x1, x2, x3,а случайная величина Y − значения y1, y2. В этом случае двумерная слу-чайная величина (X, Y ) принимает пары значений (xi, yj), где i = 1, 2,j = 1, 2, 3. Также, как и в одномерном случае, распределение двумернойдискретной случайной величины естественно описывается с помощью таб-лицы:

X\Y y1 y2 y3

x1 p11 p12 p13

x2 p21 p22 p23

Каждое из чисел pij определяет вероятность события, в котором слу-чайные величины X и Y примут соответствующие значения:

pij = P (X = xi, Y = yj).Если мы сложим соответственно вероятности первой строки

p11 + p12 + p13 = p1x

и второй строкиp21 + p22 + p23 = p2x,

то мы получим возможность составить закон распределения случайной ве-личины X:

X x1 x2

pX

p1x p2x

Аналогично мы можем составить закон распределения случайной ве-личины X. Для этого нам нужно будет просуммировать соответствующиестолбцы таблицы двумерного распределения.

p11 + p21 = p1y, p12 + p22 = p2y, p13 + p23 = p3y.В результате мы получим

Y y1 y2 y3

pY

p1y p2y p3y

Естественно, каждая из таблиц описывает закон распределения соответ-ствующей случайной величины при условии, что сумма вероятностей вкаждой из таблиц равна 1.

187

Page 189: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

То есть2∑i=1

3∑j=1

pij = (p11+p12+p13)+(p21+p22+p23) = p1x+p2x =2∑i=1

pix = 1. (8.1)

3∑j=1

2∑i=1

pij = (p11+p21)+(p12+p22)+(p13+p23) = p1y+p2y+p3y =3∑j=1

pjy = 1.

(8.2)Достаточно часто все законы распределения как двумерной случайной

величины (X, Y ), так и ее составляющих X и Y , объединяют в одной таб-лице, дополняя ее нижней строкой Py и правым столбцом Px:

X\Y y1 y2 y3 Pxx1 p11 p12 p13 p1x

x2 p21 p22 p23 p2x

Py p1y p2y p3y 1

Замечание 8.1. Заметим, что в общем случае закон распределениядвумерной случайной величины (X, Y ) изображается безразмерным, таккак каждая из ее составляющих X и Y может принимать счетное числозначений:

X\Y y1 y2 . . . yj . . . Pxx1 p11 p12 . . . p1j . . . p1x

x2 p21 p22 . . . p2j . . . p2x

. . . . . . . . . . . . . . . . . . . . .

xi pi1 pi2 . . . pij . . . pix. . . . . . . . . . . . . . . . . . . . .

Py p1y p2y . . . pjy . . . 1

Единица в правой нижней клетке таблицы распределения подтверждает,что ∑

i, j

pij = 1.

Задача 8.1. Известен закон распределения двумерной случайной ве-личины (X, Y )

X\Y 1 2 3

1 0, 2 0, 1 0, 1

2 0, 1 0, 3 0, 2

Требуется:1. Построить законы распределения случайных величин X и Y .

188

Page 190: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

2. Определить вероятность события X < Y .3. Построить закон распределения случайной величины Z = X + Y .

Решение1.1. Случайная величина X принимает два значения X = 1 и X = 2.Первое значение она принимает в трех случаях:при Y = 1 с вероятностью 0, 2; при Y = 2 с вероятностью 0, 1 и при Y = 3с вероятностью 0, 1.

Так как эти случаи несовместны, тоP (X = 1) = P (X = 1, Y = 1) + P (X = 1, Y = 2) + P (X = 1, Y = 3).

Следовательно, P (X = 1) = 0, 2 + 0, 1 + 0, 1⇒ P (X = 1) = 0, 4.АналогичноP (X = 2) = P (X = 2, Y = 1) + P (X = 2, Y = 2) + P (X = 2, Y = 3).

Поэтому P (X = 2) = 0, 1 + 0, 3 + 0, 2⇒ P (X = 2) = 0, 6.Так как P (X = 1) + P (X = 2) = 1, то закон распределения случайной

величины X выглядит так:

X 1 2

p 0, 4 0, 6

1.2. Случайная величина Y принимает три значения Y = 1, Y = 2 и Y = 3.Первое значение она принимает в двух случаях: при X = 1 с вероятностью0, 2 и при X = 2 с вероятностью 0, 1.

Так как эти случаи несовместны, тоP (Y = 1) = P (X = 1, Y = 1) + P (X = 2, Y = 1).

Следовательно, P (Y = 1) = 0, 2 + 0, 1⇒ P (Y = 1) = 0, 3.Аналогично

P (Y = 2) = P (X = 1, Y = 2) + P (X = 2, Y = 2).P (Y = 3) = P (X = 1, Y = 3) + P (X = 2, Y = 3).

Выполнив вычисления, имеем:P (Y = 2) = 0, 1 + 0, 3⇒ P (Y = 2) = 0, 4.P (Y = 3) = 0, 1 + 0, 2⇒ P (Y = 3) = 0, 3.

Так как P (Y = 1) + P (Y = 2) + P (Y = 3) = 1, то закон распределенияслучайной величины Y выглядит так:

Y 1 2 3

p 0, 3 0, 4 0, 3

2. Событие X < Y наступает в случае трех несовместных исходов:(X = 1, Y = 2) или (X = 1, Y = 3) или (X = 2, Y = 3).

Поэтому вероятностьP (X < Y ) = 0, 1 + 0, 1 + 0, 2⇒ P (X < Y ) = 0, 4.

3. Случайная величина Z = X + Y принимает значения 2, 3, 4 и 5.

189

Page 191: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

При этом Z = 2, если X = 1 и Y = 1, с вероятностью P (X = 1, Y = 1) =0, 2.Z = 3 в двух несовместных случаях: (X = 1, Y = 2) и (X = 2, Y = 1).Поэтому P (Z = 3) = 0, 1 + 0, 1⇒ P (Z = 3) = 0, 2.Z = 4 также в двух несовместных случаях:

(X = 1, Y = 3) и (X = 2, Y = 2).В силу этого, P (Z = 4) = 0, 1 + 0, 3⇒ P (Z = 4) = 0, 4.И, наконец, Z = 5, если X = 2 и Y = 3, с вероятностью

P (X = 2, Y = 3) = 0, 2.Так как сумма вычисленных вероятностей

P (Z = 2) + P (Z = 3) + P (Z = 4) + P (Z = 5) = 1,то закон распределения случайной величины Z выглядит так:

Z 2 3 4 5

p 0, 2 0, 2 0, 4 0, 2

Задача 8.2. Из статистики рождаемости в США1 известно, что в 1901году вероятность обнаружить пару однополых близнецов среди всех парродившихся близнецов составляла 69%. Вычислить вероятности всех ва-риантов рождения пар близнецов, если вероятность рождения мальчикаравна 0,52.

РешениеПустьX − случайная величина, определяющая число мальчиков, родив-

шихся первыми в паре, а Y − случайная величина, определяющая числомальчиков, родившихся вторыми в паре. Каждая из случайных величинпринимает значение 0, если родилась девочка, и значение 1, если родилсямальчик.

Обозначим черезpij = P (X = i, Y = j), (i, j = 0, 1).

Построим предполагаемый закон распределения

X\Y 0 1

0 p00 p01

1 p10 p11

Так как рождение двух девочек в паре и рождение двух мальчиковявляются несовместными событиями, то согласно условию

p00 + p11 = 0, 69.Это же касается и разнополых близнецов. Поэтому согласно условию

p00 + p10 = 0, 52.1См. Маккьюсик В. Генетика человека. Пер. с англ. М. : Мир, 1967. С. 119-120.

190

Page 192: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

p00 + p01 = 0, 52.C учетом того, что сумма всех вероятностей в таблице равна 1, имеем

следующую систему уравненийp00 + p11 = 0, 69,p00 + p10 = 0, 52,p00 + p01 = 0, 52,p00 + p01 + p10 + p11 = 1.

Вычтем из четвертого равенства первое и сложим равенство-разность совторым и третьим равенством. Из полученного равенства-суммы

2p00 + 2 · 0, 31 = 1, 35находим p00 = 0, 36. Подставляя значение p00 в каждое из первых трехуравнений, имеем p11 = 0, 33; p01 = p10 = 0, 155.

Таким образом, получаем, что

вероятность рождения двух девочек-близнецов составляла 36%;вероятность рождения двух мальчиков-близнецов − 33%;вероятность рождения пары девочка-мальчик- − 15, 5%;вероятность рождения пары мальчик-девочка − 15, 5%.

8.2.2 Функция распределения дискретной двумерной случайной величины

Точно также, как и в случае одномерных случайных величин, геомет-рическим изображением двумерных случайных величин является функцияраспределения.

Определение 8.3. Функцией распределения двумерной случай-ной величины (X, Y ) называется функция от двух переменных, зна-чения которой в каждой точке (x, y) равны вероятности совместноговыполнения двух неравенств X < x и Y < y.

То есть

∀(x, y) ∈ R2 F (x, y) = P (X < x, Y < y). (8.3)

Задача 8.3. Закон распределения двумерной случайной величины(X, Y ) задан следующей таблицей:

X\Y −1 0 1

0 0, 2 0, 25 0, 05

1 0, 1 0, 3 0, 1

Определите функцию распределения FX,Y

(x, y).Решение. Для определения функции распределения F

X,Y(x, y) разо-

бъем оси Ox и Oy на интервалы, границы которых определяют возможныезначения случайных величин X и Y .

191

Page 193: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Такими интервалами для оси Ox будут(−∞, 0], (0, 1], (1, ∞).

А для оси OY −(−∞, −1], (−1, 0], (0, 1], (1, ∞).

Из закона распределения видно, что случайная точка (X, Y ) может по-пасть в область, где x ≤ 0 или y ≤ −1, с вероятностью 0.

Вероятность попадания (X, Y ) в прямоугольник, в котором(0 < x ≤ 1, −1 < y ≤ 0)

складывается из суммы вероятностей попадания случайной точки в обла-сти, в которых (x ≤ 0, y ≤ −1) и вероятности события, в котором X = 0 иY = −1.

Вероятность попадания (X, Y ) в прямоугольник, в котором(0 < x ≤ 1, 0 < y ≤ 1)

складывается из суммы вероятностей попадания случайной точки в обла-сти, в которых (x ≤ 0, y ≤ −1), (x ≤ 0, −1 < y ≤ 0) и вероятностисобытия, в котором X = 0 и Y = 0.

Вероятность попадания (X, Y ) в полуполосы (0 < x ≤ 1, y > 1) и(x > 1, −1 < y ≤ 0) определяется соответственно суммами вероятностейпопадания в области, расположенные левее и ниже, и складывается из чи-сел

0, 2 + 0, 25 + 0, 05 = 0, 5 и 0, 2 + 0, 1 = 0, 3.Вероятность попадания (X, Y ) в полуполосу (x > 1, 0 < y ≤ 1) опреде-

ляется суммой четырех слагаемых, расположенных в левом верхнем квад-ранте таблицы закона распределения

0, 2 + 0, 25 + 0, 1 + 0, 3 = 0, 85.И, наконец, вероятность попадания (X, Y ) в область (x > 1, y > 1)

равна 1.Таким образом, таблица для функции распределения F

X,Y(x, y) имеет

следующий вид:

FX,Y

(x, y) y ≤ −1 −1 < y ≤ 0 0 < y ≤ 1 y > 1

x ≤ 0 0 0 0 0

0 < x ≤ 1 0 0, 2 0, 45 0, 5

x > 1 0 0, 3 0, 85 1

С точки зрения геометрии функция распределения FX,Y

(x, y) определя-ет вероятность попадания случайной точки (X, Y ) в бесконечный квад-рант, правой верхней вершиной которого является точка (x, y) (рис. 8.1).

192

Page 194: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

x

y

y

x

M(x, y)

Рис. 8.1

Задача 8.4. Пусть x1, x2 и y1 − заданные числа. Зная функциюFX,Y

(x, y), вычислить вероятность попадания случайной точки (X, Y ) вмножество (x, y) : x1 ≤ x < x2; y < y1 и построить геометрическоеизображение.

Решение. Так как искомая вероятностьP (x1 ≤ X < x2, Y < y1) = P (X < x2, Y < y1)− P (X < x1, Y < y1),

то согласно формуле (8.3)P (x1 ≤ X < x2, Y < y1) = F

X,Y(x2, y1)− FX,Y

(x1, y1).Построим геометрическое изображение. Изображением вероятности

P (X < x2, Y < y1) в точке (x2, y1) является серый квадрант (рис.8.2).

x

y

y1

x2

M(x2, y1)

Рис. 8.2

А изображением вычитаемой вероятности является черный квадрант (рис.8.3).

x

y

y1

x1

N(x1, y1)

Рис. 8.3

Накладывая второй квадрант на первый, в качестве геометрического ре-шения задачи, получаем вертикальную серую полосу (рис. 8.4).

x

y

y1

x2

M(x2, y1)N(x1, y1)

Рис. 8.4

Таким образом, вероятность попадания случайной точки (X, Y ) в вер-тикальную полуполосу (x, y) : x1 ≤ x < x2; y < y1 равна вычисленной

193

Page 195: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

выше разности значений функции распределения.Задача 8.5. Пусть x1, y1 и y2 − заданные числа. Зная функцию

FX,Y

(x, y), вычислить вероятность попадания случайной точки (X, Y ) вмножество (x, y) : x < x1; y1 ≤ y < y2 и построить геометрическое изоб-ражение.

Решение. Очевидно, что данная задача решается по образцу предыду-щей задачи.

P (X < x1, y1 ≤ Y < y2) = FX,Y

(x1 y2)− FX,Y(x1, y1).

А геометрическим образом решения является горизонтальная серая по-луполоса (рис. 8.5).

x

yy2

x1

M(x1, y2)

N(x1, y1)

Рис. 8.5

Задача 8.6. Пусть x1, x2, y1 и y2 − заданные числа. Зная функциюFX,Y

(x, y), вычислить вероятность попадания случайной точки (X, Y ) вмножество (x, y) : x1 ≤ x < x2; y1 ≤ y < y2 и построить геометрическоеизображение.

Решение. По аналогии с решением задач 8.4 и 8.5 имеемP (x1 ≤ X < x2, y1 ≤ Y < y2) =

= (FX,Y

(x2, y2)− FX,Y(x1, y2)) + (F

X,Y(x2, y1)− FX,Y

(x1, y1)).Достаточно очевидно, что представленная сумма разностей значений

функции распределения определяет черный прямоугольник, образованныйпересечением серых вертикальной и горизонтальной полуполос (рис. 8.6).

x

yy2

x2Рис. 8.6

Задача 8.7. Подбрасываются две монеты. Пусть случайная величинаX определяет число выпадений «герба» при подбрасывании первой моне-ты, а случайная величина Y − число выпадений «герба» при подбрасыва-нии второй монеты.

Требуется:1. Построить закон двумерного распределения X, Y .2. Определить функцию распределения F

X,Y(x, y).

3. Построить ее схематическое изображение в трехмерной системе коорди-

194

Page 196: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

нат.Решение. Каждая из случайных величин принимает значение 0 при

выпадении «решетки» и 1 при выпадении «герба».Пространство Ω элементарных событий данного опыта состоит из че-

тырех исходовΩ = ( РР), ( РГ), ( ГР), ( ГГ).

Следовательно, двумерная случайная величина X, Y принимает четырезначения

(0, 0), (0, 1), (1, 0), (1, 1).Так как подбрасывание одной монеты не зависит от подбрасывания дру-

гой монеты, то согласно теореме о произведении независимых событий

P (X = i, Y = j) = P (X = i) · P (Y = j) =1

2· 1

2=

1

4.

Поэтому закон распределения случайной величины X, Y имеет следую-щий вид:

X\Y 0 1

01

4

1

4

11

4

1

4

Для построения функции распределения FX,Y

(x, y) разобъем оси Ox иOy на интервалы, границы которых определяют возможные значения слу-чайных величин X и Y .

Такими интервалами для каждой из осей будут(−∞, 0]), (0, 1], (1, ∞).

Из закона распределения видно, что случайная точка (X, Y ) может по-пасть в область где x ≤ 0 или y ≤ 0 с вероятностью 0.

Вероятность попадания (X, Y ) в прямоугольник, в котором(0 < x ≤ 1, 0 < y ≤ 1)

складывается из суммы вероятностей попадания случайной точки в обла-сти, в которых (x ≤ 1, y ≤ 1), и вероятности события, в котором X = 0 иY = 0.

Вероятность попадания (X, Y ) в полуполосы (0 < x ≤ 1, y > 1) и(x > 1, 0 < y ≤ 1) определяется суммами вероятностей попадания в обла-сти, расположенные левее и ниже, и складывается из чисел

0 +1

4+

1

4=

1

2.

И, наконец, вероятность попадания (X, Y ) в область (x > 1, y > 1)равна 1.

195

Page 197: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Следовательно, таблица для функции распределения FX,Y

(x, y) выгля-дит следующим образом:

FX,Y

(x, y) y ≤ 0 0 < y ≤ 1 y > 1

x ≤ 0 0 0 0

0 < x ≤ 1 01

4

1

2

x > 1 01

21

Перенося значения таблицы в трехмерную систему координат, получаемсхематическое изображение функции F

X,Y(x, y) распределения двумерной

случайной величины (рис. 8.7).

x

F (x, y)

y

1

1

14

12

1

Рис. 8.7В качестве обобщения рассмотрим свойства функции распределения

дискретной двумерной случайной величины.Свойство 8.1. ∀x, y ) ≤ F

X,Y(x, y) ≤ 1.

Истинность этого свойства вытекает из определения 8.3 функции распре-деления.

Свойство 8.2. Функция FX,Y

(x, y) является монотонно неубывающейфункцией по каждому аргументу.То есть

∀ y, x1, x2 : x1 < x2 ⇒ FX,Y

(x1, y) ≤ FX,Y

(x2, y). (8.4)∀x, y1, y2 : y1 < y2 ⇒ F

X,Y(x, y1) ≤ F

X,Y(x, y2). (8.5)

Докажем утверждение (8.4). Предположим, что x1 < x2. Согласно дан-ному предположению и равенству (8.3) имеем

FX,Y

(x1, y) = P (X < x1, y) ≤ P (X < x1, y) + P (x1 ≤ X < x2, y) == P (X < x2, y) = F

X,Y(x2, y).

Утверждение (8.5) доказывается аналогично.Свойство 8.3. ∀x, y F

X,Y(−∞, y) = 0; F

X,Y(x, −∞) = 0.

196

Page 198: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Так как каждое из событий X < x < −∞ и Y < y < −∞ невозможно,то

FX,Y

(−∞, y) = P (X < x, Y < y) = 0;FX,Y

(x, −∞) = P (X < x, Y < y) = 0.

Свойство 8.4. Пусть F1(x) = P (X < x), а F2(y) = P (Y < y).Тогда справедливы следующие равенства

∀x limy→+∞

FX,Y

(x, y) = F1(x);

∀ y limx→+∞

FX,Y

(x, y) = F2(y).Рассмотрим первое из равенств. Так как событие Y < +∞ является

достоверным событием, то∀x lim

y→+∞FX,Y

(x, y) = P (X < x) = F1(x).

Аналогично доказывается второе равенство.Из этих равенств вытекает очевидноеСледствие 8.1. F

X,Y(+∞, +∞) = 1.

Задача 8.8. Задана функция распределения FX,Y

(x, y) двумерной слу-чайной величины (X, Y ).

FX,Y

(x, y) y ≤ 0 0 < y ≤ 1 1 < y ≤ 2 y > 2

x ≤ 1 0 0 0 0

1 < x ≤ 2 0 0, 1 0, 15 0, 25

2 < x ≤ 3 0 0, 15 0, 3 0, 55

3 < x ≤ 4 0 0, 2 0, 4 0, 7

x > 4 0 0, 2 0, 6 1

1. Определите функции распределения FX

(x) и FY(y) одномерных состав-

ляющих заданной двумерной случайной величины.2. Постройте законы распределения X и Y .

Решение 1. Согласно свойству 8.4∀x lim

y→+∞FX,Y

(x, y) = FX

(x);

∀ y limx→+∞

FX,Y

(x, y) = FY(y).

Поэтому последний столбец заданной таблицы и последняя ее строка опре-деляют соответственно функции распределения F

X(x) и F

Y(y) одномерных

составляющих заданной двумерной случайной величины.

FX

(x) =

0, если x ≤ 1,0, 25 если 1 < x ≤ 2,0, 55 если 2 < x ≤ 3,0, 7 если 3 < x ≤ 4,1 если x > 4,

FY(y) =

0, если y ≤ 0,0, 2 если 0 < y ≤ 1,0, 6 если 1 < y ≤ 2,1 если y > 2.

2. Из построенных функций распределения FX

(x) и FY(y) видно, что пер-

197

Page 199: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

вая из функций имеет неустранимые разрывы первого рода в точках x = 1;x = 2; x = 3 и x = 4, а вторая − в точках y = 0; y = 1; y = 2.

Поэтому соответствующие законы распределения X и Y будут иметьследующий вид:

X 1 2 3 4

px

0, 25 0, 3 0, 15 0, 3

Y 0 1 2

py

0, 2 0, 4 0, 4

8.3 Понятие независимости случайных величин

Из определения 8.2 cледует, что, зная закон распределения двумернойслучайной величины (X, Y ), можно найти законы распределения ее ком-понент X и Y .

А можно ли сделать наоборот: зная законы распределения случайныхвеличин X и Y , найти закон распределения системы случайных величин(X, Y )?

Рассмотрим следующий пример.Дискретные случайные величины X и Y заданы следующим образом:

X −1 1

p 0, 6 0, 4

Y −1 1

p 0, 6 0, 4

Составим два закона распределения двумерных случайных величин(X1, Y1) и (X2, Y2):

X1\Y1 −1 1 Px−1 0, 6 0 0, 6

1 0 0, 4 0, 4

Py 0, 6 0, 4 1

X2\Y2 −1 1 Px−1 0, 3 0, 3 0, 6

1 0, 3 0, 1 0, 4

Py 0, 6 0, 4 1

Распределения соответствующих случайных координат в данных дву-мерных распределениях совпадают. Но сами двумерные величины (X1, Y1)и (X2, Y2) отличны друга от друга, так как вероятности pij для одного зако-на распределения отличаются от соответствующих pij для другого законараспределения.

Следовательно, ответ на поставленный вопрос отрицательный: Знаниезаконов распределения случайных величин X и Y , являющихся координа-тами двумерной системы случайных величин (X, Y ) в общем случае непозволяет определить закон распределения двумерной величины.

Тем не менее существует частный случай, позволяющий при знаниизаконов распределения случайных компонент определить закон распреде-

198

Page 200: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

ления всей системы. Случай этот связан с понятием независимости слу-чайных величин.

Определение 8.4. Две случайные величины X и Y называются неза-висимыми, если независимы все связанные с ними события, такие как:X < x; Y < y; X = xi; Y = yj (и подобные им).

Отношение независимости случайных величин является отношениемсимметричности, поэтому если случайная величина X не зависит от слу-чайной величины Y , то и случайная величина Y не зависит от X.

Так как каждая дискретная случайная величина определяется своим за-коном распределения, то сформулируем эквивалентное определение неза-висимости случайных величин.

Определение 8.5. Две случайные величины X и Y называются неза-висимыми, если закон распределения каждой из них не зависит от то-го, какие возможные значения принимает другая величина.

Сформулируем теорему.Теорема 8.1. Критерий независимости случайных величинСлучайные величины X и Y являются независимыми тогда и толь-

ко тогда, когда функция распределения двумерной случайной величины(X, Y ) равна произведению функций распределения ее составляющих:

FX,Y

(x, y) = FX(x) · F

Y(y). (8.6)

Д о к а з а т е л ь с т в о. Предположим, что случайные величиныX и Y являются независимыми. Тогда связанные с ними события X < xи Y < y также являются независимыми. Поэтому, опираясь на теорему опроизведении вероятностей независимых событий, имеем:

FX,Y

(x, y) = P (X < x, Y < y) = P (X < x) · P (Y < y) = FX

(x) · FY(y).

Развернув полученное равенство в противоположную сторону, получимдоказательство достаточного условия теоремы:

FX,Y

(x, y) = FX

(x) · FY(y) = P (X < x) · P (Y < y) = P (X < x, Y < y).

То есть вероятность одновременного наступления событий X < x и Y <y равна произведению вероятностей этих событий.

Для дискретных случайных величин из теоремы 8.1 вытекает следующеепрактическое

Следствие 8.2. В случае независимости случайных компонент X иY двумерной дискретной случайной величины (X, Y ) каждый элементpij матрицы ее распределения равен произведению вероятностей pix и pjyсоответствующих событий X = xi и Y = yj.

То естьpij = P (X = xi, Y = yj) = P (X = xi) · P (Y = yj) = pixpjy.

Задача 8.9. Двумерная случайная величина (X, Y ) задана своим за-

199

Page 201: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

коном распределения

X\Y −1 0 1

1 0, 18 0, 12 0, 3

2 0, 12 0, 08 0, 2

Определите, зависимы или независимы случайные величины X и Y .Решение. Дополним заданную таблицу распределениями случайных

величин X и Y . Для этого, сложив вероятности в каждой из двух строк0, 18 + 0, 12 + 0, 3 = 0, 6;0, 12 + 0, 08 + 0, 2 = 0, 4,

построим правый дополнительный столбец вероятностей, соответствующихзначениям случайной величины X:

X\Y −1 0 1 Px1 0, 18 0, 12 0, 3 0, 6

2 0, 12 0, 08 0, 2 0, 4

Аналогично, сложив соответствующие вероятности в каждом из трех столб-цов заданной таблицы

0, 18 + 0, 12 = 0, 3;0, 12 + 0, 08 = 0, 2;0, 3 + 0, 2 = 0, 5,

построим нижнюю дополнительную строку вероятностей, соответствую-щих значениям случайной величины Y :

X\Y −1 0 1 Px1 0, 18 0, 12 0, 3 0, 6

2 0, 12 0, 08 0, 2 0, 4

Py 0, 3 0, 2 0, 5 1

Далее, опираясь на следствие 8.2, умножая поочередно вероятности pixна вероятности pjy, проверим совпадают ли все полученные произведенияс соответствующими вероятностями pij заданной таблицы распределения.

0, 6 · 0, 3 = 0, 18; 0, 6 · 0, 2 = 0, 12; 0, 6 · 0, 5 = 0, 3;0, 4 · 0, 3 = 0, 12; 0, 4 · 0, 2 = 0, 08; 0, 4 · 0, 5 = 0, 2.

Так как все найденные произведения совпадают с соответствующими эле-ментами заданной таблицы, то можно утверждать, что

Случайные величины X и Y являются независимыми .Рассматривая ранее свойства математического ожидания дискретных

200

Page 202: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

случайных величин, мы пропустили одно важное свойство, которое сфор-мулируем в виде теоремы1.

Теорема 8.2. Математическое ожидание произведения двух незави-симых дискретных случайных величин равно произведению математиче-ских ожиданий этих величин.То есть, если X и Y − независимые дискретные случайные величины, то

M(X · Y ) = M(X) ·M(Y ). (8.7)

Д о к а з а т е л ь с т в о. Предположим, что случайная величина Xпринимает значения xi с вероятностью pi каждое, а случайная величина Yпринимает значения yj с вероятностью2 pj.

Так как X и Y − независимые случайные величины, тоP (X = xi, Y = yj) = P (X = xi) · P (X = yj).

Учитывая это, имеем

M(X · Y ) =n∑i=1

m∑j=1

xiyjP (X = xi, Y = yj) =

=

(n∑i=1

xiP (X = xi)

(m∑j=1

yjP (Y = yj)

)= M(X) ·M(Y ).

В качестве иллюстрации теоремы 8.2 рассмотрим два примера.Пример 1. Монета подбрасывается дважды. Случайная величина X −

число выпадений «герба» при первом подбрасывании монеты, а случайнаявеличина Y − число выпадений «герба» при втором подбрасывании. Каж-дая из случайных величин принимает два значения: 0 и 1 с одной и той же

вероятностью p =1

2. Поэтому

M(X) = M(Y ) =1

2.

Очевидно, что X и Y не зависят друг от друга. Поэтому согласно тео-реме 8.2

M(XY ) = M(X)M(Y )⇒M(XY ) =1

2· 1

2⇒M(XY ) =

1

4.

Замечание 8.2. Математическое ожидание произведения XY можноустановить непосредственно, вычислив его по определению.

Так как случайная величина XY принимает значение 1, если «герб»выпал при каждом подбрасывании, и значение 0 − в остальных случаях,то ее закон распределения имеет следующий вид:

1Рассматриваемое свойство имеет место и для непрерывных случайных величин, но его доказатель-ство следует искать в произведениях библиографического списка литературы.

2Здесь i = 1, . . . , n; j = 1, . . . ,m (мы не рассматриваем случай счетного набора значений случайныхвеличин, так как в этом случае пришлось бы обращаться к свойствам сходимости числовых рядов, чтоудлиняет доказательство, но не влияет на результат.).

201

Page 203: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

XY 0 1

p3

4

1

4

Поэтому

M(XY ) = 0 · 34

+ 1 · 14⇒M(XY ) =

1

4.

Пример 2. Монета подбрасывается один раз. Случайная величина X− число выпадений «герба» при подбрасывании монеты − принимает зна-чения 1, если выпал «герб», и 0, если выпала «решетка», с одной и той же

вероятностью p =1

2.

Случайную величину Y определим так: Y = 1−X. При таком определе-

нии Y также принимает значения 0 и 1 с постоянной вероятностью p =1

2.

Поэтому, как и в первом примере

M(X) = M(Y ) =1

2.

Случайная величина XY по определению может принимать только однозначение 0, а значит,

M(XY ) = 0 6= M(X) ·M(Y ) =1

2· 1

2.

Таким образом, можно сделать формальный вывод о том, что X и Y −зависимые случайные величины.

8.4 Условное распределение вероятностей

Одной из задач применения теории вероятностей к задачам практикиявляется изучение прогноза возможного значения случайной величины Y

по выводам наблюдений над другой случайной величиной X. Прогноз вэтих случаях определяется не по результатам данного момента исследо-вания, а по глобальным данным, которые представляет информационныйцентр1. Примерами таких прогнозов могут быть метеопрогнозы, прогнозыстоимости ценных бумаг, влияние результатов погрешности измерений нарезультаты расчетов и так далее.

Во всех подобных случаях прогноз имеет вероятностный характер, по-скольку связан с вопросами вида: при наблюдении значения x случайнойвеличины X какова вероятность того, что случайная величина Y будетлежать в определенных границах, или чему равно среднее значение Y (итому подобными вопросами).

Решение этой задачи связано с условным законом распределения одной1В частности, такими центрами могут быть метеоцентры, финансовые биржи, центры технической

и научной информации.

202

Page 204: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

из случайных величин.Определение 8.6. Условным законом распределения одной из

случайных величин системы (X, Y ) называется ее закон распределения,вычисленный при условии, что другая случайная величина приняла опре-деленное значение (или попала в некоторый интервал).

В случае системы двух дискретных случайных величин можно вычис-лить условные законы распределения c помощью условных вероятностей,определяющих вероятность того, что случайная величина X примет зна-чение xi при условии, что случайная величина Y примет значение yj (или,наоборот, случайная величина Y примет значение yj при условии, что слу-чайная величина X примет значение xi).

Ранее, при изучении алгебры событий мы определили условную вероят-ность события B при условии, что событие A произошло:

PB(A) =

P (AB)

P (A). (8.8)

Предположим, что двумерная случайная величина (X, Y ) имеет следу-ющий закон распределения:

X\Y y1 y2 y3

x1 p11 p12 p13

x2 p21 p22 p23

С помощью формулы (8.8) определим условную вероятность того, чтослучайная величина Y примет значение yj при условии, что X = xi:

Pyj|xi =p(X = xi, Y = yj)

p(X = xi)(8.9)

и условную вероятность того, что случайная величина X примет значениеxi при условии, что Y = yj:

Pxi|yj =p(X = xi, Y = yj)

p(Y = yj). (8.10)

(В каждой из формул1 (8.9) и (8.10) i = 1, 2; j = 1, 2, 3)Условные вероятности (8.9) образуют условные законы распределения

случайной величины Y при условии X = xi. То, что это действительнозакон распределения, подтверждает сумма вероятностей, соответствующих

1Разумеется, аналогично замечанию 8.1 можно рассматривать общий случай, когдаi = 1, 2, . . . , n, . . . , а j = 1, 2, . . . ,m, . . . .

203

Page 205: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

значениям Y при условии X = xi. С учетом равенства (8.1) имеем1

3∑j=1

Pyj |xi =3∑j=1

p(X = xi, Y = yj)

p(X = xi)=

=1

pix

3∑j=1

p(X = xi, Y = yj) =1

pix· pix = 1.

Аналогично2∑i=1

Pxi|yj = 1.

Задача 8.10. Закон распределения двумерной случайной величины(X, Y ) задан следующей таблицей:

X\Y −1 0

0 0, 3 0, 1

1 0, 15 0, 3

2 0, 1 0, 05

1. Определите PY=0|X=1

.2. Определите P

X=1|Y=−1.

3. Определите PY=−1|X≤1

.4. Постройте условный закон распределения случайной величины Y

при условии X = 1.5. Постройте условный закон распределения случайной величины X

при условии Y = 0.Решение

1. Согласно формуле (8.9) PY=0|X=1

=p(X = 1, Y = 0)

p(X = 1).

Вычислим знаменательp(X = 1) = p(X = 1, Y = −1) + p(X = 1, Y = 0)⇒⇒ p(X = 1) = 0, 15 + 0, 3⇒ p(X = 1) = 0, 45.

Так какp(X = 1, Y = 0) = 0, 3,

то искомая условная вероятность

PY=0|X=1

=0, 3

0, 45⇒ P

Y=0|X=1=

2

3.

2. Аналогично, но согласно формуле (8.10) PX=1|Y=0

=p(X = 1, Y = −1)

p(Y = −1).

Знаменатель дробиp(Y = −1) = p(X = 0, Y = −1)+p(X = 1, Y = −1)+p(X = 2, Y = −1)⇒

1Учитывая замечание 8.1 (то есть случай бесконечного числа значений, принимаемых случайны-ми величинами), суммы конечного числа слагаемых вероятностей превратятся в бесконечные ряды,каждый из которых будет сходиться к единице.

204

Page 206: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

⇒ p(Y = −1) = 0, 3 + 0, 15 + 0, 1⇒ p(Y = −1) = 0, 55.Учитывая, что

p(X = 1, Y = −1) = 0, 15,получаем искомую условную вероятность

PX=1|Y=−1

=0, 15

0, 55⇒ P

X=1|Y=−1=

3

11.

3. Согласно формуле (8.9) условная вероятность

PY=−1|X≤1

=p(X ≤ 1|Y = −1)

p(X ≤ 1).

Вычислим знаменатель дроби. Так как X ≤ 1 в двух несовместных слу-чаях: X = 0 и X = 1, то

p(X ≤ 1) = p(X = 0) + p(X = 1).Определим первое слагаемое

p(X = 0) = p(X = 0, Y = −1) + p(X = 0, Y = 0)⇒⇒ p(X = 0) = 0, 3 + 0, 1⇒ p(X = 0) = 0, 4.

Из первого пункта решения известно, что p(X = 1) = 0, 45.Следовательно,

p(X ≤ 1) = 0, 4 + 0, 45⇒ p(X ≤ 1) = 0, 85.Далее вычислим

p(X ≤ 1|Y = −1) = p(X = 0|Y = −1) + P (X = 1|Y = −1).Из условия задачи

p(X ≤ 1|Y = −1) = 0, 3 + 0, 15⇒ p(X ≤ 1|Y = −1) = 0, 45.Выполнив деление, получаем искомую условную вероятность

PY=−1|X≤1

=0, 45

0, 85⇒ P

Y=−1|X≤1=

9

17.

4. Из первого пункта решения PY=0|X=1

=2

3.

Чтобы построить условный закон распределения случайной величины Yпри условии X = 1, нужно вычислить условную вероятность P

Y=−1|X=1.

Из условия задачи PX=1|Y=−1

= 0, 15.Поэтому, подставив в формулу (8.9) это число и знаменатель из первогопункта решения, получаем

PY=−1|X=1

=0, 15

0, 45⇒ P

Y=−1|X=1=

1

3.

Так как2

3+

1

3= 1, то искомый условный закон распределения имеет

следующий вид:

Y |X = 1 −1 0

P1

3

2

3

205

Page 207: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

5. Чтобы построить условный закон распределения случайной величины Xпри условии Y = 0, воспользуемся формулой (8.10).Сначала вычислим вероятностьp(Y = 0) = p(X = 0, Y = 0) + p(X = 1, Y = 0) + p(X = 2, Y = 0).

Подставляя значения из заданной таблицы, имеемp(Y = 0) = 0, 1 + 0, 3 + 0, 05⇒ p(Y = 0) = 0, 45.

Далее вычислим соответствующие условные вероятности:

PX=0|Y=0

=0, 1

0, 45⇒ P

X=0|Y=0=

2

9.

PX=1|Y=0

=0, 3

0, 45⇒ P

X=1|Y=0=

2

3.

PX=2|Y=0

=0, 05

0, 45⇒ P

X=2|Y=0=

1

9.

Так как2

9+

2

3+

1

9= 1, то искомый условный закон распределения имеет

следующий вид:X|Y = 0 0 1 2

P2

9

2

3

1

9

8.5 Условное математическое ожидание

Как в случае распределения вероятностей случайной величины, так ив случае условного распределения вероятностей важной характеристикойсоответствующего закона распределения является математическое ожида-ние, которое в данном случае является условным математическим ожи-данием. Сформулируем два аналогичных определения.

Определение 8.7. Условным математическим ожиданием дис-кретной случайной величины Y при X = x называется скалярное произ-ведение значений случайной величины Y на их условные вероятности1:

M(Y |X = x) =m∑j=1

yjPyj|x. (8.11)

Определение 8.8. Условным математическим ожиданием дис-кретной случайной величины X при Y = y называется скалярное произ-ведение значений случайной величины X на их условные вероятности2:

M(X|Y = y) =n∑i=1

yjPxi|y. (8.12)

1Здесь x − определенное возможное значение X.2Здесь y − определенное возможное значение Y .

206

Page 208: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

В качестве примеров вычислим условные математические ожиданиядля соответствующих условных законов распределения, построенных прирешении задачи 8.10.

Задача 8.11. Дан условный закон распределения случайной величиныY при X = 1

Y |X = 1 −1 0

P1

3

2

3

. Вычислить условное математическое ожидание случайной величины Yпри X = 1.

Решение. Согласно формуле (8.11) вычислим условное математическоеожидание

M(Y |X = 1) = −1 · 13

+ 0 · 23⇒M(Y |X = 1) = −1

3.

M(Y |X = 1) = −1

3.

Задача 8.12. Дан условный закон распределения случайной величиныX при Y = 0

X|Y = 0 0 1 2

P2

9

2

3

1

9

вычислить условное математическое ожидание случайной величины X приY = 0.

Решение. Согласно формуле (8.12) вычислим условное математическоеожидание

M(X|Y = 0) = 0 · 29

+ 1 · 23

+ 2 · 19⇒M(X|Y = 0) =

8

9.

M(X|Y = 0) =8

9.

8.6 Функции, уравнения и линии регрессии

Одной из характеристик изучения системы случайных величин (X, Y )являются функции регрессии.

Определение 8.9. Отображение ϕ, при котором каждому значениюx случайной величины X ставится в соответствие условное математи-ческое ожидание M(Y |X = x), называется функцией регрессии Y наX и обозначается

M(Y |X = x) = ϕ(x). (8.13)

207

Page 209: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Определение 8.10. Отображение ψ, при котором каждому значе-нию y случайной величины Y ставится в соответствие условное мате-матическое ожидание M(X|Y = y), называется функцией регрессииX на Y и обозначается

M(X|Y = y) = ψ(y). (8.14)

Определение 8.11. Уравнение y = ϕ(x) называется уравнениемрегрессии Y на X, а уравнение x = ψ(y) называется уравнением ре-грессии X на Y .

Определение 8.12. Линия на плоскости, соответствующая уравне-нию регрессии, называется линией регрессии.

Линия регрессии Y на X показывает1, как в среднем зависит Y от X.Рассмотрим два противоположных случая зависимости случайных ве-

личин X и Y .Пример 1. Предположим, что X и Y − независимые случайные ве-

личины, имеющие соответственно математические ожидания M(X) = a иM(Y ) = b.

В силу определений 8.9-8.11 функции регрессии Y на X и X на Y в силуравенств M(Y |X = x) = M(Y ) и M(X|Y = y) = M(X) примут соответ-ственно видM(Y ) = ϕ(x) иM(X) = ψ(y). Поэтому в силу предположениясоответствующие уравнения регрессии будут выглядеть так: ϕ(x) = b иψ(y) = a.

В силу этого соответствующие линии регрессии Y на X и X на Y накоординатной плоскости будут представлены перпендикулярными прямы-ми (рис. 8.8).

x

y

b

a0Рис. 8.8

Пример 2. Предположим, что X и Y связаны линейной зависимостью2

Y = aX + b.Так как математическое ожидание от постоянной есть сама постоянная,

тоM(ax+ b) = ax+ b.

Поэтому M(Y |X = x) = ax + b. Следовательно, функция регрессии Y наX примет вид

1Естественно, линия регрессии X на Y показывает, как в среднем зависит X от Y .2Здесь a 6= 0.

208

Page 210: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

ϕ(x) = ax+ b.Из уравнения линейной зависимости следует, что

X =Y

a− b

a.

В силу этого

M

(Y

a− b

a

)=Y

a− b

a.

Следовательно,

M(X|Y = Y ) =y

a− b

a.

Таким образом, функция регрессии X на Y имеет вид

ψ(y) =y

a− b

a.

А значит уравнение регрессии X на Y представимо в виде

x =y

a− b

a.

Выражая и из него y через x, получаем уравнение регрессии Y на X:y = ax+ b.

В результате можно сделать вывод о том, что в случае линейной зави-симости случайных величин X и Y линии регрессии Y на X и X на Yявляются одной и той же прямой на координатной плоскости.

Задача 8.13. Для системы случайных величин (X, Y ), заданной в за-даче 8.10, построить функции регрессии Y на X и X на Y .

Решение1. Случайная величина X принимает значения x = 0, 1, 2. Из решения

задачи 8.11 известно, что M(Y |X = 1) = −1

3.

Вычислим M(Y |X = 0). Для этого определим сначалаp(X = 0) = p(X = 0, Y = −1) + p(X = 0, Y = 0)⇒⇒ p(X = 0) = 0, 3 + 0, 1⇒ p(X = 0) = 0, 4.

Используя формулу (8.9), вычислим условные вероятности

PY=−1|X=0

=0, 3

0, 4⇒ P

Y=−1|X=0=

3

4.

PY=0|X=0

=0, 1

0, 4⇒ P

Y=0|X=0=

1

4.

С помощью формулы (8.11) найдем условное математическое ожидание

M(Y |X = 0) = −1 · 34

+ 0 · 14⇒M(Y |X = 0) = −3

4.

Далее аналогично вычислим M(Y |X = 2).p(X = 2) = p(X = 2, Y = −1) + p(X = 2, Y = 0)⇒⇒ p(X = 2) = 0, 1 + 0, 05⇒ p(X = 2) = 0, 15.

209

Page 211: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Используя формулу (8.9), вычислим условные вероятности

PY=−1|X=2

=0, 1

0, 15⇒ P

Y=−1|X=2=

2

3.

PY=0|X=2

=0, 05

0, 15⇒ P

Y=0|X=2=

1

3.

С помощью формулы (8.11) найдем условное математическое ожидание

M(Y |X = 2) = −1 · 23

+ 0 · 13⇒M(Y |X = 2) = −2

3.

Зная все условные математические ожидания, составим таблично задан-ную функцию регрессии Y на X

X 0 1 2

M(Y |X = x) −1

3−3

4−2

3

Имея данную таблицу, построим схематически линию регрессии Y на x(рис. 8.9).

x

M(Y |X = x)

−13

−23

−34

0 1 2

Рис. 8.9

2. Случайная величина Y принимает значения y = −1, 0. Из решения за-

дачи 8.12 известно, что M(X|Y = 0) =8

9.

Вычислим M(X|Y = −1). Для этого определим сначалаp(Y = −1) = p(X = 0, Y = −1)+p(X = 1, Y = −1)+p(X = 2, Y = −1)⇒

⇒ p(Y = −1) = 0, 3 + 0, 15 + 0, 1⇒ p(Y = −1) = 0, 55.Используя формулу (8.10), вычислим условные вероятности

PX=0|Y=−1

=0, 3

0, 55⇒ P

X=0|Y=−1=

6

11.

PX=1|Y=−1

=0, 15

0, 55⇒ P

X=1|Y=−1=

3

11.

PX=2|Y=−1

=0, 1

0, 55⇒ P

X=2|Y=−1=

2

11.

С помощью формулы (8.12) найдем условное математическое ожидание

M(X|Y = −1) = 0 · 6

11+ 1 · 3

11+ 2 · 2

11⇒M(X|Y = −1) =

7

11.

Зная все условные математические ожидания, составим таблично задан-ную функцию регрессии X на Y

210

Page 212: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Y −1 0

M(X|Y = y)7

11

8

9

Имея данную таблицу, построим схематически линию регрессии X на y(рис. 8.10).

y

M(X|Y = y)89

711

0−1

Рис. 8.10

8.7 Общая характеристика зависимости случайных величин

Допустим, что изучаемый объект имеет два параметра X и Y , междукоторыми существует некоторая связь. Как правило целью изучения объ-екта является исследование характера этой связи.

В детерминированном мире математического анализа при исследова-нии любого объекта предполагается однозначная взаимосвязь1 причиныX и следствия Y , исследуемая с помощью функциональной зависимости,при которой каждому значению параметра X ставится в соответствиеединственное значение параметра Y .

В теории вероятностей связь между случайными величинами X и Yопределяется более общим видом зависимости − вероятностной или сто-хастической зависимостью, которая имеет множество оттенков от «сла-бой» вероятностной зависимости до «сильной» вероятностной зависимости.

Так если допустить, что на случайные величины X и Y влияют одни теже случайные факторы, например T1 и T2, то X и Y окажутся в функцио-нальной зависимости, которая определит «сильную» вероятностную зави-симость.

Примером такой зависимости может служить связь между случайнойвеличинойX − числом найденных опечаток в собственной работе и случай-ной величиной Y − временем, потраченным на их устранение. Очевидно,что связь2 эта прямо пропорциональная вида Y = aX.

С другой стороны, в случае полной независимости случайных величинмы сталкиваемся с противоположным полюсом спектра вероятностной за-

1Так, например, любое начальное состояние системы X(0) однозначно определяет состояние систе-мы X(t) в любой другой момент времени t.

2В качестве общих факторов, влияющих на величины, можно рассматривать, например, факторважности работы; освещенность помещения; время, оставшееся до момента сдачи статьи рецензенту идругие подобные причины.

211

Page 213: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

висимости1.В качестве примера такой независимости можно привести поговорку,

которую обычно цитируют при ответе невпопад: в огороде бузина, а в Ки-еве дядька2.

Между этими полюсами мира случайных связей лежит весь спектр ха-рактеристик вероятностной зависимости.

Например, предположим, что на случайную величину X влияют слу-чайные факторы T1 и T2, а на случайную величину Y помимо T1 и T2

оказывает влияние третий случайный фактор T3. Тогда в силу влиянияобщих факторов значения X и Y в каждом исходе опыта конечно будутвзаимосвязаны между собой, но при этом связь эта уже не будет функцио-нальной. Она будет иметь вероятностный случайный характер, изменяясьот одного исхода к другому. При этом может оказаться, что каждому зна-чению случайной величины X будут соответствовать множество значенийслучайной величины Y .

Сформулируем следующееОпределение 8.13. Отображение, при котором каждому значению

одной случайной величины соответствует множество значений другойслучайной величины, для каждого из которых неизвестно, какое же изэтих значений примет случайная величина, называется вероятност-ной или стохастической зависимостью.

Иными словами, зависимость, при которой изменение значений однойслучайной величины ведет к изменению закона распределения другой слу-чайной величины, является вероятностной или стохастической зависимо-стью.

Поскольку исследование подобной зависимости представляет значи-тельные сложности, то на практике рассматривают частный случай этойзависимости.

Определение 8.14. Отображение, при котором каждому значениюодной случайной величины соответствует среднее значение другой слу-чайной величины называется корреляционной зависимостью.

Примером корреляционной зависимости является связь между случай-ной величиной X − временем на подготовку к экзамену, и оценкой на этомэкзамене3.

1Если воспринимать полную независимость случайных величин как предел «слабой» вероятностнойзависимости

2В качестве случайной величины X здесь можно рассматривать рост бузины в огороде, а в качествеслучайной величины Y − количество проживающих в Киеве братьев ваших родителей. Очень сложноуказать хоть один общий фактор, влияющий одновременно на эти величины.

3 Затратив одинаковое время на подготовку к двум разным экзаменам, нельзя утверждать, чтооценки, полученные на экзаменах, совпадут. С одной стороны, опыт сдачи большого числа экзаменовговорит, что чем больше тратишь времени на подготовку, тем выше оценка. С другой стороны, боль-

212

Page 214: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Другим примером корреляционной связи являются функции регрессии(см. определения 8.9-8.10).

Далее с помощью вывода линейного уравнения регрессии рассмотримсвязанные с ним числовые характеристики степени зависимости случайныхвеличин .

8.8 Вывод уравнения линейной регрессии

В качестве приближения истинного закона регрессии на практике ча-ще всего используют линейное приближение в виде линейного уравнениярегрессии. А в качестве критерия наилучшего приближения используютметод наименьших квадратов1.

Предположим, что искомое уравнение регрессии Y на X имеет видy = kx+ b.

В качестве случайной величины ∆ выберем отклонение точек истиннойлинии регрессии от прямой регрессии, определяемой искомым уравнением.Каждое значение выбранной случайной величины определяет отклонениеконкретной точки (xi, yj) от искомой прямой:

δij = yj − (kxi + b). (8.15)

С точки зрения метода наименьших квадратов наилучшим уравнением (азначит и наилучшей прямой) является то уравнение, для коэффициентовкоторого математическое ожидание квадрата отклонения ∆ принимаетминимальное значение. Таким образом, задача сводится к определениюточки минимума функции двух переменных

Φ(k, b) =∑ij

δ2ijpij,

где pij = P (X = xi, Y = yj).Подставив представление (8.15) в функцию Φ(k, b)

Φ(k, b) =∑ij

(yj − kxi − b)2pij, (8.16)

вычислим частные производные∂Φ

∂k= −2

∑ij

xi(yj − kxi − b)pij

и∂Φ

∂b= −2

∑ij

(yj − kxi − b)pij.

шое количество случайных факторов вынуждают сделать вывод о том, что количество потраченноговремени влияет на оценку только в среднем.

1См. Бидерман В. И. Указ. соч. С. 187.

213

Page 215: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Функция Φ(k, b) представляет неотрицательную функцию, у которойединственный экстремум является ее минимумом. Поскольку точка ми-нимума находится в стационарной точке функции, то для ее определениясоставим систему

∑ij

xi(yj − kxi − b)pij = 0,∑ij

(yj − kxi − b)pij = 0.

Раскрыв скобки и вынеся искомые параметры за знаки суммирования, по-лучим систему нормальных уравнений метода наименьших квадратов

(∑ij

x2ipij

)k +

(∑ij

xipij

)b =

∑ij

xiyjpij,(∑ij

xipij

)k +

(∑ij

pij

)b =

∑ij

yjpij.

С помощью обозначений∑ij

xipij =∑i

xi∑j

pij =∑i

xipix = M(X);∑ij

x2ipij = M(X2);∑

ij

yjpij =∑j

yj∑i

pij =∑j

yjpjy = M(Y );∑ij

xiyjpij = M(XY ),

а также равенства ∑ij

pij = 1

(см. замечание 8.1) упростим системуM(X2)k +M(X)b = M(XY ),M(X)k + b = M(Y ).

Умножив второе равенство на M(X), вычтем полученное произведение изпервого равенства(

M(X2)− (M(X))2)k = M(XY )−M(X)M(Y ).

Заметив, что разность в левой скобке представляет дисперсию D(X), пе-репишем полученное равенство

D(X)k = M(XY )−M(X)M(Y ).Для правой части равенства введем новоеОпределение 8.15. Характеристика

K(X, Y ) = M(XY )−M(X)M(Y )

214

Page 216: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

называется ковариацией пары случайных величин (X, Y ).Заменяя в последнем равенстве значение ковариации на ее обозначение,получаем

D(X)k = K(X, Y ).Таким образом1,

k =K(X, Y )

D(X), (8.17)

аb = M(Y )− K(X, Y )

D(X)M(X). (8.18)

Подставляя найденные значения k и b в искомое уравнение регресии,имеем уравнение линейной регрессии Y на X в следующей форме:

y −M(Y ) =K(X, Y )

D(X)(x−M(X)). (8.19)

Далее введем еще одну характеристику для случайных величин X и Y .Определение 8.16. Характеристика

r(X, Y ) =K(X, Y )√D(X)D(Y )

называется коэффициентом корреляции пары случайных величин(X, Y ).

Так как каждый из корней√D(X) и

√D(Y ) представляет соответ-

ствующее среднее квадратическое отклонение σx и σy, то перепишем коэф-фициент корреляции в следующем виде:

r(X, Y ) =K(X, Y )

σxσy.

Поскольку1

D(X)=

1√D(X)

√D(X)

=

√D(Y )√

D(X)√D(X)

√D(Y )

=1

σxσy· σyσx

,

коэффициент в уравнении (8.19 можно представить так:K(X, Y )

D(X)= r(X, Y )

σyσx

.

Поэтому окончательной формой уравнения линейной регрессии Y на Xбудет уравнение

y −M(Y ) = r(X, Y )σy

σx(x−M(X)). (8.20)

1Так как X − случайная величина, то очевидно, что D(X) 6= 0.

215

Page 217: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

А соответствующее уравнение линейной регрессии X на Y по аналогиипримет такой вид:

y −M(X) = r(X, Y )σx

σy(y −M(Y )). (8.21)

Замечание 8.3. Если значения k и b (см. равенства 8.17-8.18) подста-вить в функцию Φ(k, b) (см. представление фунуции (8.18)), то мы получимминимальное значение функции

Φ(k, b) = σ2y(1− r2).

Число σ2y(1−r2) называют остаточной дисперсией случайной величины

Y относительно случайной величины X.Эта характеристика определяет величину ошибки, допущенной при за-

мене Y линейной функцией ϕ(X) = kX + b.Если коэффициент корреляции r = ±1, то остаточная дисперсия обра-

щается в нуль, что означает: при r = ±1 представление Y в виде линейнойфункции от X не является ошибкой. В этом случае X и Y связаны ли-нейной зависимостью.

Естественно и σ2x(1 − r2) в этом случае обращается в нуль, а прямые

регрессии, заданные уравнениями (8.19) и (8.20), совпадают.

8.9 Свойства ковариации

Чтобы понять, каким образом ковариация связана с характеристикойсвязи двух случайных величин, рассмотрим следующую теорему.

Теорема 8.3. Ковариация системы двух случайных величин равна ма-тематическому ожиданию произведения отклонений этих величин отих математических ожиданий.

В формальном виде это выглядит так, если X и Y составляющие систе-мы (X, Y ), то

K(X, Y ) = M ((X −M(X))(Y −M(Y )). (8.22)

Д о к а з а т е л ь с т в о. Из определения 8.15 выпишем представлениековариации и преобразуем его, предварительно отняв и прибавив произве-дение M(X)M(Y ):M(XY )−M(X)M(Y ) = M(XY )−M(X)M(Y )−M(X)M(Y )+M(X)M(Y ).

Так как константу можно вносить под знак математического ожидания1,то внесем соответственно M(Y ) и M(X) под знак математического ожи-дания:

M(X)M(Y ) = M (XM(Y )) ; M(X)M(Y ) = M (M(X)Y ) .

1Следует помнить, что M(X) и M(Y ) являются константами.

216

Page 218: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Продолжая преобразования, воспользуемся тем, что сумма математиче-ских ожиданий случайных величин равна математическому ожиданию отсуммы этих величин

M(XY )−M (XM(Y ))−M (M(X)Y ) +M(X)M(Y ) == M (XY −XM(Y )−M(X)Y +M(X)M(Y )) =

= M (X (Y −M(Y ))− (Y −M(Y ))M(X)) == M ((X −M(X)) (Y −M(Y ))).

Замечание 8.4. Следует заметить, что исторически в большинствеучебников по теории вероятностей за определение ковариации принима-ется равенство (8.22). При этом вместо термина ковариация используетсядругой термин корреляционный момент, что также имеет историческоеобъяснение.

На начальном этапе возникновения теории вероятностей по аналогиибыли использованы методы теории моментов из теоретической механи-ки, на языке которой дисперсии

D(X) = M (X −M(X))2 и D(Y ) = M (Y −M(Y ))2,а также ковариация

K(X, Y ) = M ((X −M(X)) (Y −M(Y )))называются центральными моментами второго порядка1.

Так, например, аналогом дисперсии с точки зрения теоретической меха-ники является момент инерции материальной точки относительно некото-рой оси, а аналогом ковариации − момент инерции материальной точкиотносительно некоторого центра.

Из свойств математического ожидания и дисперсии случайных величинвытекают следующие свойства.

Свойство 8.5. Симметричность ковариацииДля любых случайных величин X и Y

K(X, Y ) = K(Y, X).Свойство 8.6. Аддитивность ковариации

Для любых случайных величин X, Y , T и ZK(X + T, Y ) = K(X, Y ) +K(T, Y );K(X, Y + Z) = K(X, Y ) +K(X, Z).

Свойство 8.7. Однородность ковариацииДля любых случайных величин X и Y , а также для любой константы C

K(CX, Y ) = CK(X, Y );K(X, CY ) = CK(X, Y ).

Свойство 8.8. Для любых независимых случайных величин X и YK(X, Y ) = 0.

1А математические ожидания отклонений случайных величин от их математического ожиданияM(X −M(X)) и M(Y −M(Y )) называются центральными моментами первого порядка.

217

Page 219: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Из этого свойства вытекаетСледствие 8.3. Для любых случайных величин X и Y , а также для

любой константы CK(X + C, Y ) = K(X, Y );K(X, Y + C) = K(X, Y ).

Свойство 8.9. Для любой случайной величины XK(X, X) = D(X).

Свойство 8.10. Дисперсия суммы случайных величинДля любых случайных величин X и Y

D(X + Y ) = D(X) +D(Y ) + 2K(X, Y ).На основании свойств 8.8 и 8.10 получаемСледствие 8.4. Для любых независимых случайных величин X и Y

D(X + Y ) = D(X) +D(Y ).Теоретическое упражнение 8.1. Опираясь на определения и свой-

ства математического ожидания и дисперсии случайных величин, докажи-те свойства 8.5-8.10 самостоятельно.

Так как следующее свойство не является очевидным, то приведем его сдоказательством.

Свойство 8.11. Для любых случайных величин X и Y|K(X, Y )| ≤ σxσy.

Д о к а з а т е л ь с т в о. Рассмотрим случайные величиныXc = X −M(X) и Yc = Y −M(Y ).

Для этих величин математические ожиданияM(Xc) = M(Yc) = 0,

а дисперсииD(Xc) = D (X −M(X))2 = D(X) = σ2

x;D(Yc) = D (Y −M(Y ))2 = D(Y ) = σ2

y.Для заданных случайных величин X и Y ковариация

K(X, Y ) = M ((X −M(X)) (Y −M(Y ))) = M(XcYc).Построим для любого действительного t новую случайную величину

Z(t) = Xc + tYc.Из свойств математического ожидания следует, что M(Z(t)) = 0.Поэтому дисперсия

D(Z(t)) = M(Z2(t)).Учитывая все вышеизложенное, имеемM(Z2(t)) = M(X2

c ) + 2tM(XcYc) + t2M(Y 2c ) = σ2

x + 2tK(X, Y ) + t2σ2y.

Так как дисперсия отрицательной не бывает, то квадратный трехчленt2σ2

y + 2tK(X, Y ) + σ2x ≥ 0

для всех значений t.

218

Page 220: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Следовательно, его дискриминант4K2(X, Y )− 4σ2

xσ2x ≤ 0.

Полученное неравенство эквивалентно неравенствуK2(X, Y ) ≤ σ2

xσ2x.

Извлекая квадратный корень из обеих частей последнего неравенства1,убеждаемся в истинности доказываемого свойства.

С помощью ковариации введем понятие, характеризующее связь слу-чайных величин.

Определение 8.17. Случайные величины называются коррелиро-ванными, если ковариация этих величин отлична от нуля, и некорре-лированными, если ковариация между ними равна нулю.

Из этого определения вытекаетСледствие 8.5. О зависимости коррелированных случайных

величин Любые две коррелированные случайные величины являются за-висимыми2.

Если предположить независимость коррелированных величин, то со-гласно свойству 8.8 получим равенство нулю ковариации этих величин,что будет противоречить условию следствия и определению.

Определение ковариации обладает недостатком, создающим большиенеудобства при исследовании степени коррелированности сравниваемых ве-личин. Этим недостатком является зависимость ковариации от масштабаразмерностей этих величин, присутствующих в определении.

В то же время введенный в определении 8.16 коэффициент корреляцииr(X, Y ) свободен от этого недостатка. Поэтому именно он используется вкачестве характеристики степени коррелированности случайных величин.

8.10 Свойства коэффициента корреляции

Из определения 8.16 и свойств 8.5-8.8 ковариации вытекают аналогич-ные свойства для коэффициента корреляции.

Свойство 8.12. Симметричность коэффициента корреляцииДля любых случайных величин X и Y

r(X, Y ) = r(Y, X).Свойство 8.13. Аддитивность коэффициента корреляции

Для любых случайных величин X, Y , T и Zr(X + T, Y ) = r(X, Y ) + r(T, Y );

1Из элементарной математики известно, что√r2 = |r|.

2Рассмотренная в следующем параграфе задача показывает, что обратное утверждение в общемслучае неверно: зависимые величины могут быть некоррелированными.

219

Page 221: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

r(X, Y + Z) = K(X, Y ) + r(X, Z).Свойство 8.14. Однородность коэффициента корреляции

Для любых случайных величин X и Y , а также для любой константы Cr(CX, Y ) = ±r(X, Y );r(X, CY ) = ±r(X, Y ).

Свойство 8.15. Для любых независимых случайных величин X и Yr(X, Y ) = 0.

Из этого свойства вытекаетСледствие 8.6. Для любых случайных величин X и Y , а также для

любой константы Cr(X + C, Y ) = r(X, Y );r(X, Y + C) = r(X, Y ).

Из свойства 8.11 вытекаетСвойство 8.16. Для любых случайных величин X и Y

|r(X, Y )| ≤ 1.Из уравнений регрессии (8.20) и (8.22) и данного свойства можно прийти

к следующему следствиюСледствие 8.7. Если коэффициент корреляции |r(X, Y )| = 1, то слу-

чайные величины X и Y связаны линейной зависимостью.То есть

|r(X, Y )| = 1⇔ Y = kX + b.Следует также заметить, что1

r(X, Y ) < 0⇔ k < 0;r(X, Y ) = 0⇔ k = 0.r(X, Y ) > 0⇔ k > 0.

На графических диаграммах по рассеиванию случайных величин X иY можно определить знак коэффициента корреляции:

x

y

Рис. 8.11x

y

Рис. 8.12x

y

Рис. 8.13На первом графике (рис. 8.11) коэффициент корреляции больше нуля,

так как видно, что увеличение X ведет к увеличению Y .На центральном графике (рис. 8.12) коэффициент корреляции меньше

1Иначе это выглядит так: sgn(r)=sgn(k) (здесь sgn(·) − знак числа).

220

Page 222: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

нуля поскольку на изображении видно, что увеличение X влияет на умень-шение Y .

На третьем графике (рис. 8.13) не видно, как может изменение X по-влиять на изменение Y . Следовательно, коэффициент корреляции практи-чески равен нулю.

Задача 8.14. Закон распределения двумерной случайной величины(X, Y ) задан следующей таблицей:

X\Y 0 1 3

1 0, 1 0, 3 0

2 0 0 0, 2

3 0, 3 0 0, 1

Определите, являются ли случайные величины X и Y1) зависимыми;2) коррелированными.

Решение. Найдем законы распределения для каждой из рассматрива-емых случайных величин.

Складывая соответствующие вероятности в каждой строке заданнойтаблицы, построим

X 1 2 3

Px 0, 4 0, 2 0, 4

Далее складывая соответствующие вероятности в каждом столбце за-данной таблицы, построим

Y 0 1 3

Py 0, 4 0, 3 0, 3

Ответим вначале на первый вопрос.Так как p11 = P (X = 1, Y = 0) = 0, 1 6= P1x · P1y = 0, 4 · 0, 4, то согласноследствию 8.2 случайные величины X и Y являются зависимыми.

Для ответа на второй вопрос вычислим несколько характеристик дан-ных величин.

M(X) = 1 · 0, 4 + 2 · 0, 2 + 3 · 0, 4⇒M(X) = 2;M(Y ) = 0 · 0, 4 + 1 · 0, 3 + 3 · 0, 3⇒M(Y ) = 1, 2;M(XY ) = 1 · 0 · 0, 1 + 1 · 1 · 0, 3 + 1 · 3 · 0+

+2 · 0 · 0, 1 + 2 · 1 · 0, 3 + 2 · 3 · 0++3 · 0 · 0, 1 + 3 · 1 · 0, 3 + 3 · 3 · 0⇒M(XY ) = 2, 4;

M(X)M(Y ) = 2 · 1, 2⇒M(X)M(Y ) = 2, 4.Согласно определению 8.15

K(X, Y ) = M(XY )−M(X)M(Y )⇒ K(X, Y ) = 0.

221

Page 223: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Сравнивая полученный результат с определением 8.17, можно сделатьвывод о том, что сравниваемые величины X и Y не являются коррелиро-ванными.

Задача 8.15. Закон распределения двумерной случайной величины(X, Y ) задан следующей таблицей:

X\Y 0 1 3

1 0, 1 0 0, 2

2 0 0, 3 0

3 0, 1 0, 3 0

Вычислите коэффициент корреляции и определите характер зависимо-сти между случайными величинами X и Y .

Решение. Найдем законы распределения для каждой из рассматрива-емых случайных величин.

Складывая соответствующие вероятности в каждой строке заданнойтаблицы, построим

X 1 2 3

Px 0, 3 0, 3 0, 4

Далее складывая соответствующие вероятности в каждом столбце за-данной таблицы, построим

Y 0 1 3

Py 0, 2 0, 6 0, 2

Вычислим следующие характеристики заданных величин.M(X) = 1 · 0, 3 + 2 · 0, 3 + 3 · 0, 4⇒M(X) = 2, 1;M(Y ) = 0 · 0, 2 + 1 · 0, 6 + 3 · 0, 2⇒M(Y ) = 1, 2;

D(X) = 12 · 0, 3 + 22 · 0, 3 + 32 · 0, 4− (2, 1)2 ⇒ D(X) = 0, 69;σx =

√0, 69⇒ σx = 0, 831;

D(Y ) = 02 · 0, 2 + 12 · 0, 6 + 32 · 0, 2− (1, 2)2 ⇒ D(Y ) = 0, 96;σy =

√0, 96⇒ σy = 0, 98;

M(XY ) = 1 · 0 · 0, 1 + 1 · 1 · 0 + 1 · 3 · 0, 2++2 · 0 · 0 + 2 · 1 · 0, 3 + 2 · 3 · 0++3 · 0 · 0, 1 + 3 · 1 · 0, 3 + 3 · 3 · 0⇒M(XY ) = 2, 1;

M(X)M(Y ) = 2, 1 · 1, 2⇒M(X)M(Y ) = 2, 52.Согласно определению 8.15

K(X, Y ) = 2, 1− 2, 52⇒ K(X, Y ) = −0, 42.Из определения 8.16 cледует, что

r(X, Y ) = − 0, 42

0, 831 · 0, 98⇒ r(X, Y ) = −0, 517.

222

Page 224: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Так как r(X, Y ) < 0, то между случайными величинами X и Y суще-ствует отрицательная линейная зависимость.

В заключение главы рассмотрим

8.11 Понятие корреляции случайных событий

Для следующего определения нам понадобится определение индикаторасобытия A (см. определение 5.5.

Рассмотрим совместное распределение индикаторов IAи I

Bдля связан-

ных между собой случайных событий A и B и сформулируемОпределение 8.18. Коэффициентом корреляции случайных со-

бытий A и B называется коэффициент корреляции их индикаторов IA

и IB. То есть

r(A, B) = r(IA, I

B).

Задача 8.16. Обычно ключ от кабинета у меня лежит в правом или влевом кармане. Поиски ключа я начинаю с кармана, выбранного случайнос одинаковой вероятностью для каждого. Но почему-то ключ в 90% случаевоказывается в другом кармане. Найдите коэффициент корреляции междусобытиями A: «я начал поиск с правого кармана» и B: «ключ лежит вправом кармане».

Решение. Для построения закона распределения системы индикаторов(I

A, I

B) вычислим вероятности предполагаемых совместных событий.

Так как события A и B не зависят друг от друга, то вероятности сов-местных событий можно вычислить с помощью теоремы о произведениивероятностей независимых событий.Пусть событие A − «я начал поиск с левого кармана кармана», а событиеB − «ключ лежит в левом кармане».P (I

A= 0, I

B= 0) = P (A) · P (B) = 0, 5 · 0, 1⇒ P (I

A= 0, I

B= 0) = 0, 05;

P (IA

= 1, IB

= 0) = P (A) · P (B) = 0, 5 · 0, 9⇒ P (IA

= 1, IB

= 0) = 0, 45;P (I

A= 0, I

B= 1) = P (A) · P (B) = 0, 5 · 0, 1⇒ P (I

A= 0, I

B= 1) = 0, 05;

P (IA

= 1, IB

= 1) = P (A) · P (B) = 0, 5 · 0, 9⇒ P (IA

= 1, IB

= 0) = 0, 45.Зная вероятности, построим закон распределения системы индикаторов

(IA, I

B)

IA\I

B0 1

0 0, 05 0, 45

1 0, 45 0, 05

Составим законы распределения для каждого из индикаторов

IA

0 1

P 0, 5 0, 5

IB

0 1

P 0, 5 0, 5

223

Page 225: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Вычислим числовые характеристики распределений.Так как каждая из величин распределена по биномиальному закону, то

M(IA) = M(I

B) = 1 · 0, 5⇒M(I

A) = M(I

B) = 0, 5;

D(IA) = D(I

B) = 1 · 0, 5 · 0, 5⇒ D(I

A) = D(I

B) = 0, 25;

σIA

= σIB

= 0, 5;

M(IAIB) = 0 ·0 ·0, 05+0 ·1 ·0, 45+1 ·0 ·0, 45+1 ·1 ·0, 05⇒M(I

AIB) = 0, 05;

K(IA, I

B) = 0, 05− 0, 5 · 0, 5⇒ K(I

A, I

B) = −0, 2;

r(IA, I

B) = − 0, 2

0, 25⇒ r(I

A, I

B) = −0, 8.

Таким образом, согласно определению 8.18 коэффициент корреляциисобытий r(A, B) = −0, 8.

То есть поиск ключа в одном из карманов сильно коррелирует с егонахождением в другом кармане1.

1Эта задача взята из электронного пособия Аракчеев С.А. Теория вероятностей. Часть III, с. 8 (см.[Электронный ресурс] : URL : http://vm.stu.ru/Task/Arakcheev%20-%20Probability(add).pdf (датаобращения: 12.06.2016)).

224

Page 226: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Заключение

Закрывая эту книгу1, следует отметить, что «Элементы теории вероят-ностей» представляют только введение в эту красивую науку, позволяющееполучить первое представление о ее терминологии, проблемах, методах ре-шения предложенных задач.

Зная терминологию теории вероятностей, можно открыть дверь в мате-матическую статистику, которая также является разделом математики.

Если давать определение предмета математической статистики, то мож-но сказать, что математическая статистика изучает методы сбора, си-стематизации, обработки и использования статистических данных дляполучения научно обоснованных выводов и принятия на их основе реше-ний.

И на этом пути сбора, систематизации и обработки невозможно обой-тись без азбуки теории вероятностей2.

Мир приложений математической статистики огромен: организация тран-спортных потоков, теория надежности машин и механизмов, теория мате-матической связи (она же теория информации), прогнозирование погодыи любое другое прогнозирование3, а также доказательная медицина и ве-ликое множество других приложений.

А там, где теория вероятностей и математическая статистика не могутпомочь, на помощь приходит теория случайных процессов, в основе кото-рой также лежит теория вероятностей.

Но для того, чтобы ее помощь оказалась результативной, понадобитсяболее глубокое знакомство с теорией вероятностей.

И в завершение заключения4 небольшой диалог:− Чем вы собираетесь заниматься? − Писать планы и программы.− А что такое планы и программы? − Это алгоритм + данные.− А что такое данные? − Это способ представления информации.− А что такое информация? − Это мера уменьшения неопределенности.− А можно всем этим заниматься, не зная теории вероятностей?− Нет.

1Будем надеяться после того, как вы разобрались с основными определениями и теоремами и разо-брались в методике решения рассмотренных задач.

2Безусловно подкрепленной аппаратом алгебры, геометрии, математического анализа и, конечно,арифметики.

3Если, конечно, это не прогноз на кофейной гуще.4Согласитесь, что заключение заключения есть грубая тавтология, а завершение заключения звучит

нежнее.

225

Page 227: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Библиографический список

1. Александрова, Н. В. История математических терминов, понятий,обозначений : словарь-справочник / Н. В. Александрова. − М. : ЛКИ,2008. − 248 с.

2. Бернулли, Я. О законе больших чисел / Я. Бернулли. −М. : Наука, 1986.− 176 с.

3. Бидерман, В. И. Математика: элементы математического анализа/ В. И. Бидерман. − Хабаровск : Изд-во Тихоокеан. гос. ун-та, 2013. −197 с.

4. Бородин, А. Н. Элементарный курс теории вероятностей и математиче-ской статистики/А. Н. Бородин. − СПб. : Лань, 2004. − 256 с.

5. Бэнкс, Иэн. Улица отчаяния / Иэн Бэнкс. − М. : Эксмо, 2014. − C. 81.6. Вентцель, Е. С. Исследование операций / Е. С. Вентцель. − М. : Совет-

ское радио, 1972. − 552 c.7. Вентцель, Е. С. Теория вероятностей и ее инженерные приложения

/ Е. С. Вентцель, Л. А. Овчаров. − М.: Наука, 1988. − 480 с.8. Гeте, И. В. Фауст / И. В. Гeте. : пер. с нем. − М. : Художественная

литература, 1969. − С. 98.9. Глейзер, Г. И. История математики в школе: IX-X кл. Пособие для учи-

телей / Г. И. Глейзер. − М. : Просвещение, 1983. − 351 с.10. Гмурман, В. Е. Руководство к решению задач по теории вероятностей

и математической статистике / В. Е. Гмурман. − М. : Высш.шк., 1975.− 333 с.

11. Гмурман, В. Е. Теория вероятностей и математическая статистика/ В. Е. Гмурман. − М. : Высш.шк., 1997. − 479 с.

12. Гнеденко, Б. В. Из истории науки о случайном / Б. В. Гнеденко. −М. : Знание, 1981. − 64 с.

13. Гнеденко, Б. В. Курс теории вероятностей / Б. В. Гнеденко. −М. : Наука, 1988. − 448 с.

14. Зорич, В. А. Математический анализ : учебник. Ч. II / В. А. Зорич. −М. : Наука, 1984. − 640 с.

15. История математики с древнейших времен до начала XIX столетия :в 3 т. Т. 2 / под ред. А. П. Юшкевича. − М. : Наука, 1970. − 300 с.

16. Канеман, Д. Думай медленно... решай быстро / Д. Канеман. −М. : Аст,2014. − 653 c.

17. Корбалан, Ф. Укрощение случайности. Теория вероятностей / Ф. Кор-балан, Х. Санц. − М. : Де Агостини, 2014. − 160 с.

18. Курно, О. Основы теории шансов и вероятностей / О. Курно. − М. :Наука, 1970. − 384 с.

226

Page 228: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

19. Лебедева, А. В. Ars combinatoria и музыкальная практика XVIII века :автореф. дис. ... канд. искусствоведения / Рос. акад. музыки им. Гне-синых. − М., 2002. - 21 с.

20. Майстров, Л. И. Теория вероятностей. Исторический очерк /Л. И. Майстров. − М. : Наука, 1967. − 320 c.

21. Маккьюсик, В. Генетика человека : пер. с англ. − М. : Мир, 1967. −200 c.

22. Миронов, Б. Н. Историк и математика (Математические методы в ис-торическом исследовании) / Б. Н. Миронов, З. В. Степанов. − Л. :Наука, − 1976. − 184 c.

23. Мойес, Д. Один плюс один / Д. Мойес. − М. : Иностранка, 2014. −480 c.

24. Мостеллер, Ф. Пятьдесят занимательных вероятностных задач с реше-ниями / Ф. Мостеллер. − М. : Наука, 1975. − 112 c.

25. Ниворожкина, Л.И. Математическая статистика с элементами теориивероятностей в задачах с решениями / Л. И. Ниворожкина, С. А. Моро-зова. − М. : ИКЦ «МарТ» ; Ростов-н/Д : Издательский центр «МарТ»,2005. − 608 c.

26. Острейковский, В. А. Теория надежности / В. А. Острейковский. −М. : Высш. шк., 2003. − 463 c.

27. Секей, Г. Парадоксы в теории вероятностей и математической стати-стике / Г. Секей. − Москва-Ижевск : Институт компьютерных исследо-ваний, 2003. − 272 c.

28. Фeдорова, T. Л. Этимологический словарь русского языка/T. Л. Фeдо-рова, О. А. Щеглова. − М. : Ладком, 2012. − 608 c.

29. Хинчин, А. Я. Учение Мизеса о вероятностях и принципы физическойстатистики / А. Я. Хинчин // Успехи физических наук. − 1929. − Т. IX− Вып. 2 − С. 141-166.

30. Чебышев, П. Л. Полное собрание сочинений. Математический анализ.Том III / П. Л. Чебышев. − М.-Л. : Издательство Академии наук СССР,1948. − 414 с.

31. Штейнгауз, Г. Задачи и размышления / Г. Штейнгауз. − М. : Мир,1974. − 400 с.

32. Эсхил, Трагедии / Эсхил − М. : Художественная литература, 1971. −С. 344.

33. The Exponential distribution. Theory, Methods and Applications / N. Bala-krishan, Asit. P. Basu. − Gordon and Breach Publishers, 1995. − 641 p.

34. Вероятность и математическая статистика : энциклопедия / гл. ред.Ю. В. Прохоров. − М. : Большая Российская энциклопедия, 1999.910 с.

227

Page 229: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Приложение 1

Функция Гаусса

x ϕ(x) x ϕ(x) x ϕ(x)

0,00 0,3989 1,35 0,1604 2,70 0,01040,05 0,3984 1,40 0,1497 2,75 0,00910,10 0,3970 1,45 0,1394 2,80 0,00790,15 0,3945 1,50 0,1295 2,85 0,00690,20 0,3910 1,55 0,1200 2,90 0,00600,25 0,3867 1,60 0,1109 2,95 0,00510,30 0,3814 1,65 0,1023 3,00 0,00440,35 0,3752 1,70 0,0940 3,05 0,00380,40 0,3683 1,75 0,0863 3,10 0,00330,45 0,3605 1,80 0,0790 3,15 0,00280,50 0,3521 1,85 0,0721 3,20 0,00240,55 0,3429 1,90 0,0656 3,25 0,00200,60 0,3332 1,95 0,0596 3,30 0,00170,65 0,3230 2,00 0,0540 3,35 0,00150,70 0,3123 2,05 0,0488 3,40 0,00120,75 0,3011 2,10 0,0440 3,45 0,00100,80 0,2897 2,15 0,0396 3,50 0,00090,85 0,2780 2,20 0,0355 3,55 0,00070,90 0,2661 2,25 0,0317 3,60 0,00060,95 0,2541 2,30 0,0283 3,65 0,00051,00 0,2420 2,35 0,0252 3,70 0,00041,05 0,2299 2,40 0,0224 3,75 0,00041,10 0,2179 2,45 0,0198 3,80 0,00031,15 0.2059 2,50 0,0175 3,85 0,00021,20 0,1942 2,55 0,0154 3,90 0,00021,25 0,1826 2,60 0,0136 3,95 0,00021,30 0,1714 2,65 0,0119 4,00 0,0001

228

Page 230: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Приложение 2

Интегральная функция Лапласа

x Φ(x) x Φ(x) x Φ(x)

0,00 0,0000 1,10 0,3643 2,25 0,48780,05 0,0040 1,15 0,3749 2,30 0,48930,10 0,0389 1,20 0,3849 2,35 0,49070,15 0,0596 1,25 0,3944 2,40 0,49180,20 0,0793 1,30 0,4032 2,45 0,49290,25 0,0987 1,35 0,4115 2,50 0,49380,30 0,1179 1,40 0,4192 2,55 0,49470,35 0,1368 1,45 0,4265 2,60 0,49530,40 0,1554 1,50 0,4332 2,65 0,49600,45 0,1736 1,55 0,4394 2,70 0,49650,50 0,1915 1,60 0,4452 2,75 0,49700,55 0,2088 1,65 0,4505 2,80 0,49740,60 0,2257 1,70 0,4554 2,85 0,49780,65 0,2422 1,75 0,4599 2,90 0,49810,70 0,2580 1,80 0,4641 2,95 0,49850,75 0,2734 1,85 0,4678 3,00 0,498650,80 0,2881 1,90 0,4713 3,2 0,499310,85 0,3023 1,96 0,4750 3,4 0,499660,90 0,3159 2,00 0,4772 3,6 0,4999840,95 0,3289 2,05 0,4798 3,8 0,4999931,00 0,3413 2,10 0,4821 4,0 0.499997

229

Page 231: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Предметный указатель

Асимметрия, 166 Определение вероятностиВероятностный смысл матема- геометрическое, 31тического ожидания, 91 Определение вероятностиВероятность события, 23 классическое, 24Гипотезы, 49 Определение вероятностиДискретная случайная вели- статистическое, 29чина, 73 Опыт, 11Дисперсия, 97, 127 Пересечение множеств, 9Дополнение множества, 10 Перестановки, 15Зависимость корреляционная, 213 Перестановки с повторениями, 16Зависимость стохастическая,213 Плотность распределения, 118Задача о встрече, 32 Полная группа, 23Игла Бюффона, 33 Правило произведения, 12Закон распределения, 75 Правило суммы, 11Интегральная теорема Лапласа, 66 Произведение множеств, 10Исходы, 11 Пространство исходов, 22Индикатор события, 91 Пустое множество, 10Ковариация, 215 Размещения без повторения,15Комбинаторика, 8 Размещения с повторением, 18Коэффициент корреляции, 216, 224 Разность множеств, 10Линия регрессии, 209 Распределение биномиальное,108Локальная теорема Муавра- Распределение нормальное, 133Лапласа, 64 Распределение показательное, 152Локальная формула Лапласа, 64 Распределение Пуассона,111Математическое ожидание, 87, 122 Распределение равномерное, 129Медиана, 125 Распределение условное, 203Многоугольник распределения, 80 Событие, 11Мода, 94, 124 Событие достоверное, 21Момент начальный, 164 Событие невозможное, 21Момент центральный, 165 Событие случайное, 21Наивероятнейшее число, 70 Событие составное, 21Независимые случайные Событие элементарное, 21величины, 200 События независимые, 43Нормированное нормальное События несовместные, 22распределение, 137 События противоположные, 23Объединение множеств, 8 Cобытия равновозможные, 22Относительная частота, 29 Сочетания без повторения, 17Операции над множествами, 8 Среднее квадратическое

230

Page 232: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

отклонение,101, 127 Формула Байеса, 54Среднее число появления Формула Бернулли, 57события, 30 Формула полной вероятности, 49Сумма множеств, 9 Формула Пуассона, 61Схема Бернулли, 57 Функция Гаусса, 63Универсальное множество, 10 Функция дифференциальная, 118Уравнение регрессии, 209 Функция интегральная Лапласа, 65Теорема гипотез, 53 Функция интегральная, 119Условная вероятность, 40 Функция распределения, 81, 192Теоремы сложения Функция регрессии, 208вероятностей, 37, 39 Эксцесс, 168Теоремы умножениявероятностей, 40, 43

231

Page 233: ЭЛЕМЕНТЫ ТЕОРИИ ВЕРОЯТНОСТЕЙpnu.edu.ru/media/filer_public/6a/20/6a209c6d-1ced-4eb5-b...МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ

Учебное издание

Бидерман Вениамин Исаакович

Элементытеории вероятностей

Учебное пособие

Компьютерная верстка В. И. БидерманаДизайн обложки Е. И. Саморядовой

Печатается с авторского оригинала-макета

Подписано в печать 06.02.17. Формат 60х84 1/16.Бумага писчая. Гарнитура «Таймс». Печать цифровая.

Усл. печ. л. 13, 60. Тираж 100 экз. Заказ 11.

Издательство Тихоокеанского государственного университета.680035, Хабаровск, ул. Тихоокеанская, 136.

Отдел оперативной полиграфиииздательства Тихоокеанского государственного университета.

680035, Хабаровск, ул. Тихоокеанская, 136.