Справочник от Автор24
Поделись лекцией за скидку на Автор24

Теория вероятностей и математическая статистика

  • ⌛ 2006 год
  • 👀 461 просмотр
  • 📌 394 загрузки
  • 🏢️ Московский государственный университет экономики, статистики и информатики
Выбери формат для чтения
Статья: Теория вероятностей и математическая статистика
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Теория вероятностей и математическая статистика» pdf
Сведения об авторе Министерство образования Российской Федерации Московский государственный университет экономики, статистики и информатики Евразийский открытый институт В.П. Лисьев Теория вероятностей и математическая статистика Учебное пособие Москва 2006 1 Теория вероятностей и математическая статистика УДК ББК Л 519.2 22.171 638 Лисьев В.П. ТЕОРИЯ ВЕРОЯТНОСТЕЙ И МАТЕМАТИЧЕСКАЯ СТАТИСТИКА: Учебное пособие/ Московский государственный университет экономики, статистики и информатики. – М., 2006. – 199 с. ISBN 5-374- 00005-5 2 © В.П. Лисьев, 2006 © Московский государственный университет экономики, статистики и информатики, 2006 Сведения об авторе Содержание Сведения об авторе ........................................................................................................................ 5 Общие сведения о дисциплине ................................................................................................. 5 Цель и задачи дисциплины........................................................................................................ 6 Рекомендации по изучению дисциплины ............................................................................ 7 1. Случайные события ............................................................................................................. 1.1. События. Пространство элементарных событий ................................................. 1.2. Элементы комбинаторного анализа ......................................................................... 1.3. Отношения между событиями .................................................................................. 1.4. Вероятность события..................................................................................................... 1.5. Простейшие свойства вероятности ........................................................................... 1.6. Условная вероятность. Формула умножения вероятностей. Зависимые и независимые события .......................................................................... 1.7. Формула сложения вероятностей.............................................................................. 1.8. Формула полной вероятности и формула Байеса................................................. 1.9. Последовательность независимых испытаний. Формула Бернулли ................ 1.10. Асимптотические приближения формулы Бернулли ........................................ Контрольные вопросы и вопросы для обсуждения....................................................... 18 19 20 21 23 25 2. Случайные величины........................................................................................................... 2.1. Определение, классификация, способы задания случайных величин ........... 2.2. Функция распределения вероятностей и её свойства .......................................... 2.3. Плотность распределения вероятностей и её свойства........................................ 2.4. Функция случайной величины. Математическое ожидание ............................. 2.5. Числовые характеристики случайных величин. ................................................... 2.6. Квантили, квартили и вероятное отклонение........................................................ 2.7. Моменты случайных величин. Асимметрия и эксцесс ........................................ 2.8. Производящие функции ............................................................................................. 2.9. Примеры дискретных законов распределения ...................................................... 2.10. Примеры непрерывных распределений.................................................................. Контрольные вопросы и вопросы для обсуждения....................................................... 27 28 29 31 33 35 40 41 43 45 46 53 3. Многомерные случайные величины............................................................................... 3.1. Определение многомерных случайных величин .................................................. 3.2. Функция распределения вероятностей двухмерной случайной величины .................................................................................................... 3.3. Плотность распределения вероятностей двухмерной случайной величины .................................................................................................... 3.4. Условные законы распределения. Статистическая зависимость....................... 3.5. Числовые характеристики многомерных случайных величин. Ковариационный момент и коэффициент корреляции..................................... 3.6. Условные числовые характеристики. Линии регрессии. Корреляционное отношение ...................................................................................... 3.7. Двухмерное нормальное распределение................................................................. Контрольные вопросы и вопросы для обсуждения....................................................... 55 56 Функциональные преобразования случайных величин.......................................... 4.1. Функция одной случайной величины ..................................................................... 4.2. Функция нескольких случайных величин .............................................................. 4.3. Теоремы о математических ожиданиях и дисперсиях ......................................... 77 78 79 80 4. 9 10 11 13 14 16 57 60 62 64 68 71 75 3 Теория вероятностей и математическая статистика 4.4. Некоторые специальные законы распределения .................................................. Контрольные вопросы и вопросы для обсуждения....................................................... 81 83 5. Закон больших чисел. Центральная предельная теорема........................................ 5.1. Предварительные замечания...................................................................................... 5.2. Неравенство Чебышева ................................................................................................ 5.3. Теорема Чебышева ........................................................................................................ 5.4. Теорема Бернулли ......................................................................................................... 5.5. Центральная предельная теорема............................................................................. Контрольные вопросы и вопросы для обсуждения....................................................... 85 86 86 88 89 90 91 6. Статистическая обработка экспериментальных данных. Оценка параметров................................................................................................................ 6.1. Задачи математической статистики.......................................................................... 6.2. Выборка. Вариационный ряд. Эмпирические законы распределения............ 6.3. Эмпирические числовые характеристики............................................................... 6.4. Точечные оценки параметров. Свойства эмпирических характеристик ........ 6.5. Доверительные интервалы. Общие определения ................................................. 6.6. Доверительные интервалы параметров нормального распределения............ 6.7. Построение доверительного интервала для вероятности события .................. Контрольные вопросы и вопросы для обсуждения....................................................... 93 94 95 98 101 105 106 111 114 7. Проверка статистических гипотез. ................................................................................... 7.1. Общие положения ......................................................................................................... 7.2. Проверка гипотез о параметрах распределений ................................................... 7.3. Критерий квантилей..................................................................................................... 7.4. Проверка гипотез о распределениях ........................................................................ Контрольные вопросы и вопросы для обсуждения....................................................... 115 116 117 119 120 124 8. Дисперсионный анализ........................................................................................................ 8.1. Постановка задачи дисперсионного анализа ......................................................... 8.2. Однофакторный дисперсионный анализ ............................................................... 8.3. Двухфакторный дисперсионный анализ ................................................................ 8.4. Трёхфакторный дисперсионный анализ. План «латинский квадрат»............ Контрольные вопросы и вопросы для обсуждения....................................................... 125 126 127 129 131 133 9. Регрессионный анализ.......................................................................................................... 9.1. Постановка и схема решения задачи регрессионного анализа ......................... 9.2. Одномерный линейный регрессионный анализ................................................... 9.3. Многомерный линейный регрессионный анализ ................................................ 9.4. Одномерный нелинейный регрессионный анализ .............................................. Контрольные вопросы и вопросы для обсуждения......................................................... 135 136 139 142 144 146 10. Применение ЭВМ. .................................................................................................................. 10.1. Общие замечания .......................................................................................................... 10.2. Средства решения статистических задач в пакете MathCAD............................. 10.3. Решение статистических задач в среде Microsoft Excel. ....................................... 147 148 148 149 Практикум ........................................................................................................................................ 152 Список используемой литературы........................................................................................... 199 4 Теория вероятностей и математическая статистика Сведения об авторе Лисьев Владимир Парфёнович, 1941 года рождения. Кандидат физико-математических наук, доцент. Стаж работы в системе образования около 40 лет. Работал в Томском государственном университете, в Алтайском политехническом институте (старое название вуза), в Восточно-Казахстанском государственном техническом университете, три учебных года работал в Браззавильском университете в Народной Республике Конго, заведовал кафедрой высшей математики и кафедрой прикладной математики и вычислительной техники. В момент создания УМК по данной дисциплине – доцент Усть-Каменогорского филиала МЭСИ. Автор является специалистом в области прикладной математики: исследование операций, теория массового обслуживания, теория восстановлений, теория вероятностей и математическая статистика. Автор читает курсы лекций по высшей математике, по линейной алгебре, по математическим методам исследования операций, по теории вероятностей и математической статистике. Общие сведения о дисциплине Весь курс разбит на 10 тем. Лекционные занятия рекомендуется проводить по 9 темам, причём темы 4 и 5 можно объединить для того, чтобы получилось 8 обзорных лекций при семнадцати недельном семестре. Каждой обзорной лекции соответствуют два практических занятия, индивидуальные задания по теме, одна аудиторная консультация или консультация в режиме «On-line». Желательно также по каждой теме предусмотреть тест типа «Самопроверка». По 10-й теме «Применение ЭВМ» проводится только практическое занятие непосредственно в компьютерных классах. Рекомендуется проводить один промежуточный экзамен для проведения текущей аттестации и один итоговый экзамен. Экзамены рекомендуется проводить по тестам, в которые можно включить часть вопросов из тестов, предназначенных для самопроверки. В любом случае в экзаменационных тестах должны быть представлены все темы курса. Перед экзаменами рекомендуется проводить как аудиторную консультацию, так и консультацию по компьютерной сети, например в режиме «Чат», если имеется соответствующее техническое обеспечение. Последовательность мероприятий по изучению дисциплины с привязкой по времени и с информацией о порядке зачёта пройденного материала должна быть представлена календарным планом, в котором указываются сроки мероприятий, а также непосредственные источники и инструменты их выполнения. Весь процесс ориентирован на 51 час аудиторных занятий. Если число аудиторных часов увеличено до 68, то в календарном плане следует добавить по одной лекции на каждую тему. Рекомендуется вести непрерывный контроль над степенью усвоения материалов студентами. Самостоятельная работа студентов включает изучение материала по темам (текст пособия), чтение дополнительных источников, выполнение самостоятельных заданий (практикум), ответы на вопросы для самопроверки и прохождение тестов по самопроверке. Вся эта работа должна выполняться в привязке к изучаемой теме в точном соответствии с календарным планом. Рекомендуется пользоваться некоторой системой зачётных баллов для оценки своевременности и качества выполняемой студентами работы. Итоговую оценку по курсу следует выставлять студенту с учётом накопленных баллов в течение семестра. Для контроля самостоятельной работы студентов рекомендуется использовать компьютерную сеть в любых доступных вариантах. 5 Теория вероятностей и математическая статистика Цель и задачи дисциплины Курс «Теория вероятностей и математическая статистика» является составной частью цикла математических дисциплин, составляющих фундамент математического образования специалиста. В любой области человеческой деятельности имеют место случайные явления, которые не позволяют осуществить точный прогноз результатов этой деятельности. Теория вероятностей и математическая статистика изучают закономерности случайных явлений. Знание этих закономерностей помогает принимать решения в условиях неопределённости, направленные на достижение поставленных целей. Курс «Теория вероятностей и математическая статистика» является основой для изучения последующих дисциплин, таких как «Эконометрика», «Статистические методы прогнозирования», «Исследование операций», «Методы оптимизации», «Теория массового обслуживания», «Теория восстановлений», «Основы актуарных расчётов» и т.д. Преподавание теории вероятностей и математической статистики имеет целью: ознакомить студентов с основами теории, необходимыми для решения прикладных задач, развить способности студентов к логическому и алгоритмическому мышлению, привить навыки самостоятельного изучения литературы по данной дисциплине и ее приложениям. На практических занятиях по дисциплине необходимо развить навыки составления и анализа математических моделей несложных задач прикладного характера, связанных со случайными явлениями, научить способам вычисления вероятностей простых и сложных событий, методам оценки неизвестных параметров на основе экспериментальных данных, методам проверки гипотез и правилам принятия решений, методам аппроксимации статистических связей между величинами или факторами. Приступая к изучению курса теории вероятностей и математической статистики, студент должен знать: ¾ элементарную математику в объёме средней школы; ¾ дифференцирование и интегрирование функций из курса высшей математики; ¾ основные сведения по сбору и первичной обработке данных из общего курса статистики. В результате изучения дисциплины студент должен знать: ¾ правила вычисления вероятностей случайных событий; ¾ способы определения и построения законов распределения вероятностей случайных величин и вычисления их числовых характеристик; ¾ основные понятия, связанные со статистической зависимостью между случайными величинами; ¾ способы оценки неизвестных параметров по экспериментальным данным; ¾ способы проверки гипотез по экспериментальным данным; ¾ методы анализа статистической связи между величинами и аппроксимации её функциональной связью. 6 Теория вероятностей и математическая статистика В результате изучения дисциплины студент должен уметь: ¾ самостоятельно разбираться в материалах, содержащихся в специальной литературе по вопросам, связанным с данной дисциплиной; ¾ выбирать метод исследования и доводить решение задач до практически приемлемого результата; ¾ вычислять вероятности простых и сложных событий; ¾ находить необходимые характеристики случайных величин по известным законам распределения вероятностей или оценки этих характеристик по экспериментальным данным; ¾ практически применять известные критерии проверки статистических гипотез; ¾ проводить дисперсионный анализ с целью установления факта влияния или невлияния на исследуемую величину некоторых факторов; ¾ проводить регрессионный анализ с целью получения аппроксимирующей функции, по которой можно осуществлять прогнозирование. Рекомендации по изучению дисциплины Прежде всего, заметим, что теорию вероятностей условно можно разделить на три части: случайные события, случайные величины и случайные процессы. В такой последовательности излагается и изучается теория вероятностей. Нарушение этой последовательности освоения теории невозможно, поскольку материал каждой последующей части опирается на понятия, определяемые в предыдущих частях. Математическая статистика, излагаемая после теории вероятностей, является, по сути, прикладной частью теории вероятностей. Она направлена на обработку экспериментальных данных, полученных в условиях частичной или полной неопределённости. В математической статистике используются все основные законы и понятия теории вероятностей. В данном пособии рассматриваются случайные события, случайные величины и элементы математической статистики. Ключевой темой, открывающей возможность правильно воспринимать весь последующий материал, является тема «Случайные события». Поэтому при изучении курса рекомендуется уделить этой теме максимальное внимание. Особенно важно хорошо освоить операции над случайными событиями. Нужно научиться выражать сложные события, связанные с данным опытом, через простые (элементарные) события, не испытывая при этом особых затруднений. Не следует забывать также об относительности понятия случайного события. Это понятие связано с некоторым опытом, т.е. жёсткой фиксацией некоторого комплекса условий, малейшее изменение которых может изменить соотношения между событиями. Это замечание относится и к случайным величинам. В начале изучения курса следует просмотреть учебную программу курса, затем внимательно просмотреть оглавление данного учебного пособия, с тем, чтобы понять общую направленность изложения материала – от теории к практике. После этого можно приступать к последовательному изучению тем. Порядок изучения темы: прослушать обзорную лекцию ведущего преподавателя, изучить материал по теме, представленный в пособии, разобраться с непонятными вопросами во время практических занятий, ответить на вопросы для самопроверки, приведённые в конце каждой темы, и поразмышлять над вопросом для обсуждения. После этого следует выполнить индивидуальные практи7 Теория вероятностей и математическая статистика ческие задания по теме из раздела пособия «Практикум», посмотреть рекомендуемые дополнительные источники, получить ответы на непонятные вопросы темы на консультации, сдать тест по данной теме в режиме «Самопроверка». Последнее можно делать многократно, пока не будет достигнут необходимый уровень (не менее 70% правильных ответов). Порядок представления отчётов по самостоятельным заданиям определяется ведущим преподавателем (тьютором). 8 Случайные события ТЕМА 1. Случайные события Студент должен освоить: • понятия случайного события, операции над событиями, вероятность события, правила вычисления вероятностей; приобрести навыки: • решения задач на вычисление вероятностей простых и сложных событий. 9 Теория вероятностей и математическая статистика Краткое содержание Введение. Случайные события, пространство элементарных событий, алгебра событий. Основные формулы комбинаторики. Вероятность события и ее свойства. Условная вероятность. Формула умножения вероятностей. Статистическая зависимость между событиями. Формула сложения вероятностей. Формула полной вероятности и формула Байеса. Последовательность независимых испытаний. Формула Бернулли и следствия из нее. Предельные теоремы Муавра – Лапласа и Пуассона. 1.1. События. Пространство элементарных событий Под опытом (или испытанием) будем понимать создание некоторого комплекса условий S, предполагая при этом, что опыт (т. е. комплекс условий S) может быть повторён многократно, а его результаты поддаются точному описанию. Результаты опыта будем называть событиями. События, которые происходят обязательно, если только реализован комплекс условий S, будем называть достоверными событиями и обозначать буквой U. События, которые никогда не осуществляются при реализации S, будем называть невозможными событиями, и обозначать буквой V. Наибольший интерес представляет третья группа, в которую входят те события, которые при реализации S могут либо произойти, либо не произойти и заранее неизвестно, произойдёт событие или нет. Такие события называют случайными событиями и обозначают большими латинскими буквами A, B, C, ... По своему логическому содержанию события могут быть составными, т. е. разложимыми на более простые события, и элементарными, которые разложить на более простые события уже невозможно. Пусть, например, опыт заключается в том, что из десяти карточек, пронумерованных числами от 1 до 6, случайным образом выбирается одна. Обозначим событие, состоящее в том, что выбранная карточка имеет номер k, через Wk. Таких событий шесть. Они полностью описывают возможные результаты опыта и являются элементарными событиями. На этих событиях строятся более сложные события. Пусть B – событие, состоящее в том, что номер выбранной карточки чётный; С – событие, состоящее в том, что номер карточки делится на 3 без остатка. Очевидно, что B осуществляется тогда, когда осуществляется одно из следующих событий: W2, W4, W6. Это можно условно отобразить записью B = {W2, W4, W6}. Событие C выполняется только тогда, когда осуществляется одно из событий W3, W6. Таким образом, C = {W3, W6}. На основе элементарных событий Wk, k = 1, 2, ..., 6 можно построить и другие составные события. Неразложимость элементарных событий означает, что при осуществлении опыта обязательно произойдёт одно и только одно из них. Это эквивалентно записи: U = {W1, W2, ..., Wn}, что можно прочитать так: «достоверно, что произойдёт одно из перечисленных событий». Совокупность всех элементарных событий называется пространством элементарных событий. Пространство элементарных событий принято обозначать буквой Ω, а число элементарных событий, составляющих Ω, принято называть Card(Ω). В терминологии теории множеств Card(Ω) – мощность дискретного конечного множества. Любое случайное событие представляет собой подмножество множества Ω. Совокупность всех таких подмножеств (событий) является, в свою очередь, множеством случайных событий. Отметим, что событие U совпадает с Ω, а событие V является пустым подмножеством ∅. В дальнейшем будем пользоваться обозначениями U и V тогда, когда события рассматриваются как конкретные физические явления. На уровне множеств следует пользоваться обозначениями Ω и ∅. Определение случайного события как подмножества пространства элементарных событий является основой аксиоматического построения теории вероятностей. Построение пространства элементарных событий являет10 Случайные события ся ответственным этапом. Неверное построение этого пространства может привести не только к количественным, но и к логическим ошибкам, вплоть до мнимых парадоксов. 1.2. Элементы комбинаторного анализа Число элементов множеств вычисляют по формулам комбинаторного анализа. Пусть имеется n различимых объектов. Последовательность k объектов из n будем называть комбинацией из n объектов по k. Комбинации называют упорядоченными в случае, когда две комбинации, содержащие одинаковые объекты, рассматриваются как различные, если только эти объекты расположены в различном порядке. Комбинации называются неупорядоченными, если комбинации, содержащие одни и те же объекты, считаются одинаковыми независимо от порядка расположения этих объектов. Пример 1.1. Из трёх объектов (⊗, , ∇) можно составить 6 упорядоченных комбинаций по 2 объекта: (⊗, ), (⊗, ∇), ( , ∇), ( , ⊗), (∇, ⊗), (∇, ). Комбинации (⊗, ) и ( , ⊗) считаются различными. Из этих объектов можно составить 3 неупорядоченные комбинации по 2: (⊗, ), (⊗, ∇), ( , ∇). Комбинации (⊗, ) и ( , ⊗) считаются одинаковыми. При определении числа различных комбинаций применяют основное правило комбинаторики, заключающееся в следующем. Пусть требуется последовательно выполнить i действий, причём 1-е действие можно выполнить n1 способами, 2-е действие – n2 способами и т.д., наконец, i-е действие – ni способами. Число N возможных способов выполнения всей последовательности действий определяется произведением: N = n1n2… ni. Пример 1.2. Сколько существует трёхзначных чётных чисел, составленных только из цифр 2, 4, 5, 6, 8, 9? Процесс составления трёхзначного числа – это три действия: первое действие – выбор первой цифры, второе – выбор второй цифры, третье – выбор третьей цифры. Первая цифра может быть любой, поэтому первое действие можно выполнить шестью способами. Второе – также шестью способами. Третья цифра должна быть чётной, следовательно, третье действие можно выполнить 4-мя способами. Таким образом, существует всего 6 ⋅ 6 ⋅ 4 = 144 числа, которые удовлетворяют требованиям задачи. 1. Размещения с повторениями. Пусть имеется n различимых объектов. Будем размещать эти объекты по k местам следующим образом. Извлекаем объект из общего числа n, отводим ему очередное не занятое место и возвращаем этот объект обратно. Комбинации, полученные таким образом, называются размещениями с повторением из n объектов по k, а процедура их построения – выбором с возвращением. Число вариантов выбора при каждом извлечении равно n. Следовательно, общее число таких размещений равно (1.1) N = n k. Пример 1.3. Число размещений с повторениями из 3 объектов по 2 равно 32 = 9. Возьмём объекты из примера 1.1: (⊗, , ∇). Тогда размещениями с повторением будут следующие комбинации: (⊗, ⊗), (⊗, ), (⊗, ∇), ( , ), ( , ∇), ( , ⊗), (∇, ∇), (∇, ), (∇, ⊗). 2. Размещения без повторений. Будем снова размещать n объектов по k местам, не возвращая обратно извлечённые объекты. Полученные комбинации называют размещениями без повторений или просто размещениями. Число размещений из n объектов по k будем обозначать Ank . Очевидно, что при первом извлечении имеется n вариантов выбора, при втором – (n – 1) вариант, при третьем – (n – 2) и т.д. Число вариантов выбора для k-го извлечения равно (n – k + 1). Применяя основное правило комбинаторики, получим: n! A kn = n( n − 1)( n − 2 ) ... ( n − k + 1) = . (1.2) ( n − k )! 11 Теория вероятностей и математическая статистика Здесь и далее выражение типа m!, где m – целое положительное число, означает произведение целых чисел от 1 до m включительно и читается как «m-факториал» (0! = 1). Заметим, что в формуле (1.2) обязательно выполнение неравенства 0 ≤ k ≤ n, а в формуле (1.1) k может быть любым целым положительным числом. Пример 1.4. В бригаде из 20 рабочих выбирается бригадир, хозяйственник и общественный кассир. Сколько вариантов выбора имеется в распоряжении рабочих? Здесь n = 20, k = 3. Число вариантов выбора будет равно N = 20 ⋅ 19 ⋅ 18 = 6840. 3. Перестановки. Перестановками называются комбинации, которые отличаются друг от друга только порядком расположения объектов. Перестановки являются частным случаем размещений без повторений, когда число мест совпадает с числом объектов, т. е. когда k = n. Таким образом, число перестановок из n объектов определяется формулой: N = Ann = n! (1.3) Пример 1.5. Число перестановок из трёх объектов равно 3! = 6. Перечислим все перестановки из объектов примера 1.1: (⊗, , ∇), ( , ∇, ⊗), (∇, ⊗, ), (⊗, ∇, ), (∇, , ⊗), ( , ⊗, ∇). 4. Сочетания. Сочетаниями из n объектов по k называются такие комбинации по k объектов из данных n, которые отличаются друг от друга хотя бы одним объектом. Число сочетаний обозначают C nk . Все сочетания можно получить из размещений путём исключения лишних перестановок из k объектов. Следовательно, N = C nk = Ank n! = . k k!(n − k )! Ak (1.4) Пример 1.6. В бригаде из 20 рабочих требуется выбрать троих для направления в командировку. Сколько существует вариантов выбора? Последовательность выбора в данном случае не имеет значения. Комбинации «Иван, Пётр, Николай» и «Пётр, Николай, Иван» по условию задачи являются не различимыми. Значит число вариантов выбора равно числу сочетаний из 20 объектов (рабочих) по 3: 20! 20! 20 ⋅ 19 ⋅ 18 N = C 320 = = = = 1140 . 3!( 20 − 3)! 3! 17! 6 5. Перестановки с повторениями. Пусть имеется группа из n объектов, состоящая из r подгрупп. Первая подгруппа содержит n1 объектов, вторая – n2 объектов и т.д., наконец, последняя группа содержит nr объектов, причём внутри каждой подгруппы объекты не различимы. В таком случае число перестановок из n объектов определяется формулой: N= n! . n1!n2 ! ... nr ! (1.5) Здесь n1 + n2 + … + nr = n. Заметим, что при r = 2 формула (1.5) совпадает с формулой (1.4). Пример 1.7. На 6 карточках написаны цифры 2, 2, 3, 4, 4, 4. Сколько различных шестизначных чисел можно получить, располагая эти карточки последовательно? Здесь n = 6, r = 3, при этом n1 = 2, n2 = 1, n3 = 3. Следовательно, можно составить ука- занным в задаче способом N = 6! 4⋅5⋅6 = = 60 различных шестизначных чисел. 2!⋅1!⋅3! 2 Для более сложных задач при подсчёте числа комбинаций следует действовать в соответствии с основным правилом комбинаторики. 12 Случайные события 1.3. Отношения между событиями Пусть Ω = {W1, W2, ..., Wn} – пространство элементарных событий. Число событий, построенных из k элементарных событий, где 0 ≤ k ≤ n, будет равно числу сочетаний из n по k. Исходя из этого, можно показать, что число N всех случайных событий, которые можно построить на Ω, равно N = 2 n . Рассмотрим операции над событиями. 1. Любое событие A является подмножеством пространства элементарных событий. Пусть в результате осуществления опыта произошло элементарное событие W. Если W∈Α, то говорят, что событие Α произошло, если, напротив, W∉Α, то произошло противоположное событие. Событие, противоположное по отношению к A, обозначается A (читается «не A»). Это событие называют ещё отрицанием события A. 2. Говорят, что событие A влечёт за собой событие B, если при наступлении события A событие B обязательно происходит. Записывают: A ⊂ B. Если A ⊂ B и B ⊂ A, то события A и B называют эквивалентными (равносильными, равными). Записывают: A = B. Заметим, что по физическому содержанию события A и B могут быть различными. 3. Суммой или объединением двух событий A и B называется событие C, которое происходит тогда и только тогда, когда происходит или A, или B, или оба события одновременно. Это отражается записью: C = A ∪ B или C = A + B. 4. Произведением или пересечением двух событий A и B называется событие C, которое происходит тогда и только тогда, когда происходят и A и B одновременно. Записывают: C = A ∩ B или C = AB. 5. Разность событий A и B – это событие C, которое происходит тогда и только тогда, когда событие A происходит, а B не происходит. Записывают так: C = A\B или C = A – B. 6. События A1, A2, …, An представляют собой полную группу событий, если в результате опыта хотя бы одно из них обязательно произойдёт. Это эквивалентно тому, что сумма указанных событий равна достоверному событию: A1 + A2 + … + An = U. (1.6) 7. События A и B называют несовместными, если они не могут произойти одновременно, т. е. AB = V. В противном случае события называют совместными. События A1, A2, …, An представляют полную группу попарно несовместных событий, если выполняются соотношения: A1 + A2 + … + An = U и AiAk = V, i ≠ k. (1.7) Приведём некоторые очевидные тождества: A + V = A, A + U = U , A + A = A, A + A = U , AV = V , AU = A, AA = A, AA = V (1.8) Операции над событиями обладают свойствами коммутативности, ассоциативности и дистрибутивности: A + B = B + A, AB = BA; (A + B) + C = A + (B + C) = A + B + C, (AB)C = A(BC) = ABC; (1.9) A + (BC) = (A + B)(A + C), A(B + C) = AB + AC. Пример 1.8. Опыт: два стрелка одновременно стреляют по мишени. В этом случае пространство элементарных событий содержит 4 события: W1 – мишень не поражена; W2 – мишень поражена только 1-м стрелком; W3 – мишень поражена только 2-м стрелком; W4 – мишень поражена обеими стрелками. Таким образом, Ω = {W1, W2, W3, W4}. На пространстве Ω можно построить 24 = 16 событий: 13 Теория вероятностей и математическая статистика A1 = {W1}, A2 = {W2}, A3 = {W3}, A 6 = {W 1, W 3}, A 7 = {W 1, W 4}, A 10 = {W 3, W 4}, A 11 = {W 1, W 2, W 3}, A 14 = {W 1, W 2, W 4}, A4 = {W4}, A5 = {W 1, W 2}, A 8 = {W 2, W 3}, A 9 = {W 2, W 4}, A 12 = {W 2, W 3, W 4}, A 13 = {W 1, W 3, W 4}, A 15 = {W 1, W 2, W 3, W 4} = Ω, A 16 = ∅. Каждое событие из множества {A1, A2, …, A16} имеет конкретный физический смысл. Например, событие A7 означает, что мишень не была поражена или она была поражена двумя пулями. События A8 – мишень поражена только одной пулей. Событие A12 означает, что мишень поражена, т.е. было или одно или два попадания. Приведём примеры соотношений между событиями. 1. Противоположное событие: A7 = A8 ; A1 = A12 ; A5 = A10 ; A9 = A6 ; и т.д. 2. Сумма событий: A14 = A4 + A5 ; A10 = A3 + A4 ; A14 = A1 + A9 ; A11 = A5 + A6 и т.д. 3. Произведение событий: A1 = A6 A7 ; A6 = A11 A13 ; A10 = A10 A13 ; A7 = A13 A14 и т.д. 4. Разность событий: A2 = A8 − A3 ; A8 = A12 − A4 ; A5 = A15 − A10 ; A4 = A7 − A1 и т.д. События A 3 и A 9 являются несовместными, A 3A 9 = V, события A 2, A 5 и A 10 составляют полную группу, так как A2 + A5 + A10 = U. События A1, A4 и A8 представляют полную группу попарно несовместных событий: A1 + A4 + A8 = U и, кроме того, A1A4 = V, A1A8 = V, A4A8 = V. Пример 1.9. Событие D связано с событиями A, B и C следующей формулой: D = AB + C + (A + B)(A + C). Можно ли выразить эту связь более простым соотношением? Воспользуемся свойствами операций над событиями и основными тождествами: (A + B)(A + C) = AA + BA + AC + BC = A + AB + AC + BC = = A(U + B + C) + BC = AU + BC = A + BC. Это равенство является свойством дистрибутивности из (1.9). Таким образом, D = AB + C + A + BC = A(B + U) + C(U + B) = AU + CU = A + C, т.е. D зависит только от A и C. 1.4. Вероятность события Вероятность события – это основное понятие теории вероятностей. Вообще вероятность события есть объективная мера возможности осуществления данного события. Математическое определение вероятности. Каждому событию A ставится в соответствие некоторая мера P(A), которая называется вероятностью этого события и которая удовлетворяет следующим аксиомам: для любого события 0 ≤ P(A) ≤ 1; вероятность невозможного события равна нулю, P(V) = 0; вероятность достоверного события равна единице, P(U) = 1; если AB = V, то P(A + B) = P(A) + P(B), т.е. если события A и B являются несовместными, то вероятность суммы событий равна сумме вероятностей событий. Все рассматриваемые ниже определения являются, по существу, следствием математического определения вероятностей. Классическое определение. Вероятностью P(A) события A называют отношение числа исходов опыта NA, приводящих к осуществлению события A, к общему числу исходов опыта N в предположении, что все исходы опыта являются равновозможными: P( A) = 14 NA . N (1.10) Случайные события Под исходами опыта здесь понимаются элементарные события, так что в терминах теории множеств NA = Card(A), N = Card(Ω). Предположение о равной возможности исходов опыта вносит долю субъективизма в это определение, что и является его недостатком. Пример 1.10. Бросается игральная кость. Какова вероятность того, что число выпавших очков будет не менее 5 (событие A)? Игральная кость имеет 6 граней. Следовательно, общее число исходов опыта равно N = 6. К осуществлению события A приводят только 2 исхода, когда выпадает или 5 или 6 очков, т.е. NA = 2. Таким образом, искомая вероятность равна P(A) = 2/6 = 1/3. Пример 1.11. Из 10 теннисных мячей, среди которых 4 мяча новые, для очередной игры случайным образом берут три. Какова вероятность того, что среди взятых мячей два мяча будут новыми (событие A)? Можно считать, что все результаты выбора являются равновозможными. Порядок выбора мячей не имеет значения. Это значит, что возможные исходы опыта следует рассматривать как сочетания. Так как взято 3 мяча из 10, то общее число исходов опыта будет равно C103 . К событию A приводят такие варианты, когда в число взятых мячей попали 2 мяча из четырёх новых ( C 42 ) и один мяч из шести старых ( C 61 ). Следовательно, N = C103 = 10! 8 ⋅ 9 ⋅ 10 4! = = 120, N A = C 42 ⋅ C 61 = ⋅ 6 = 36. 3!7! 1 ⋅ 2 ⋅ 3 2!2! Тогда P(A) = NA/N = 36/120 = 0,3. Статистическое определение. Пусть опыт, с которым связано событие A, повторяется n раз, а событие A осуществляется при этом k раз (0 ≤ k ≤ n). Отношение k к n принято называть частотой появления события. Эта частота будет принимать различные значения в разных сериях из n опытов. При увеличении числа опытов n эти значения будут всё плотнее и плотнее группироваться вокруг некоторого (неизвестного) числа. Это число, очевидно, является некоторой объективной характеристикой, связывающей условия данного опыта с возможностью осуществления рассматриваемого события. Частота осуществления события k/n с увеличением числа повторений опыта стремится в определённом смысле к некоторому постоянному числу, которое и принимается за вероятность события A. Такое определение вероятностей называют статистическим определением. В данном виде оно не даёт точного правила вычисления вероятности события, так как n всегда конечно. При достаточно больших значениях n можно принять, что P(A) ≈ k/n. Заметим, что это есть лишь оценка истинной вероятности. Рассмотрим пример. Некоторый экспериментатор для определения вероятности появления «орла» при бросании монеты осуществил подбрасывание монеты 1000 раз. При этом оказалось, что «орёл» выпал k1 = 481 раз. Оценка вероятности появления «орла» будет равна P(A) ≈ p1* = 0,481. Второй экспериментатор также провёл серию из n = 1000 таких опытов и получил значение k2 = 512. В этом случае P(A) ≈ p2* = 0,512. Третий экспериментатор получил бы третью оценку. Наблюдается разброс оценок вероятности в разных сериях опытов. Разница в оценках уменьшается при увеличении числа n, но полное совпадение оценок при конечных n практически не возможно. Теоретически факт приближения частоты появления события к его вероятности обосновывается законом больших чисел. Пример 1.12. Стрелок сделал 20 выстрелов по мишени, и было зафиксировано 12 попаданий. Оценить вероятность попадания в мишень (событие A) этим стрелком. Здесь n = 20, а k = 12. Следовательно, P(A) ≈ 12/20 = 0,6. 15 Теория вероятностей и математическая статистика Геометрическое определение. Если пространство элементарных событий не является конечным множеством, то классическое определение вероятности оказывается не приемлемым. Пусть, например, некоторая точка случайным образом «бросается» в круг радиуса R. Требуется определить вероятность того, что эта точка окажется в круге меньшего радиуса r (r < R), который целиком находится в круге радиуса R. Исходом данного опыта являются координаты местоположения «вброшенной» точки. Предположим, что центр большого круга находится в начале координат. Тогда координаты (x, y) «вброшенной» точки удовлетворяют неравенству x2 + y2 ≤ R2. Таким образом, данный круг представляет собой непрерывное множество исходов рассматриваемого опыта. Будем далее считать, что вероятность попадания точки в любую область не зависит от местоположения области в круге, а зависит только от её размера. Это предположение оправдано тем, что точка «бросается» в круг случайным образом. Таким образом, вероятность попадания точки в заданную область можно определить как отношение размера этой области к размеру всего круга. В рассмотренном примере искомая вероятность будет равна отношению площади маленького круга к площади большого круга, πr2/πR2 = r2/R2. Решение задач с привлечением подобной геометрической интерпретации возможно не только на плоскости, но и на линии или в пространстве. Если исходы опыта образуют непрерывное множество и являются равновозможными в указанном выше смысле, то mes{ A} P( A) = , (1.11) mes{Ω} где mes – геометрическая мера множества. Мерой может быть длина, площадь, объём. Равенство (1.11) представляет собой геометрическое определение вероятности. Оно охватывает и классическое определение, так как в случае конечных множеств в качестве меры множества можно взять число его элементов. Пример 1.13. В круг радиуса r случайным образом ставится точка. Какова вероятность того, что эта точка окажется внутри вписанного в круг квадрата (событие A), если любое место расположения точки является равновозможным? Здесь мера множеств – площадь. Множество всех элементарных событий представляет собой круг, а множество событий, приводящих к осуществлению события, образует квадрат. Таким образом, mes{Ω} = πr2, а mes{A} = 2r2 (площадь вписанного квадрата). Следовательно, P(A) = 2/π. В любом случае смысл вероятности состоит в следующем. Если событие имеет вероятность осуществления 0,4, то это означает, что при многократном повторении опыта событие произойдёт в среднем в 40% случаев. 1.5. Простейшие свойства вероятности Свойство 1. Для вероятности любого события A выполняется неравенство: 0 ≤ P(A) ≤ 1. (1.12) Действительно, если NA есть число исходов опыта, приводящих к осуществлению A, а N – общее число исходов, то 0 ≤ NA ≤ N. Поделив это неравенство на N, получим (1.12). Свойство 2. Вероятность невозможного события равна нулю: P(V) = 0. (1.13) Для невозможного события NV = 0 и, следовательно, P(V) = 0. Обратное утверждение не всегда верно. Если P(A) = 0, то нельзя утверждать, что A является невозможным событием. Предположим, что на отрезок [0; 2] случайным образом 16 Случайные события ставится точка. Вероятность того, что точка попадёт в интервал [x, x + ∆x), будет равна |∆x|/2. При ∆x → 0 эта вероятность будет стремиться к нулю. Значит вероятность того, что точка будет иметь координату, совпадающую с x, равна нулю для любого значения x. Но в результате опыта точка будет иметь конкретную координату, т. е. произойдёт событие с нулевой вероятностью. Равенство P(A) = 0 при бесконечном числе исходов опыта нужно понимать в том смысле, что событие A имеет бесконечно малую вероятность и для его реализации опыт придётся повторять неограниченное число раз. Свойство 3. Вероятность достоверного события равна единице, т.е. P(U) = 1. (1.14) Для достоверного события NU = N и, следовательно, P(U) = 1. Здесь также обратное утверждение не всегда справедливо. Действительно, если P(A) = 1, то P( A ) = 0. Событие A , имея нулевую вероятность, может иногда произойти (см. примечание к свойству 2). Но в таком случае не произойдёт событие A, хотя P(A) = 1. Свойство 4. Для несовместных событий A и B P(A + B) = P(A) + P(B), если AB = V. (1.15) Так как события A и B не пересекаются, то число исходов опыта NA + B, приводящих к осуществлению событий A или B, равно сумме исходов NA и NB, приводящих соответственно к осуществлению событий A и B, т.е. NA+B = NA + NB. Поделив это равенство на N, получим равенство (1.15). Это свойство называют свойством аддитивности вероятностей. Вообще, если A1, A2, …, An группа попарно несовместных событий, т.е. AiAk = V, когда i ≠ k, то вероятность суммы событий равна сумме вероятностей этих событий: (1.16) P(A1 + A2 + … + An) = P(A1) + P(A2) + … + P(An) Если эта группа событий является полной группой, т.е. A1 + A2 + … + An = U, то P(A1 + A2 + … + An) = P(U) = 1, из чего следует, что (1.17) P(A1) + P(A2) + … + P(An) = 1. События A и A несовместны и составляют полную группу. Следовательно, P(A) + P( A ) = 1 или P(A) = 1 – P( A ). (1.18) Свойство 5. Если A ⊂ B, то P(A) ≤ P(B). Соотношение A ⊂ B означает, что множество A составляет часть множества B. Поэтому всегда NA ≤ NB. Поделив это неравенство на N, получим подтверждение свойства 5. Пример 1.14. Из 10 деталей, среди которых имеется 4 нестандартных, случайным образом взято 3. Найти вероятность того, что в числе взятых деталей бракованных окажется: 1) не менее 2 (событие B); 2) хотя бы одна (событие C). Пусть Ai – событие, состоящее в том, что среди взятых деталей оказалось i нестандартных (i = 0, 1, 2, 3). Тогда B = A2 + A3 («не менее 2» означает или 2, или 3). События Ai, i = 0, 1, 2, 3, являются попарно несовместными. Поэтому P(B) = P(A2 + A3) = P(A2) + P(A3). Найдём вероятности P(A2) и P(A3), пользуясь классической схемой. Обозначим через Ni число исходов опыта, приводящих к осуществлению события Ai (i = 0, 1, 2, 3). Определим N2, N3, а также общее число исходов N: N 2 = C 42 C 61 = 36; N 3 = C 43 C 60 = 4; N = C103 = 120. Тогда, P(A2) = N2/N = 0, 3; P(A3) = N3/N = 1/30. Следовательно, P(A3) = 0, 3 + 1/30 = 1/3. Очевидно, что события A0 и C являются противоположными событиями, т.е. C = A0 . По формуле (1.18) P (C ) = P( A0 ) = 1 − P( A0 ) = 1 − N0 C 0C 3 5⋅ 4 1 5 = 1− 4 6 = 1− = 1− = . N 120 120 6 6 17 Теория вероятностей и математическая статистика 1.6. Условная вероятность. Формула умножения вероятностей. Зависимые и независимые события Условной вероятностью события A по отношению к событию B называется вероятность события A, вычисленная при условии, что событие B произошло. Обозначается: P(A|B) (кратко читается так: “P от A при условии B”). Условная вероятность обладает всеми свойствами безусловной вероятности. В частности, P(A|B) + P( A |B) = 1. Отметим также, что если B ⊂ A, то P(A|B) = 1; если AB = V, то P(A|B) = 0. Рассмотрим задачу вычисления условной вероятности в общем случае. Преобразуем вероятность P(AB) следующим образом: P( AB ) = N AB / N = ( N B / N ) ⋅ ( N AB / N ). Вторая дробь в этом выражении представляет собой условную вероятность P(AB). Действительно, поскольку событие B произошло, то имел место один из исходов, приводящих к событию B, из общего числа NB. Первая дробь есть не что иное, как P(B). Таким образом, (1.19) P ( AB ) = P ( B ) ⋅ P ( A B ). Эта формула называется формулой умножения вероятностей. Из этой формулы получаем правило вычисления условной вероятности: P( A B) = P( AB) . P( B) (1.20) Аналогично можно записать формулы, содержащие условную вероятность P(B A): P ( AB) = P ( A) ⋅ P( B A) , P ( B A) = P( AB) . P ( A) (1.21) Если условная вероятность совпадает с безусловной вероятностью, т.е. P(A B) = = P(A), то события A и B называются статистически независимыми событиями. Это значит, что вероятность осуществления события A не зависит от того, произошло или нет событие B. Если P(A B) ≠ P(A), то события A и B называются статистически зависимыми событиями. Заметим, что статистическая зависимость или независимость является взаимной. Если P(A | B) = P(A), то обязательно выполняется и равенство P(B | A) = P(B). Формула умножения вероятностей обобщается для произвольного числа событий: P(A1A2… An) = P(A1… An-1)P(AnA1… An–1), (1.22) где P(AnA1 … An–1) – условная вероятность события An по отношению к произведению всех остальных событий, т. е. вероятность события An, вычисленная при условии, что события A1, A2, …, An–1 уже произошли. Безусловную вероятность в (1.22) можно представить формулой умножения вероятностей. Повторяя это действие n – 1 раз, получим: P(A1A2… An) = P(A1)P(A2A1) … P(An–1A1… An–2) P(AnA1… An–1) . В частности, при n = 3, P(A1A2A3) = P(A1)P(A2A1)P(A3A1A2). (1.23) Будем называть события A1, A2, …, An статистически независимыми, если условная вероятность любого события по отношению к любому произведению из остальных событий, совпадает с безусловной вероятностью данного события. Другими словами, вероятность осуществления любого события не зависит от того, произошли или не произошли другие события. Для произведения независимых событий справедливо равенство: P(A1A2 … An) = P(A1) P(A2) … P(An). (1.24) В частности, если A и B – статистически независимые события, то P(AB) = P(A)⋅ P(B). (1.25) Пример 1.15. Из коробки, содержащей 3 белых и 5 чёрных шаров, наугад взяли 3 шара. Какова вероятность того, что все 3 шара оказались чёрного цвета? 18 Случайные события Пусть Ai есть событие, состоящее в том, что i-й извлечённый шар оказался чёрным (i = 1, 2, 3). Тогда искомая вероятность есть вероятность произведения событий P(A1A2A3). По формуле умножения вероятностей P(A1A2A3) = P(A1)P(A2A1)P(A3A1A2). Когда берётся первый шар, то в коробке находится 8 шаров, из которых 5 шаров имеют чёрный цвет. Следовательно, P(A 1 ) = 5/8. Когда берётся второй шар при условии, что событие A 1 уже произошло, то в коробке находится 7 шаров, причём чёрных шаров осталось 4 (один уже был взят). Значит P(A 2 A 1 ) = 4/7. После извлечения второго шара в коробке осталось 6 шаров, в том числе 3 чёрных. Таким образом, P(A 3 A 1 A 2 ) = 3/6. Искомая вероятность равна: P(A 1 A 2 A 3 ) = (3/6) · (4/7) · (5/8) = 5/28. Эту вероятность можно получить и непосредственно по формуле для числа сочетаний. Пример 1.16. Два стрелка одновременно, независимо друг от друга стреляют по мишени. Вероятность попадания в мишень для первого стрелка равна 0,6, а для второго – 0,8. Какова вероятность того, что в мишени окажется две пробоины (событие C)? Пусть событие A – попадание в мишень первым стрелком, событие B – попадание в мишень вторым стрелком. Тогда C = AB, причём события A и B являются (по условию задачи) независимыми. Следовательно, P(AB) = P(A)⋅ P(B) = 0,6⋅0,8 = 0,48. 1.7. Формула сложения вероятностей Для любых событий A и B выполняется равенство: P(A + B) = P(A) + P(B) – P(AB). (1.26) Это формула сложения вероятностей. Она справедлива для любых событий. Действительно, если A и B являются несовместными, то A⋅B = V и P(AB) = P(V) = 0. При этом получается формула сложения вероятностей несовместных событий, записанная ранее: P(A + B) = P(A) + P(B). (1.27) Формула (1.26) легко доказывается. Если NA – число исходов опыта, приводящих к осуществлению события A, а NB – к осуществлению события B, то в сумме NA + NB будут дважды учтены те исходы, которые одновременно приводят к осуществлению и A и B. Число исходов, приводящих к осуществлению A + B, равно NA + NB − NAB, где NAB – число исходов, приводящих к осуществлению AB. Эти рассуждения приводят к формуле (1.26). Применяя дважды формулу (1.26), для трёх событий получим: P(A + B + C) = P(A) + P(B) + P(C) − P(AB) − P(AC) −P(BC) + P(ABC). (1.28) Вероятность суммы большого числа событий вычисляют обычно через противоположное событие. Сумма событий A1 + A2 + … + An есть событие, состоящее в том, что произойдёт хотя бы одно из суммируемых событий. Противоположным по отношению к нему является событие A1 A2 ... An . Это значит, что A1 A2 ... An + A1 + A2 + … + An = U. События A1 + A2 + … + An и A1 A2 ... An являются несовместными, а P(U) = 1. Поэтому P(A1 + A2 + ... + An ) = 1 − P( A1 A2 ... An ) . (1.29) Пример 1.17. Два стрелка одновременно, независимо друг от друга стреляют по мишени. Вероятность попадания в мишень для первого стрелка равна 0,6, а для второго стрелка – 0,8. Какова вероятность того, что мишень будет поражена (событие C)? Мишень поражена, если будет хотя бы одно попадание. Это значит, что C = A + B. По условию задачи события A и B статистически независимы. Следовательно, P(C) = P(A + + B) = P(A) + P(B) − P(AB) = P(A) + P(B) − P(A)P(B) = 0,6 + 0,8−0,6 ⋅ 0,8 = 0,92. С другой сторо- 19 Теория вероятностей и математическая статистика ны, вероятности противоположных по отношению к A и B событий соответственно равны 0, 4 и 0, 2. По формуле (1.29) получим: P(C) = P(A + B) = 1 – 0,4 ⋅ 0,2 = 1 – 0,08 = 0,92. 1.8. Формула полной вероятности и формула Байеса В некоторых задачах имеется дополнительная неопределённость, которая не позволяет непосредственно определить искомую вероятность. Формула полной вероятности и формула Байеса применяются при решении одного класса таких задач. Рассмотрим следующую задачу. Пусть события H1, H2, …, Hn составляют полную группу попарно несовместных событий, т. е. H1 + H2 + … + Hn = U, (1.30) причём, HiHk = V, если только i ≠ k. Пусть, далее, имеется некоторое событие A, которое может произойти с одним из событий Hi, i = 1, 2, …, n. Вероятности P(Hi) и P(AHi) являются известными. Требуется вычислить вероятность P(A). Умножим равенство (1.30) на событие A, имея в виду, что AU = A: A = AU = A(H1 + H2 + … + Hn) = AH1 + AH2 + … + AHn. Имеем сумму попарно несовместных событий: если i ≠ k, то AHiAHk = AHiHk = AV = = V. Поэтому, P(A) = P(AH1 + AH2 + … + AHn) = P(AH1) + P(AH2) + … + P(AHn). Кроме того, P(AH1) = P(AHi) P(Hi). Получили формулу, которую называют формулой полной вероятности: n P ( A) = ∑ P( A H i ) ⋅ P( H i ) . (1.31) i =1 n Заметим, что всегда ∑ P( H ) = 1, i =1 i так как H 1 + H 2 + ... + H n = U . Пример 1.18. Три автоматические линии изготовляют однотипные изделия и работают на общий конвейер. Производительности 1-ой, 2-ой и 3-ей линий находятся в соотношении 2 : 3 : 5. Вероятность изготовления дефектного изделия на 1-ой линии равна 0,05, для 2-ой линии эта вероятность равна 0, 08, для 3-ей – 0,1. С общего конвейера наугад берётся изделие. Какова вероятность P(A) того, что это изделие не имеет дефектов? Возможны три гипотезы: H1 – изделие было изготовлено на 1-ой линии, H2 – на 2-ой, H3 – на 3-ей. Из соотношения производительностей линий находим, что P(H1) = 0,2; P(H2) = 0,3; P(H3) = 0,5. Вероятности изготовления бездефектного изделия на линиях равны 1 – 0,05 = 0,95, т.е. P(AH1) = 0,95, P(AH2) = 0,92 и P(AH3) = 0,9. Тогда P(A) равна: P(A) = P(AH1)P(H1) + P(AH2)P(H2) + P(AH3)P(H3) = = 0,2 ⋅ 0,95 + 0,3 ⋅ 0,92 + 0,5 ⋅ 0,9 = 0,916. Этот результат означает, что в среднем 916 изделий из 1000 будут без дефектов. Пусть в результате опыта событие A произошло. Какое из событий H1, H2, …, Hn стало причиной осуществления события A? Точно на этот вопрос ответить невозможно, но можно определить вероятность того, что причиной стало то или иное событие. По формуле умножения вероятностей P(AHk) = P(AHk)P(Hk) = P(HkA) P(A). Отсюда: P ( H k A) = P( A H k ) P( H k ) P( A) или P( H k A) = P( A H k ) ⋅ P( H k ) n ∑ P( A H ) ⋅ P( H ) i =1 i . (1.32) i Формулу (1.32) называют формулой Байеса. По формуле Байеса находится вероятность того, что имела место гипотеза Hk при условии, что событие A произошло. 20 Случайные события Пример 1.19. Группа из 12 стрелков включает в себя трёх мастеров спорта, четырёх кандидатов в мастера и пятерых перворазрядников. Мастер спорта может попасть в мишень с вероятностью 0,9, кандидат в мастера – с вероятностью 0,85, перворазрядник – с вероятностью 0,75. Наудачу выбранный стрелок сделал выстрел, мишень была поражена (событие A). Какова вероятность того, что этот стрелок является мастером спорта? Неизвестно, какой стрелок сделал выстрел. Имеются гипотезы: H1 – стрелял мастер спорта, H2 – стрелял кандидат в мастера, H3 – стрелял перворазрядник. По условию, P(H1) = 3/12, P(H2) = 4/12, P(H3) = 5/12. Кроме того, даны вероятности попадания для стрелков каждой группы: P(AH1) = 0,9, P(AH2) = 0,85, P(AH3) = 0,75. Таким образом, P(A) = P(AH1)P(H1) + P(AH2)P(H2) + P(AH3)P(H3) = = (0, 9⋅3 + 0, 85⋅⋅4 + 0, 75⋅5)/12 ≈ 0,821. Тогда, по формуле (1.32), P ( H 1 A) = P( A H 1 ) P( H 1 ) P( A) = 0,9 ⋅ 3 ≈ 0,274 . 12 ⋅ 0,821 Вероятности P(Hi), i = 1, 2, …, n, называют априорными вероятностями (вычисленными до опыта), а вероятности P(HiA) – апостериорными (вычисленными после опыта). 1.9. Последовательность независимых испытаний. Формула Бернулли Пусть некоторый опыт (испытание) повторяется n раз. Будем считать, что вероятность осуществления события A, связанного с данным опытом, при каждом повторении опыта остаётся неизменной и равна p. Тогда вероятность того, что событие A не осуществится, также будет неизменной и равной q = 1 – p. Такая последовательность проведения одного и того же опыта называется последовательностью независимых испытаний. Независимость понимается в том смысле, что вероятность осуществления события A в любом по номеру повторении опыта не зависит от результатов опыта при всех других повторениях. Найдём вероятность Pn(k) того, что событие A в n испытаниях произойдёт k раз. Пронумеруем повторяемые опыты целыми числами от 1 до n и обозначим через Ai событие, состоящее в том, что в i-ом опыте событие A произошло. Тогда P(Ai) = p и P( Ai ) = q ) для любого i. Если принять всю последовательность испытаний за один опыт, то результатами этого опыта будут события вида C j = A1 A2 A3 A4 A5 ... An − 2 An − 1 An . Так как на любом i-ом месте этого произведения может стоять либо Ai, либо Ai , то всего таких событий будет 2n (по общему правилу комбинаторики), т.е. j = 1, 2, 3, …, 2n. Рассмотрим только те из них, которые содержат k множителей типа Ai и n-k множителей типа Ai , причём взаимное расположение различных типов множителей не имеет значения. Анализ показывает, что число таких событий равно числу сочетаний из n объектов по k. Все события Cj являются попарно несовместными. Так как испытания независимы, то вероятность любого события Cj равна произведению вероятностей всех множителей. Таким образом, вероятность любого события Cj, содержащего k множителей типа Ai, будет равна P(Cj) = pkqn-k, следовательно, Pn(k) = P(C j ) = C nk ⋅ p k q n − k . ∑ j Здесь суммирование проводится только по тем значениям j, для которых число множителей типа Ai в событии Cj равно k. Итак, вероятность появления события A в n независимых испытаниях k раз равна Pn (k ) = C nk ⋅ p k q n − k , (1.33) 21 Теория вероятностей и математическая статистика где q = 1 – p, а C nk = n! – число сочетаний из n элементов по k. Эта формула назыk!⋅(n − k )! вается формулой Бернулли. Рассмотрим следствия, вытекающие из формулы Бернулли. 1. Вероятность того, что в n независимых испытаниях событие A произойдёт не менее чем i раз, равна n P{k ≥ i} = ∑ C nk ⋅ p k q n − k (1.34) P{k ≥ i} = 1 − ∑ C nk ⋅ p k q n − k . (1.35) k =i i −1 или k =0 Действительно, пусть Bk – событие, состоящее в том, что событие A произойдёт k раз. Тогда событие Bi + Bi + 1 + … + Bn означает, что A произойдёт не менее чем i раз. Противоположным этому событию является событие B0 + B1 + … + Bi–1. Слагаемые в суммах – попарно несовместные события. Отсюда, n P{k ≥ i} = P ( Bi + Bi +1 + ... + Bn ) = ∑ P( Bk ) k =i или, в соответствии с формулой (1.18), P{k ≥ i} = 1 − P ( B0 + B1 + ... + Bi −1 ) = 1 − i −1 ∑ P( B k =0 k ). Эти соотношения и доказывают справедливость формул (1.34) и (1.35). 2. Вероятность того, что событие A произойдёт хотя бы один раз в n независимых испытаниях, определяется формулой (частный случай формулы (1.35) при i = 1): P{ k ≥ 1 } = 1 – qn. (1.36) 3. Если выбрать такое n, что n ≥ ln(1 - P ) ln(1 - p ) , (1.37) то с вероятностью, не меньшей P, событие A произойдёт в испытаниях хотя бы один раз. Действительно, положим P{k ≥ 1} = 1 − qn ≥ P. Тогда 1 – P ≥ qn. Прологарифмируем это неравенство: ln(1 – P) ≥ n⋅lnq или ln(1 – P) ≥ n⋅ln(1 – p). Поделив последнее неравенство на ln(1 – p) и учитывая, что оба логарифма отрицательны, получим формулу (1.37). В качестве n берётся ближайшее целое число, превосходящее значение правой части неравенства. Пример 1.20. Проводятся стендовые испытания шести приборов, каждый из которых, независимо от других, с вероятностью p = 0,4 может быть признан годным без дополнительных регулировок. Событие B – только два прибора не потребуют регулировок, событие C – хотя бы два прибора не потребуют регулировок. Найти P(B) и P(C). Очевидно, имеет место схема независимых последовательных испытаний при n = 6, p = 0,4, q = 0,6. Тогда вероятность P(B) определяется непосредственно формулой Бернулли: P ( B) = P6 (2) = C62 p 2 q 4 = 6! ⋅ 0,42 ⋅ 0,64 = 15 ⋅ 0,16 ⋅ 0,1296 ≈ 0,311 . 2!⋅4! Вероятность события C вычислим через вероятность противоположного события: P (C ) = 1 − P (C ) = 1 − P{k < 2} = 1 − P6 (0) − P6 (1) = 1 − C 60 p 0 q 6 − − C 61 p 1 q 5 = 1 − 0,6 6 − 6 ⋅ 0,4 ⋅ 0,6 5 ≈ 1 − 0,047 − 0,187 = 0,766. Пример 1.21. Вероятность попадания в мишень при одном выстреле равна 0,3. Сколько нужно сделать выстрелов, чтобы с вероятностью, не меньшей чем 0, 95, мишень имела хотя бы одну пробоину? 22 Случайные события Здесь достаточно воспользоваться формулой (1.37) при p = 0,3 и P = 0,95: n≥ ln(1 − P ) ln(1 − p ) = ln(1 − 0,95) ln(1 − 0,3) = ln(0,05) ln(0,7) ≈ 2,9957 ≈ 8,398 . 0,3567 Число n должно быть целым, поэтому n = 9. Таким образом, если сделать 9 выстрелов, то с вероятностью, не меньшей чем P = 0,95, мишень получит хотя бы одну пробоину. Отметим, что вероятности Pn(k) совпадают с соответствующими членами разложения бинома (p + q)n по степеням p: ( p + q ) n = n ∑C k =0 k n n p k q n − k = ∑ Pn (k ) . Поэтому распредеk =0 ление вероятностей (1.33) (по различным значениям k) называют биномиальным законом распределения вероятностей. Из этого соотношения следует, что сумма всех вероятностей равна единице (условие нормировки вероятностей), так как (p + q)n = 1n = 1. Каждое из чисел k (k = 0, 1, 2, …, n) имеет свою вероятность при проведении последовательности независимых испытаний. Число s, которому соответствует наибольшая вероятность Pn(k), называется наивероятнейшим числом появлений события в последовательности n независимых испытаний. По определению, Pn(s) ≥ Pn(s – 1) и Pn(s) ≥ Pn(s + 1). Раскрывая эти неравенства и упрощая их, получим: np − q ≤ s ≤ np + p. (1.38) Если границы промежутка определяются дробными числами, то в промежутке имеется одно целое число, которое и является наивероятнейшим числом. Если границы определяются целыми числами, то существует два наивероятнейших числа: s1 = np – q и s2 = np + p. Пример 1.22. Вероятность появления события A в каждом испытании одна и та же и равна 0, 7. Определить наивероятнейшее число появлений события в n испытаниях и вероятность этого числа при n = 8 и при n = 9. Положим n = 8, p = 0,7, q = 0,3. Подставляя в неравенство (1.38) эти данные, получим 5,3 ≤ s ≤ 6,3. Следовательно, s = 6 и P8 (6) = C86 ⋅ 0,7 6 ⋅ 0,3 2 ≈ 28 ⋅ 0,1176 ⋅ 0,09 ≈ 0,296 . Запишем неравенство для n = 9 : 9 ⋅ 0,7 – 0,3≤ s ≤ 9 ⋅ 0,7 + 0,7 или 6 ≤ s ≤ 7. Следовательно, существует два наивероятнейших числа: s 1 = 6 и s 2 = 7. Вероятности этих чисел одинаковы: P9 (7) = P9 (6) = C 96 ⋅ 0,7 6 0,33 ≈ 84 ⋅ 0,1176 ⋅ 0,0027 ≈ 0,267 . 1.10. Асимптотические приближения формулы Бернулли Формулой Бернулли пользоваться неудобно, если число испытаний достаточно велико. Рассмотрим приближённые формулы, к которым асимптотически приближается формула Бернулли при неограниченном увеличении числа испытаний (n → ∞). Локальная предельная теорема Муавра – Лапласа утверждает следующее. При неограниченном возрастании n вероятность того, что в n независимых испытаниях событие наступит k раз, определяется приближённым равенством: Pn (k ) ≈ 1 npq ⋅ f 0 ( x), где f 0 ( x) = 1 2π ⋅ exp{- x2 k-np ), а x= 2 npq (1.39) Точность этого приближённого равенства тем выше, чем больше число испытаний n. Наибольшая точность достигается при значениях p, близких к 0,5. Интегральная предельная теорема Муавра – Лапласа является, в определённом смысле, продолжением локальной. Она утверждает, что при достаточно больших n, вероят23 Теория вероятностей и математическая статистика ность того, что число k появлений события в n независимых испытаниях окажется в интервале (k1; k2), определяется приближенно равенством: P{k1 ≤ k < k 2 } ≈ Φ0 ( x 2 ) − Φ0 ( x1 ), x1 = где Φ 0 ( x ) − функция Лапласа: Φ 0 ( x ) = 1 2π x ∫ exp{ − k1 − np npq , x2 = k 2 − np npq t2 } dt . 2 , (1.40) (1.41) Формула (1.40) даёт наибольшую точность также при p = q = 0, 5. Для функций f0(x) и Φ0(x) имеются подробные таблицы, что существенно облегчает процесс вычислений. Функция f0(x) является чётной, а Φ0(x) – нечётной функцией: f0(−x) = f0(x), Φ0(−x) = −Φ0(x). Поэтому таблицы приводятся только для x ≥ 0. Пример 1.23. Вероятность рождения мальчика равна 0,51. Найти вероятность того, что среди 80 новорождённых окажется 45 мальчиков. Здесь p = 0,51, q = 0,49, n = 80 и k = 45. Применим локальную предельную теорему k − np 4 ,2 Муавра – Лапласа: np = 40,8, npq = 19,992, npq ≈ 4,4712 , x = ≈ ≈ 0 ,9393 . npq 4 ,4712 По таблице значений функции f 0 (x) для x = 0,9393 находим f 0 (x) ≈ 0,2567. Получим: Pn (k ) ≈ 1 npq ⋅ f 0 ( x) ≈ 1 ⋅ 0,2567 ≈ 0,0574 . 4,4712 Пример 1.24. Завод выпускает 80% изделий первого сорта и 20% изделий второго сорта. Наугад взято 100 штук из общего потока изделий. Какова вероятность того, что число изделий первого сорта среди выбранных будет находиться в пределах от 75 до 90? Применим интегральную предельную теорему, полагая n = 100, p = 0,8 и q = 0,2: npq = 4 , k1 = 75, k2 = 90, x1 = −1,25, x2 = 2,5. Следовательно, P{k1 ≤ k < k} ≈ Φ0(x2) − Ф0(x1) = Φ0(2,5) − Φ0(−1,25) = Φ0(2,5) + Φ0(1,25). По таблице значений функции Φ0(x) для x1 = 1,25 и x2 = 2,5 находим Φ0(1,25) = 0,3944 и Φ0(2,5) = 0,4938. Таким образом, искомая вероятность равна P{75 ≤ k < 90} = 0,4938 + 0,3944 = np = 80, npq = 16, = 0,8882. При больших значениях n и достаточно малых p рекомендуется пользоваться теоремой Пуассона, согласно которой Pn (k ) ≈ λk ⋅ exp{−λ} , где λ = np. k! (1.42) Пример 1.25. Вероятность повреждения изделия при транспортировке равна 0,001. Какова вероятность того, что при транспортировке 2000 изделий будет повреждено не более двух из них (событие A)? Так как n велико, а p мало, то можно воспользоваться теоремой Пуассона: n = 2000, p = 0,001, np = λ = 2. Тогда P(A ) = P{k = 0} + P{k = 1} + P{k = 2} = 20 21 22 = ⋅ exp{ −2} + ⋅ exp{ −2} + ⋅ exp{ −2} = 5 ⋅ exp{ −2} ≈ 0 ,6765 . 0! 1! 2! 24 Случайные события Термины для запоминания ♦ ♦ ♦ ♦ Размещения, перестановки, сочетания. Случайное событие, достоверное событие, невозможное событие, элементарное событие, пространство элементарных событий, противоположное событие, сумма событий, произведение событий, совместные и несовместные события. Вероятность события, классическое определение вероятности, статистическое определение вероятности, геометрическое определение вероятности, аксиоматическое определение вероятности, формула сложения вероятностей, формула умножения вероятностей, формула полной вероятности, формула Байеса. Последовательность независимых испытаний, формула Бернулли, наивероятнейшее число, асимптотические приближения формулы Бернулли, локальная предельная теорема Муавра – Лапласа, интегральная предельная теорема Муавра – Лапласа, теорема Пуассона. Список контрольных вопросов 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. Чем отличаются комбинации размещения и комбинации сочетания? Дайте определение суммы и произведения случайных событий. Сформулируйте классическое определение вероятности. Сформулируйте геометрическое определение вероятности. Запишите формулы сложения вероятностей для совместных и несовместных событий. Чем они отличаются и почему? Чему равна вероятность суммы событий, составляющих полную группу? Что такое условная вероятность события? Какие события называются статистически независимыми? Запишите формулы умножения вероятностей для зависимых и независимых событий. Чем они отличаются и почему? Запишите формулу полной вероятности и формулу Байеса. Каким условиям должны удовлетворять гипотезы в формуле полной вероятности и в формуле Байеса? Что называется последовательностью независимых испытаний? В каком смысле понимается здесь независимость? Запишите формулу Бернулли и объясните, как она получается. При каких условиях применяются предельные теоремы Муавра – Лапласа для приближённой замены формулы Бернулли? При каких условиях применяются предельные теоремы Пуассона для приближённой замены формулы Бернулли? Что такое наивероятнейшее число появлений события в последовательности независимых испытаний и как оно определяется? 25 Теория вероятностей и математическая статистика Вопросы для обсуждений 1. 2. 26 Попробуйте найти в окружающем нас мире неслучайные (на первый взгляд) события. Попробуйте затем аргументированно опровергнуть это мнение о данном событии. Случайные величины ТЕМА 2. Случайные величины Студент должен освоить: • понятие случайной величины, законы распределения вероятностей, числовые характеристики случайных величин; приобрести навыки: • решения задач на вычисление вероятностей попадания случайной величины в заданный интервал, задач на вычисление числовых характеристик. 27 Теория вероятностей и математическая статистика Краткое содержание Случайные величины: определение, классификация, способы задания. Функция распределения вероятностей случайной величины и ее свойства. Плотность распределения вероятностей случайной величины и ее свойства. Функция случайной величины. Математическое ожидание функции случайной величины. Числовые характеристики случайных величин. Математическое ожидание случайной величины и его свойства. Мода и медиана. Дисперсия и среднее квадратическое отклонение случайной величины и их свойства. Коэффициент вариации. Квантили, квартили и вероятное отклонение. Моменты случайных величин. Скошенность и эксцесс. Производящие функции. Примеры дискретных и непрерывных распределений (биномиальное, пуассоновское, равномерное, показательное, нормальное, Эрланга, Вейбулла). 2.1. Определение, классификация, способы задания случайных величин Случайной величиной называется величина, принимающая в результате опыта одно из своих возможных значений, причём заранее не известно, какое именно значение она примет. Случайные величины обозначают большими латинскими буквами (X, Y, Z1, …), а их возможные значения – соответствующими малыми буквами (x, y, z, …). Событие, состоящее в том, что случайная величина X примет значение x, будем отражать записью X = = x. С левой стороны этого равенства стоит имя случайной величины, а справа – принимаемое ею значение. Вероятность этого события будем обозначать P{X = x}. Аналогично, P{X < x} – вероятность того, что случайная величина X примет значение, меньшее, чем x. Случайные величины делятся на дискретные, непрерывные и на величины смешанного типа. Возможные значения дискретной случайной величины составляют конечное или бесконечное, но счётное, множество. Возможные значения непрерывной случайнойвеличины составляют непрерывное множество. Все возможные значения дискретной случайной величины можно пронумеровать (хотя бы в принципе, если они составляют бесконечное множество), для непрерывной случайной величины это сделать невозможно. Случайная величина смешанного типа кроме непрерывного множества возможных значений имеет ещё возможные значения, изолированные от этого множества. Совокупность всех возможных значений случайной величины с соответствующими им вероятностями называется законом распределения вероятностей этой случайной величины. Перечислить возможные значения и указать их вероятности можно таблично, графически или аналитически. Если pk = P{X = xk} – есть вероятность того, что случайная величина X примет значение xk (k = 1, 2, ..., n), то таблица из двух строк представляет табличное задание величины X: xk pk x1 p1 x2 p2 …… …… xn pk При аналитическом задании связь между возможными значениями случайной величины и их вероятностями задаётся с помощью математической формулы, например: P{ X = k} = p k = p (1 − p) k , k = 0 ,1, 2, ... (2.1) здесь xk = k, 0 < p < 1. Если эта связь задана с помощью графика, то говорят, что случайная величина задана графически (рис. 2.1). В любом случае, если общее число возможных знаn чений случайной величины равно n, то ∑p k =1 28 k = 1 − условие нормировки вероятностей. Случайные величины Пример 2.1. Выпущено 1000 лотерейных билетов: на 5 pk из них выпадает выигрыш в сумме 500 рублей, на 10 – выигрыш в 100 рублей, на 20 – 50 рублей, на 50 – 10 рублей. Определить закон распределения вероятноxk стей случайной величины X – выигрыша на один билет. x1 x2 x3 x4 x5 x6 x7 x8 Величина X может принять одно из пяти возможных значений: 0, 10, 50, 100 и 500. Заметим, что Рис. 2.1. Графическое задание дискретной случайной величины число билетов без выигрыша равно 1000 – 5 – 10 – 20 – – 50 = 915. Следовательно, P{X = 0} = 915/1000 = 0,915. Аналогично находим все другие вероятности: P{X = 10} = 0,05, P{X = 50} = 0,02, P{X = 100} = = 0,01, P{X = 500} = 0,005. Найденный закон представим таблично: xk 10 50 100 500 pk 0,915 0,05 0,02 0,01 0,005 Для непрерывных величин эти способы задания являются неприемлемыми, так как невозможно перечислить все возможные значения непрерывной случайной величины. 2.2. Функция распределения вероятностей и её свойства Функцией распределения вероятностей F(x) случайной величины X в точке x называется вероятность того, что в результате опыта случайная величина примет значение, меньшее, чем x, т.е. F(x) = P{X < x}. Рассмотрим свойства функции F(x). 1. F(–∞) = lim F ( x) = 0. Действительно, по определению, F(–∞) = P{X < –∞}. Событие x → −∞ 2. (X < –∞) является невозможным событием: F(–∞) = P{X < –∞} = P{V} = 0. F(∞) = lim F ( x) = 1, так как по определению, F(∞) = P{X < ∞}. Событие X < ∞ является x →∞ достоверным событием. Следовательно, F(∞) = P{X < ∞} = P{U} = 1. 3. Вероятность того, что случайная величина примет значение из интервала [α, β), равна приращению функции распределения вероятностей на этом интервале. P{α ≤ X < β} = F(β) − F(α). (2.2) 4. F(x2) ≥ F(x1), если x2 > x1, т.е. функция распределения вероятностей является неубывающей функцией. 5. Функция распределения вероятностей непрерывна слева. Докажем 3-е свойство. Обозначим событие X < α через A, событие X < β – через B и событие α ≤ X < β – через C. Очевидно, что B = A + C (рис. 2.2), причём события A и C являются несовместными. Следовательно, P(B) = P(A) + F(x) + P(C) или P(C) = P(B) − P(A). 1 • Четвёртое свойство вытекает из третьего. Поло• жим, в (2.2) α = x1, а β = x2. Получим: P{x1 ≤ X < x2} = • = F(x2) − F(x1). Но P{x1 ≤ X < x2} ≥ 0 всегда, значит F(x2) ≥ • ≥ F(x1). • x Различия между функциями распределения веX<β X≤α • роятностей дискретной и непрерывной случайных веx1 x2 x3 αx4 x5 β x6 личин хорошо иллюстрировать графиками. Пусть, наРис. 2.2. Функции распределения пример, дискретная случайная величина имеет n дискретной случайной величины возможных значений, вероятности которых равны 29 Теория вероятностей и математическая статистика P{X = xk} = pk, k = 1, 2, …, n. Если x ≤ x1, то F(x) = 0, так как левее x нет возможных значений случайной веF(x) личины. Если x1 < x≤ x2, то левее x находится всего 1 одно возможное значение, а именно, значение x1. Значит, F(x) = P{X = x1} = p1. При x2 < x ≤ x3 слева от x F(x + ∆x) F(x) находится уже два возможных значения, поэтому F(x) = P{X = x1} + P{X = x2} = p1 + p2. Рассуждая аналоx гично, приходим к выводу, что если xk < x ≤ x x + ∆x ≤ xk + 1, то F(x) = p1 + p2 + … + pk, 1 ≤ k < n. Наконец, есРис. 2.3. Функции распределения ли x > xn, то F(x) = 1, так как функция будет равна непрерывной случайной величины сумме вероятностей всех возможных значений, которая, по условию нормировки, равна единице. Таким образом, график функции распределения дискретной случайной величины является ступенчатым (рис. 2.2). Возможные значения непрерывной величины располагаются плотно на интервале задания этой величины, что обеспечивает плавное возрастание функции распределения F(x), т.е. её непрерывность (рис. 2.3). Рассмотрим вероятность попадания случайной величины в интервал [x, x + ∆x), ∆x > 0: P{x ≤ X < x + ∆x} = F(x + ∆x) – F(x). Перейдём к пределу при ∆x → 0: lim P{ x ≤ X < x + ∆x} = lim [ F( x + ∆x ) − F( x )] = lim F( x + ∆x ) − F( x ) . ∆x →0 ∆x →0 ∆x → 0 Предел равен вероятности того, что случайная величина примет значение, равное x. Если функция F(x) непрерывна в точке x, то lim F( x + ∆x ) = F( x ) , т.е. P{X = x} = 0. Если ∆x →0 F(x) имеет разрыв в точке x, то вероятность P{X = x} будет равна скачку функции в этой точке. Таким образом, вероятность появления любого возможного значения для непрерывной величины равна нулю. Выражение P{X = x} = 0 следует понимать как предел вероятности попадания случайной величины в бесконечно малую окрестность точки x при неограниченном уменьшении этой окрестности. Вероятности P{α < X < β}, P{α ≤ X < β}, P{α < X ≤ β} и P{α ≤ X ≤ β} равны, если X – непрерывная случайная величина. Для дискретных величин эти вероятности не одинаковы в том случае, когда границы интервала α и (или) β совпадают с возможными значениями случайной величины. Для дискретной случайной величины необходимо строго учитывать тип неравенства в формуле (2.2). Пример 2.2. Задана функция распределения вероятностей случайной величины X: 0, если x ≤ 0,  F ( x) = α ⋅ sin x, если 0 < x ≤ π / 2 , 1, если x > π / 2. Определить постоянную α и вероятность того, что случайная величина примет значение, лежащее в интервале (π/6, π/3). Построить график функции распределения вероятностей. Так как F(x) = 0 при x ≤ 0 и F(x) = 1 при x > π/2, то возможных значений нет левее точки x = 0 и правее точки x = π/2. Функция распределения вероятностей непрерывной случайной величины является непрерывной функцией, поэтому F(π/2) = 1. Или α⋅sin(π/2) = 1, отсюда получаем α = 1. 30 Случайные величины 1 F(x) x Чтобы вычислить искомую вероятность, воспользуемся свойством 3 функции распределения вероятностей: π π π π π π 3 1 P{ < x < } = F( ) − F( ) = sin( ) − sin( )= − ≈ 0 ,366 . 2 2 6 3 3 6 3 6 График функции распределения представлен на рис. 2.4. π/2 Рис. 2.4. Иллюстрация к примеру 2.2 2.3. Плотность распределения вероятностей и её свойства Из формулы (2.2) следует, что вероятность попадания случайной величины в заданный интервал определяется скоростью изменения функции распределения вероятностей на этом интервале. Скорость изменения непрерывной функции равна её производной. Это позволяет ввести новую функцию для задания случайной величины. Рассмотрим снова вероятность попадания случайной величины в интервал [x, x + ∆x): P{x ≤ X < x + ∆x } = F(x + ∆x) – F(x). Пусть X – непрерывная случайная величина. Тогда для малых значений ∆x эта вероятность будет также достаточно малой. Поделим её на ∆x и перейдём к пределу при ∆x→0: F ( x + ∆x ) − F ( x ) P{ x ≤ X < x + ∆x} . lim = lim ∆x →0 ∆x →0 ∆x ∆x Если этот предел существует, то он равен производной от функции распределения F(x): F ( x + ∆x ) − F ( x ) lim = F ′( x ) = f ( x ) . (2.3) ∆x →0 ∆x Функция f(x) называется плотностью распределения вероятностей случайной величины X. Из определения следует, что при малых значениях ∆x справедливо равенство: P{x ≤ X < x + ∆x } ≈ f(x) ⋅ ∆x. (2.4) Рассмотрим свойства плотности распределения f(x). 1. Всегда f(x) ≥ 0, так как функция F(x) является неубывающей функцией. 2. Для функции распределения F(x) справедливо равенство: x F ( x) = ∫ f (t )dt . (2.5) −∞ Действительно, так как по определению f(x) = F′(x), то F(x) является первообразной функцией по отношению к плотности распределения f(x). Следовательно, x ∫ f (t )dt = F (t ) −∞ x −∞ = F ( x) − F (−∞) = F ( x) − 0 = F ( x) . 3. Вероятность попадания случайной величины в заданный интервал [α, β) равна: β P{α ≤ X < β } = ∫ f (t )dt . (2.6) α 31 Теория вероятностей и математическая статистика Действительно, в соответствии с формулой Ньютона – Лейбница этот определённый интеграл равен F(β) – F(α). По свойству 3 функции распределения вероятностей эта разность и представляет собой вероятность P{α ≤ X < β}. 4. Интеграл от плотности распределения вероятности по всей области задания случайной величины равен единице: ∞ ∫ f (t )dt = 1 . (2.7) −∞ Равенство (2.7) представляет условие нормировки вероятностей для непрерывных случайных величин. По смыслу интеграл в (2.7) есть не что иное, как F(∞), а по свойству 2 функции распределения вероятностей F(∞) = 1. Если областью задания случайной велиb ∫ f (t )dt = 1 . Условие нормировки вероятностей часто ис- чины является отрезок [a; b], то a пользуется для определения неизвестного параметра закона распределения. Для иллюстрации геометрического смысла перечисленных свойств приведём пример графика плотности распределения вероятностей. Для большей наглядности на рис. 2.5 представлен также график соответствующей функции распределения вероятностей. 1 F(x) f(x) x α a x a β Рис. 2.5. Функция и плотность распределения вероятностей непрерывной случайной величины Вся кривая плотности распределения вероятностей располагается выше оси OX (свойство 1), причём максимум плотности достигается в точке x = a, в которой функция распределения вероятностей имеет наибольшую крутизну. Вероятность попадания случайной величины в интервал [α; β) численно равна площади криволинейной трапеции, построенной на этом интервале как на основании и ограниченной сверху графиком плотности распределения (заштрихованная область на рис 2.5). Площадь всей криволинейной трапеции, заключённой между осью OX и графиком плотности распределения, всегда равна единице. Любая функция, удовлетворяющая перечисленным выше свойствам, может быть плотностью распределения некоторой непрерывной случайной величины. Пример 2.3. Задана плотность распределения вероятностей случайной величины X: 0, если x ≤ 0 f ( x) =  −2 x m ⋅ e , если x > 0. Определить m. Найти вероятность попадания случайной величины в интервал [1; 2). Для определения неизвестного параметра m воспользуемся условием нормировки: ∞ ∫ f ( x)dx = 1 −∞ ∞ или ∫m⋅e −3 x m dx = − ⋅ e −3 x 3 ∞ =− m m (0 − 1) = = 1 . 3 3 При интегрировании было учтено, что f(x) = 0, если x∈(–∞; 0). Из полученного равенства находим, что m = 3 и, следовательно, f(x) = 3 ⋅ e–3x, если x > 0, и f(x) = 0, если x ≤ 0. 32 Случайные величины Вероятность попадания случайной величины в интервал [1; 2) можно вычислить, опираясь на свойство 3 плотности распределения: 2 2 1 1 P{1 ≤ X < 2} = ∫ f ( x)dx = 3∫ e − 3 x dx = 3 ⋅ 1 −3 x 2 ⋅e = −(e − 6 − e − 3 ) ≈ 0,047 1 −3 Пример 2.4. Задана плотность распределения случайной величины X: f(x) = 4x ⋅ e–2x, если x > 0 и f(x) = 0, если x ≤ 0. Определить функцию распределения вероятностей F(x). Если x ≤ 0, то F(x) = 0, так как f(x) = 0 при x ≤ 0. Пусть теперь x ∈ (0; ∞). Тогда x F ( x) = ∫ −∞ f (t )dt = x x −∞ −∞ ∫ f (t )dt + ∫ f (t )dt = ∫ 0 ⋅ dt + 4∫ t ⋅ e − 2t dt . Проводя интегрирование по частям, получим: F ( x) = 1 − (1 + 2 x) ⋅ e −2 x . Заметим, что 0, если x ≤ 0, −2 x 1 − (1 + 2 x) ⋅ e , если x > 0. F(x)→1 при x→∞. Полная запись ответа: F ( x) =  2.4. Функция случайной величины. Математическое ожидание Пусть X – дискретная случайная величина, имеющая n возможных значений x 1 , x 2 , …, x n , вероятности которых равны соответственно p 1 , p 2 , …, p n . Рассмотрим некоторую функцию y = ϕ(x). Возможным значениям x 1 , x 2 , …, x n случайной величины X будут соответствовать значения y 1 , y 2 , …, y n , причём вероятностями этих значений будут также p 1 , p 2 , …, p n . Значения y 1 , y 2 , …, y n – это возможные значения случайной величины Y, являющейся функцией случайной величины X: Y = ϕ(X). Сделаем N измерений случайной величины X, вычислим соответствующие значения функции ϕ(X) и найдём её среднее арифметическое значение на основе полученных данных. Пусть N > n. Тогда в последовательности измерений величины X каждое из её возможных значений встретится многократно. Предположим, что значение x1 повторяется N1 раз, x2 – N2 раза, …, xn – Nn раз, причём N1 + N2 + … + Nn = N. Тогда среднее арифметическое значение mϕ∗ функции ϕ(X) определяется следующей суммой: n m ϕ∗ = ∑ ϕ( x i ) ⋅ i =1 n Ni = ∑ ϕ( x i ) ⋅ p i* . N i =1 Будем увеличивать число измерений случайной величины X. При N→∞ частота * pi = N i / N появлений значения xi среди измерений будет в некотором смысле приближаться к истинной вероятности pi этого значения. При N→∞ величина mϕ* будет приближаться к величине mϕ, определяемой следующей формулой: m ϕ = n ∑ ϕ( x ) ⋅ p . Эта велиi =1 i i чина называется математическим ожиданием функции Y = ϕ(X). Пусть теперь X является непрерывной случайной величиной с плотностью распределения вероятностей f(x). Будем считать, что эта величина определена на отрезке [a; b], т. е. f(x) ≠ 0 при x ∈ [a; b] и f(x) = 0 при x ∉ [a; b]. Разделим отрезок [a; b] на n элементарных частей точками x0 = а, x1, x2, …, xn = b так, что x0 < x1 < x2 < … < xn. В каждом частичном интервале выберем произвольно точку zk: xk–1 < zk < xk. Вероятность pk попадания случайxk ной величины в k-й частичный интервал будет равна p k = ∫ f(x)dx ≈ f(z k ) ⋅ ∆x k , где x k −1 33 Теория вероятностей и математическая статистика ∆xk = xk – xk–1, причём точность приближения последнего равенства будет тем выше, чем меньше ∆xk. Будем рассматривать новую дискретную случайную величину Z, полагая, что эта величина принимает значение zk, если только X попадает в k-й частичный интервал. Тогда Z будет иметь n возможных значений z1, z2, …, zn с соответствующими вероятностями p1, p2, …, pn. Следовательно, можно вычислить математическое ожидание функции ϕ(Z): n n k =1 k =1 mϕ = ∑ ϕ ( z k ) ⋅ p k ≈ ∑ ϕ ( z k ) ⋅ f ( z k ) ⋅ ∆x k . Получилась интегральная сумма, которая стремится к определённому интегралу при стремлении к нулю всех ∆xk (при этом n→∞, а zk стремится к текущему значению x): b m ϕ = ∫ ϕ( x) f ( x)dx . a Формула будет более общей, если интегрировать в пределах от –∞ до ∞, так как интегрирование на участках числовой оси, где f(x) = 0, не изменяет значения интеграла. Математическим ожиданием функции ϕ(X) случайной величины X называется величина mϕ, которая имеет символическое обозначение M{ϕ(X)} и определяется по формулам: n ∑ ϕ( xi ) pi , для дискретных сл. вел.,  mϕ = M {ϕ( X )} =  i∞=1  ϕ( x) f ( x)dx, для непрерывных сл. вел., −∫∞ (2.8) где xi (i = 1, 2, ..., n) – возможные значения дискретной случайной величины; pi – вероятности этих значений; n – общее число возможных значений; f(x) – плотность распределения вероятностей непрерывной случайной величины. Пример 2.5. Случайная величина X задана таблично: xi pi 0,05 1 0,1 2 0,2 3 0,3 4 0,2 5 0,15 Вычислить математическое ожидание функции Y = X2. Применим формулу (2.8) для дискретной случайной величины (n = 6): 6 M { X 2 } = ∑ xi2 ⋅ pi = 0 2 ⋅ 0,05 + 0 2 ⋅ 0,05 + 12 ⋅ 0,1 + 2 2 ⋅ 0,2 + 3 2 ⋅ 0,3 + 4 2 ⋅ 0,2 + 5 2 ⋅ 0,15 = 8,65 i =1 Пример 2.6. Задана плотность распределения вероятностей случайной величины X: f(x) = λe–λx, λ > 0, x ≥ 0, для x < 0 плотность f(x) = 0. Найти математическое ожидание функции ϕ(Χ) = Χk, где k – целое число (k ≥ 0). Опираясь на полученный результат, вычислить M{X2} – [M{X}]2. Воспользуемся формулой (2.8) для непрерывной случайной величины: M {ϕ( X )} = ∞ ∞ −∞ k − λx ∫ ϕ( x) f ( x)dx = ∫ x ⋅ λe dx = t = λx, dt = λdx = ∞ k! 1 ⋅ t k e −t dt = k . k ∫ λ 0 λ Последний интеграл вычислен интегрированием по частям k раз. Таким образом, 2 2!  1!  1 M { X } − [ M { X }] = 2 −   = 2 . λ λ  λ 2 34 2 Случайные величины Рассмотренный закон распределения вероятностей случайной величины называется показательным (или экспоненциальным) законом. Полученный здесь результат M {X k } = k! λk (2.9) будет использован в дальнейшем изложении материала. Из формул (2.8) следует, что математическое ожидание функции не всегда существует. Если интеграл в (2.8) оказывается несобственным интегралом, то он может сходиться или не сходиться. Аналогично, в дискретном случае, когда множество возможных значений случайной величины является неограниченным (n = ∞), математическое ожидание функции будет представлять собой числовой ряд, который также может сходиться или расходиться. Математическое ожидание функции существует, если соответствующий числовой ряд (для дискретной величины) или соответствующий интеграл (для непрерывной величины) сходятся абсолютно. Если нет абсолютной сходимости, то говорят, что математическое ожидание функции не существует. 2.5. Числовые характеристики случайных величин Числовые характеристики случайных величин можно условно разделить на основные и вспомогательные. К основным характеристикам относятся характеристики положения случайной величины и характеристики рассеяния. Характеристики положения указывают некоторую точку на числовой оси, вокруг которой группируются возможные значения случайной величины. К ним относятся математическое ожидание, мода и медиана случайной величины. Характеристики рассеяния являются некоторой мерой разброса возможных значений случайной величины около своего центра рассеяния, например, математического ожидания. Характеристиками рассеяния являются дисперсия и вероятное отклонение случайной величины. К этим характеристикам можно отнести и среднее квадратическое отклонение случайной величины, хотя эта характеристика однозначно определяется дисперсией. Дополнительные характеристики применяются для дальнейшего уточнения свойств случайной величины. К ним, прежде всего, относятся асимметрия (или скошенность) и эксцесс (или островершинность) закона распределения случайной величины. К дополнительным характеристикам относится и коэффициент вариации случайной величины, который характеризует относительный разброс возможных значений случайной величины. Математическое ожидание случайной величины является основной характеристикой положения случайной величины на числовой оси. Если в формуле для математического ожидания функции от случайной величины положить ϕ(X) = X, то получим математическое ожидание mx самой случайной величины:  n  xi pi , для дискретной сл. величины,  i =1 mx = M{X} =  ∞ (2.10)  xf(x)dx, для непрерывной сл. величины.  − ∞ Математическое ожидание mx указывает точку на числовой оси, вокруг которой группируются возможные значения случайной величины. В определённом смысле эта точка является центром распределения вероятностей случайной величины. Заметим, что математическое ожидание случайной величины может не существовать. Отметим простейшие свойства математического ожидания. ∑ ∫ 35 Теория вероятностей и математическая статистика 1. Математическое ожидание постоянной величины C равно этой постоянной величине, т.е. M{C} = C. Постоянную величину можно считать частным случаем дискретной величины с одним возможным значением, вероятность которого равна единице. 1. Постоянный множитель можно выносить за знак математического ожидания, т.е. M{C⋅X} = C⋅M{X}, где C – постоянный множитель. Это следует из того, что в (2.10) постоянный множитель можно выносить как за знак суммы, так и за знак интеграла. 2. Математическое ожидание суммы случайных величин равно сумме математических ожиданий этих случайных величин, т.е. M{X + Y} = M{X} + M{Y}. Это свойство обобщается на любое конечное число случайных величин. Далее свойства математического ожидания будут рассмотрены более подробно. Пример 2.7. Найти математическое ожидание дискретной случайной величины, заданной таблично: 0,5 1,5 2 3 3,5 4 xk pk 0,1 0,2 0,3 0,2 0,1 0,1 По формуле (2.10) для дискретных случайных величин получаем: mx = 0,5 ⋅ 0,1 + 1,5 ⋅ 0,2 + 2 ⋅ 0,3 + 3 ⋅ 0,2 + 3,5 ⋅ 0,1 + 4 ⋅ 0,1 = 2,3. Полученное значение математического ожидания mx = 2,3 не совпадает ни с одним из возможных значений случайной величины. Сама величина может принимать только свои возможные значения, но при многократных измерениях величины среднее арифметическое измеренных значений будет неограниченно приближаться к значению 2,3 при неограниченном увеличении числа измерений. Пример 2.8. Задана плотность распределения вероятностей случайной величины X: x  , если 0 ≤ x ≤ 2, f ( x) =  2 0, если x < 0 или x > 2. Требуется найти математическое ожидание этой случайной величины. Воспользуемся формулой (2.10) для непрерывной случайной величины: ∞ 2 2 x x3 8 4 m x = M { X } = ∫ xf ( x)dx = ∫ x ⋅ dx = = = ≈ 1,33 . 2 2⋅3 0 2⋅3 3 −∞ Если математическое ожидание случайной величины не существует, то в качестве характеристики положения случайной величины применяют моду или медиану. Модой случайной величины X называется такое значение x, при котором плотность распределения вероятностей случайной величины f(x) принимает максимальное значение. Из определения следует, что мода определяется только для непрерывных случайных величин. Аналогом моды для дискретной случайной величины является её наивероятнейшее значение. Мода обозначается через Modx. Для нахождения моды нужно исследовать плотность распределения вероятностей на максимум. Для этого нужно найти стационарные точки, как корни уравнения f ′(x) = 0, затем применить к найденным точкам один из достаточных признаков максимума. Если максимумов вообще нет, то говорят, что моды не существует. Если максимум один, то закон распределения называют одномодальным, если максимумов несколько, то – многомодальным. На рис. 2.6. представлены примеры графиков одномодального и двухмодального законов распределения. 36 Случайные величины Пример 2.9. Задана плотность распределения вероятностей случайной величины X: λ2 x ⋅ e − λx , λ > 0, если x ≥ 0, f ( x) =  0, если x < 0. Требуется найти моду этой случайной величины. Найдём производную от плотности распределения: f ′(x) = λ2(e–λx – λxe–λx) = λ2e–λx(1 – λx). Уравнение f ′(x) = 0 имеет один корень: 1 – λx = 0 или x = 1/λ. Таким образом, Modx = 1/λ. f(x) f(x) x x Рис. 2.6. Примеры одномодального и двухмодального законов распределения вероятностей Медианой случайной величины X называется такое значение x, которое разбивает всю область возможных значений случайной величины на две равновероятные части, т. е. P{X < x} = P{X ≥ x} = 0,5. Из определения следует, что медиана, как и мода, точно может быть определена только для непрерывных случайных величин. Медиана обычно обозначается через Mеdx. По определению, медиана находится как решение уравнения F(x) = 0,5. Очевидно, что для дискретных величин это уравнение либо не имеет решения, либо имеет бесчисленное множество решений в силу ступенчатого характера функции распределения вероятностей. В некоторых задачах медиана используется и для дискретных величин. За медиану принимается некоторое значение x, достаточно близкое к решению указанного уравнения. В случае симметричных распределений медиана совпадает с математическим ожиданием случайной величины. Если, к тому же, распределение является одномодальным, то совпадают все три характеристики – математическое ожидание, мода и медиана. Пример 2.10. Задана функция распределения вероятностей случайной величины X: F ( x) = 1 − exp{− x2 } , если x > 0 и F(x) = 0, если x ≤ 0 (распределение Релея). 2σ2 Найти медиану случайной величины. Медиану находим как решение уравнения F(x) = 0,5: F ( x) = 1 − exp{− x2 } = 0,5 2σ 2 или Прологарифмируем последнее равенство: − exp{− x2 } = 0,5. 2σ 2 x2 1 = ln = − ln 2 или x = ± 2 ln 2 ⋅ σ. 2 2 2σ Отрицательной медиана быть не может, так как величина X определена на положительной полуоси. Следовательно, Medx = 2 ln 2 ⋅ σ . Для сравнения приводим здесь другие характеристики положения для данного распределения: Mod x = σ, mx = σ π / 2 . Дисперсия Dx, или D{X}, случайной величины X является основной мерой рассеяния возможных значений случайной величины вокруг математического ожидания. Дис37 Теория вероятностей и математическая статистика персия определяется как математическое ожидание квадрата отклонения случайной величины от своего математического ожидания. В соответствии с этим определением, D x = D{X} = M{(X – mx ) 2 }. (2.11) Применяя формулу, определяющую математическое ожидание произвольной функции от случайной величины, получим: n 2 ∑ ( x i − m x ) p i ,  i =1 D x = M {( X − m x ) 2 } =  ∞  ( x − m ) 2 f ( x)dx. x −∫∞ (2.12) В (2.12) первая строка соответствует дискретной случайной величине, вторая – непрерывной. Для существования дисперсии необходима сходимость числового ряда (если n = ∞) в (2.12) для дискретной величины, или сходимость интеграла в (2.12) для непрерывной величины. Дисперсия обладает следующими свойствами: 1. Дисперсия постоянной величины равна нулю, т.е. D{C} = 0, если C = const. Постоянная величина не имеет рассеяния, так как обладает единственным возможным значением. 2. Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат, т.е. D{C⋅X} = C 2 ⋅D{X}, где C – постоянный множитель. Действительно, D[CX } = M {(CX − M {CX }) 2 } = M {(CX − C ⋅ m x ) 2 } = = M {C 2 ⋅ ( X − m x ) 2 } = C 2 ⋅ M {( X − m x ) 2 } = C 2 ⋅ D{ X }. 3. Для любой постоянной величины C справедливо следующее соотношение: D{X} = M{(X - C)2} – (C – mx)2. Это равенство легко доказывается непосредственным применением свойств математического ожидания. Из этого следует, что для любого C выполняется неравенство: D{X} ≤ M{(X – C)2}, т. е. рассеяние случайной величины около произвольной точки C числовой оси всегда не меньше, чем дисперсия. Равенство достигается тогда, когда C = mx. Это свойство часто используется для упрощения вычислений при нахождении дисперсии. Дисперсия не всегда является удобной мерой рассеяния случайной величины. Если, например, случайная величина X измеряется в метрах, то дисперсия Dx будет измеряться в квадратных метрах. Это обстоятельство вносит определённые неудобства. Поэтому часто применяют среднее квадратическое отклонение σx: σ x = D x или D x = σ 2x . (2.13) Иногда вместо термина «среднее квадратическое отклонение» применяют термин «стандартное отклонение». Дисперсию можно вычислить иным способом. Раскрывая (2.11), получим: Dx = = M{(X – mx ) 2 } = M{X 2 – 2Xm x + mx 2 } = M{X 2 } – 2m x M{X} + m x 2 . Поскольку M{X} = m x , то D x = M{X 2 } – m x 2 . (2.14) Пример 2.11. Найти математическое ожидание, дисперсию и среднее квадратическое отклонение случайной величины X, заданной таблично: 38 xk –1 1 2 2,5 3 pk 0,1 0,1 0,2 0,3 0,2 0,1 Случайные величины Сначала найдём математическое ожидание: mx = –1 ⋅ 0,1 + 0 ⋅ 0,1 + 1 ⋅ 0,2 + 2⋅0,3 + + 2,5 ⋅ 0,2 + 3⋅0,1 = 1,5. Дисперсию вычислим непосредственно по формуле (2.12): 6 D x = ∑ ( x k − m x ) 2 p k = (−1 − 1,5) 2 ⋅ 0,1 + (0 − 1,5) 2 ⋅ 0,1 + (1 − 1,5) 2 ⋅ 0,2 + (2 − 1,5) 2 ⋅ 0,3 + k =1 + (2,5 − 1,5) 2 ⋅ 0,2 + (3 − 1,5) 2 ⋅ 0,1 = 1,4. Таким образом, математическое ожидание mx = 1,5, дисперсия Dx = 1,4, следовательно, σ x = D x = 1,4 = 1,183. Пример 2.12. Задана плотность распределения вероятностей случайной величины X:  1 sin( x), если 0 ≤ x ≤ π , f ( x) =  2 0, если x < 0 или x > π . Определить дисперсию этой случайной величины. Воспользуемся формулой (2.14). Вычислим математическое ожидание: mx = ∞ ∫ x ⋅ f ( x)dx = −∞ π 1 1 π U = x dU = dx x ⋅ sin( x)dx = = [− x ⋅ cos( x) 0 + ∫ dV = sin( x)dx V = − cos( x) 2 20 π = ∫ cos( x)dx] = Найдём теперь M{X 2 }: M { X 2 } = по частям, получим: M { X 2 } = π 1 π π + sin( x) 0 = . 2 2 2 ∞ 2 ∫ x f ( x)dx = −∞ [ π 1 2 x sin( x)dx . Интегрируя дважды 2 ∫0 ] 1 1 − x 2 cos( x) + 2 x ⋅ sin( x) + 2 cos( x) = (π 2 − 4) . Таким 2 2 образом, 2 1 π2 π D x = M { X } − m = (π 2 − 4) −   = −2. 2 4 2 2 2 x В качестве меры относительного отклонения случайной величины от своего математического ожидания применяется коэффициент вариации. Коэффициентом вариации Kv случайной величины называется отношение среднего квадратического отклонения этой величины к её математическому ожиданию, т.е. Kv = σx . mx (2.15) Коэффициент вариации широко применяется в теории надёжности. Пусть, например, случайная величина T представляет собой время безотказной работы некоторой технической системы. Тогда, чем меньше коэффициент вариации этой величины, тем выше качество данной системы. Таким образом, для повышения качества системы нужно повышать среднее время безотказной работы и понижать среднее квадратическое отклонение времени безотказной работы от своего среднего значения. Заметим, что не для всех законов распределения коэффициент вариации можно изменять как угодно. Например, для экспоненциального закона распределения коэффициент вариации всегда равен единице, а для некоторых распределений он может изменяться только ступенчатым образом. 39 Теория вероятностей и математическая статистика 2.6. Квантили, квартили и вероятное отклонение Квантилью порядка p случайной величины X называют такое число xp, для которого выполняется следующее равенство: (2.16) P{X < x p } = p или F(x p ) = p. Квантили удобны для сравнения различных законов распределения вероятностей. В некоторых случаях пользуются децилями: x0,1, x0,2, x0,3, …, x0,9. Однако наибольшее распространение получили квартили. Квартилями называют квантили порядков 0,25, 0,5 и 0,75. Будем их обозначать соответственно как k1, k2, k3. Квартили k1 и k3 называют обычно нижней и верхней квартилями. Вторая квартиль k2 совпадает, очевидно, с рассмотренной ранее медианой распределения. На рис. 2.7 показаны квартили на числовой оси. С помощью квантилей удобно сравнивать распределения по величине рассеяния возможных значений случайных велиF(x) чин. В частности, если дисперсия слу1 чайной величины не существует, то в 0,75 качестве меры рассеяния можно приме0,50 нить величину E = 0,5(k3 – k1), которую 0,25 называют вероятным отклонением или x срединным отклонением. Для симметрич0 ных распределений вероятное отклонеk1 k2 k3 ние можно определить из следующего Рис. 2.7. Иллюстрация к понятию квартилей уравнения: P{ X − m x ≤ E} = 0,5. Чем больше известно квантилей, тем более полное представление можно составить о характере закона распределения случайной величины. Однако, описание случайных величин с помощью квантилей применимо лишь к непрерывным случайным величинам. Для дискретных случайных величин функция распределения вероятностей имеет ступенчатый характер. Поэтому уравнение (2.16) будет иметь решения только для некоторых значений p. Пример 2.13. Дана функция распределения вероятностей случайной величины X (распределение Релея): F ( x) = 1 − exp{− x2 } , x ≥ 0. 2σ2 Определить квартили и вероятное отклонение этой случайной величины. Квантили любого порядка p определяются уравнением (2.16), 2 т.е. 2 x x } = p или exp{− 2 } = 1 − p. Разрешая это уравнение относительно 2 2σ 2σ x, получим квантиль порядка p: x p = 2 ⋅ σ − ln(1 − p ) . Второй корень уравнения не поF ( x) = 1 − exp{− падает в область определения случайной величины. Отметим также, что подкоренное выражение в полученной формуле не может быть отрицательным, так как 1 – p ≤ 1 и, следовательно, всегда ln(1 – p) ≤ 0. Подставляя в полученную формулу p = 0, 25, 0, 5 и 0, 75 и проводя преобразования, получим три квартили: k1 = σ ⋅ 2(ln 4 − ln 3) ≈ 0,76σ, k 2 = σ ⋅ 2 ln 2 ≈ 1,18σ, k 3 = 2σ ⋅ ln 2 ≈ 1,67σ. Следовательно, E = 0,5(k3 – k 1 ) = 0,455σ. 40 Случайные величины 2.7. Моменты случайных величин. Асимметрия и эксцесс Иногда знание математического ожидания и дисперсии оказывается недостаточным для характеристики случайной величины. В этом случае привлекают моменты случайной величины, частным случаем которых являются математическое ожидание и дисперсия. Начальным моментом νk порядка k случайной величины X называется математическое ожидание величины Xk: n k ∑ xi pi , если X дискретная сл. вел.,  k ν k = M { X } =  i∞=1  x k f ( x)dx, если X непрерывная сл. вел. −∫∞ (2.17) Здесь k = 0, 1, 2, 3, ... . Очевидно, что всегда ν0 = 1, а ν1 = mx. Центральным моментом µk порядка k случайной величины X называется математическое ожидание величины (X – ν1)k: n k ∑ ( x i − ν 1 ) p i ,  µ k = M {( X − ν 1 ) k } =  i∞=1  ( x − ν 1 ) k f ( x)dx, −∫∞ (2.18) Здесь первая строка соответствует дискретной случайной величине, вторая – непрерывной, k = 0, 1, 2, 3, … . Очевидно, что всегда µ0 = 1, µ1 = 0, µ2 = Dx. Таким образом, дисперсия случайной величины – это её центральный момент второго порядка. Применяя простейшие преобразования и пользуясь свойствами математического ожидания, получим формулы связи между начальными и центральными моментами: µ 2 = ν 2 − ν 12 ; µ 3 = ν 3 − 3ν 2 ν 1 + 2ν 13 ; µ 4 = ν 4 − 4ν 3 ν1 + 6ν 2 ν12 − 3ν 14 . (2.19) Рассмотрим, например, последовательность получения формулы для µ3: µ 3 = M {( X − ν 1 ) 3 } = M { X 3 − 3 ⋅ X 2 ν 1 + 3 ⋅ X ⋅ ν 12 − ν 13 } = M { X 3 } − − 3ν 1 ⋅ M { X 2 } + 3ν 12 ⋅ M { X } − ν 13 . Учитывая, что M{X} = ν1, приходим к формуле для µ3 в (2.18). Центральные моменты рекомендуется вычислять через начальные моменты, пользуясь формулами (2.19). Центральный момент третьего порядка µ3 характеризует асимметрию закона распределения вероятностей случайной величины. За меру асимметрии принимают величину Sk x = µ3 , σ 3x которую называют асимметрией (или скошенностью) распределения случайной величины. Очевидно, что асимметрия является безразмерной характеристикой. Если Skx = 0, то закон распределения вероятностей является симметричным. На рис. 2.8 приведены графики плотностей распределения вероятностей с отрицательной, нулевой и положительной асимметрией. (2.20) f(x) Sk >0 Sk =0 Sk <0 x Рис. 2.8. Законы распределения с разной величиной асимметрии 41 Теория вероятностей и математическая статистика Центральный момент четвёртого порядка µ4 характеризует островершинность закона распределения вероятностей случайной величины. За меру островершинности закона распределения принимается величина Exx, определяемая формулой Ex x = f(x) µ4 − 3. σ 4x (2.21) Эта величина называется эксцессом закона распределения. На рис. 2.9 приведены графики плотностей распределения вероятностей с разными эксцессами. В (2.21) деление на σ 4x делается для того, чтобы Ex >0 Ex =0 Ex <0 x Рис. 2.9. Законы распределения с разной величиной эксцесса эксцесс был безразмерной характеристикой. Число 3 вычитается с той целью, чтобы эксцесс нормального распределения, используемого в качестве эталонного, был равен нулю. Плотность нормального распределения вероятностей имеет вид: (x − mx ) 2 f ( x) = ⋅ exp{− }, − ∞ < x < ∞. 2σ 2x 2 πσ x 1 (2.22) Математическое ожидание и дисперсия соответственно равны константам mx и σ , а отношение µ4/ σ x4 равно 3. Следовательно, Exx = 0. Таким образом, если Exx < 0, то 2 x вершина распределения менее острая, чем у нормального распределения, если Exx > 0, то, напротив, вершина более острая. Пример 2.14. Определить скошенность и эксцесс для экспоненциального закона распределения: f ( x) = λ ⋅ e − λx , λ > 0, x > 0. Согласно (2.9), ν k = M { X k } = µ 2 = ν 2 − ν 12 = 2 k! λk , k = 1, 2, 3, ... . Найдём центральные моменты: 3 1 6 2 1 2 1 1 −   = 2 ; µ 3 = ν 3 − 3ν 2ν 1 + 2ν 13 = 3 − 3 ⋅ 2 ⋅ + 2 ⋅   = 3 ; 2 λ λ λ λ λ λ λ λ  2 2 4 6 1 2 1 9 1 µ 4 = ν 4 − 4ν 3ν 1 + 6ν ν − 3ν = 4 − 4 ⋅ 3 ⋅ + 6 ⋅ 2 ⋅   − 3 ⋅   = 4 . λ λ λ λ λ  λ λ  2 2 1 4 1 24 Таким образом, для экспоненциального закона mx = 1/λ, σx2 = 1/λ2. Следовательно, Sk x = µ3 σ 3 x = 2 3 ⋅ λ = 2, λ3 Ex x = µ4 σ 4 x −3 = 9 4 ⋅ λ − 3 = 6. λ4 Заметим, что скошенность и эксцесс не зависят в данном случае от параметра λ. Пример 2.15. Требуется найти все основные характеристики случайной величины X (математическое ожидание, дисперсию, скошенность и эксцесс), заданной таблично: xk pk 1 0,1 2 0,2 3 0,35 4 0,15 5 0,1 6 0,05 7 0,05 Перемножая возможные значения случайной величины на соответствующие вероятности и складывая все произведения, получим математическое ожидание: mx = 3,3. Воспользуемся формулой (2.18). Все данные для этого представлены в следующей таблице: 42 Случайные величины xk pk xk − mx (xk − mx)pk (xk − mx)2 pk (xk − mx)3 pk (xk − mx)4 pk 1 0,1 –2,3 –0,23 0,529 –1,217 2,798 2 0,2 –1,3 –0,26 0,338 –0,439 0,571 3 0,35 –0,3 –0,105 0,032 –0,01 0,003 4 0,15 0,7 0,105 0,074 0,051 0,036 5 0,1 1,7 0,17 0,289 0,491 0,835 6 0,05 2,7 0,135 0,365 0,984 2,657 7 0,05 3,7 0,185 0,685 2,533 9,371 Σ 1 –– 2,312 2,393 16,271 В последнем столбце таблицы представлены центральные моменты: µ1 = 0, µ2 = = 2,312, µ3 = 2,393, µ4 = 16,271. Таким образом, дисперсия Dx = 2,312, среднее квадратическое отклонение σx = 1,521. Следовательно, Sk x = µ 3 2.393 µ 16.271 = ≈ 0,68, Ex x = 44 − 3 = − 3 ≈ 0,044. 3 3 σ x 1,521 σx 1,5214 2.8. Производящие функции Все моменты случайной величины можно “запомнить” с помощью производящей функции. Производящей функцией начальных моментов случайной величины X называют математическое ожидание функции exp{uX}, где u – некоторая вспомогательная переменная: ∞ ∑ exp{u ⋅ x k } p k ,  ϕ ν (u ) = M {exp{uX }} =  k∞= 0  exp{ux} f ( x)dx. −∫∞ (2.23) Первая строка соответствует дискретной случайной величине, вторая – непрерывной. Чтобы понять смысл производящей функции, рассмотрим разложение экспоненты exp{uX} в ряд Маклорена: exp{ uX } = 1 + uX 2 ( uX ) + 2! 3 ( uX ) + 3! n ( uX ) + ... + Отсюда получаем: ϕ ν (u ) = M {exp{uX }} = 1 + ν 1u + n! + ... . ν ν2 2 ν3 3 u + u + ... + n u n + ... , n! 2! 3! т.е. коэффициентами разложения функции ϕν(u) в ряд Маклорена являются начальные моменты, поделённые на соответствующие факториалы. Эта формула также непосредственно вытекает из самого определения производящей функции (2.23). Производящей функцией центральных моментов случайной величины X называют математическое ожидание функции exp{u(X – mx)}: ∞ ∑ exp{u ⋅ ( x k − m x )} p k ,  ϕ µ (u ) = M {exp{ u ( X − m x )}} =  k∞= 0  exp{u ( x − m x )} f ( x ) dx.  −∫∞ (2.24) Коэффициентами разложения этой функции в ряд Маклорена являются центральные моменты, поделённые на соответствующие факториалы: ϕ µ (u ) = M {exp{u ( X − m x )}} = 1 + µ 1u + µ µ2 2 µ3 3 u + u + ... + n u n + ... . n! 2! 3! 43 Теория вероятностей и математическая статистика Таким образом, зная производящие функции, легко определить любой начальный и любой центральный момент по формулам d k ϕ ν (u ) νk = du k µk = , d k ϕ µ (u ) du k u =0 . (2.25) u =0 Вообще в математике производящей функцией последовательности a0, a1, …, an, … называют функцию ϕ(u) = a0 + a1u + a2u2 + … + anun + …, если только эта функция существует. Функция ϕν(u) является производящей функцией последовательности νn/n! (n = 0, 1, 2, …), а функция ϕµ(u) – производящей функцией последовательности µn/n! (n = 0, 1, 2, …). Возьмём в качестве последовательности вероятности p0, p1, …, pn… возможных значений x0, x1, …, xn, … дискретной случайной величины X. Тогда получим функцию ϕp(u) = p0 + p1u + p2u2 + … + pnun + …, (2.26) которая называется производящей функцией вероятностей случайной величины X. Очевидно, что ϕp(1) = 1 – условие нормировки вероятностей, а ϕp(0) = p0. Кроме того, зная ϕp(u) можно определить все вероятности pk (k = 0, 1, 2, …), т.е. полностью восстановить закон распределения вероятностей случайной величины: k 1 d ϕ p (u ) pk = k! du k , k = 1,2,3, ... . (2.27) u =0 Пример 2.16. Требуется найти производящую функцию начальных моментов случайной величины X, распределённой по закону Бернулли: P{ X = k} = p k = C nk p k q n −k , k = 0, 1, 2, ..., 0 ≤ p ≤ 1, q = 1 − p. Используя эту производящую функцию, определить математическое ожидание и дисперсию случайной величины X. Применим формулу (2.23) для дискретных величин: n n n k =0 k =0 k =0 ϕ ν (u ) = ∑ e uk p k = ∑ e uk C nk p k q n − k = ∑ C nk ( pe u ) k q n − k . Пользуясь формулой бинома Ньютона (a + b) n = n ∑C k =0 k n a k b n − k , получим: ϕ ν (u ) = ( pe + q) = ( pe + 1 − p) = (1 + p (e u − 1)) n . u n u n По формуле (2.25) определим первые два начальных момента: ν1 = ∂ϕ ν (u) = n(1 + p( e u − 1)) n −1 pe u ∂u u =0 u = [n( n − 1)(1 + p( e − 1)) n−2 2 2u p e u u=0 = np , ν 2 = + n(1 + p( e − 1)) n −1 ∂ 2 ϕ ν (u) u pe ] u=0 ∂u 2 = u =0 = n(n − 1)p 2 + np. Математическое ожидание mx совпадает с ν 1 , т.е. m x = np. Дисперсию D x вычислим через начальные моменты: D x = ν 2 – ν 1 2 = n(n – 1)p 2 + np – (np) 2 = np(1 – p) = npq. Пример 2.17. Задана производящая функция вероятностей случайной величины X, принимающей значения k = 1, 2, 3, …: 44 Случайные величины ϕ p (u ) = pu , q = 1 − p. 1 − qu Требуется восстановить закон распределения вероятностей случайной величины. Воспользуемся формулой (2.27): k 1 ∂ ϕ p (u ) P{ X = k} = p k = ⋅ k! ∂u k = u =0 1 k! pq k −1 ⋅ k! (1 − qu ) k = pq k −1 , u =0 где k = 1, 2, 3, … . Этот закон распределения вероятностей называется геометрическим законом, или распределением Фарри. 2.9. Примеры дискретных законов распределения Некоторые законы распределения вероятностей достаточно часто встречаются в практических задачах. Рассмотрим несколько таких законов. Равномерное распределение. Говорят, что случайная величина X распределена по равномерному закону, если она может принимать только целые неотрицательные значения от 1 до n, а вероятности всех возможных значений одинаковы. Таким образом, P{ X = k } = p k = 1 , k = 1, 2 , ..., n. n (2.28) Основные числовые характеристики: n+1 n2 − 1 ; дисперсия Dx = ; скошенность Skx = 0; математическое ожидание mx = 2 12 4 эксцесс Exx = − 1.2 + 2 . n −1 Биномиальное распределение (распределение Бернулли). Говорят, что случайная величина X распределена по биномиальному закону (или по закону Бернулли), если она может принимать только целые неотрицательные значения от 0 до n, а вероятности этих значений определяются формулой: P{ X = k} = Pn ( k ) = C nk p k q n− k , k = 0 , 1, 2 ,...n ; 0 ≤ p ≤ 1, q = 1 − p. (2.29) По смыслу случайная величина X является числом появления некоторого события в n независимых испытаниях, если вероятность появления этого события в каждом испытании постоянна p. Основные числовые характеристики: математическое ожидание mx = np; дисперсия Dx = npq; наивероятнейшее значение s, 1 − 6 pq 1− 2p ; эксцесс Exx = np-q≤s≤np+p; скошенность Skx = . npq npq Таким образом, скошенность распределения может быть и положительной и отрицательной. Распределение становится симметричным при p=0,5. Величина эксцесса всегда отрицательна и приближается к нулю при возрастании n. Отметим, что при n→∞ биномиальный закон распределения вероятностей неограниченно приближается к нормальному закону. Биномиальный закон распределения вероятностей применяется в теории стрельбы, в теории и практике статистического контроля качества продукции, в теории массового обслуживания, в теории надежности и т.д. Этот закон может применяться во всех случаях, когда имеет место последовательность независимых испытаний. 45 Теория вероятностей и математическая статистика Распределение Пуассона. Если число независимых испытаний n устремить к ∞, а вероятность p устремить к нулю так, чтобы np стремилось к некоторой постоянной λ, то биномиальное распределение будет неограниченно приближаться к распределению Пуассона. В общем случае говорят, что случайная величина X распределена по закону Пуассона, если она может принимать только целые неотрицательные значения, а вероятности этих значений определяются формулой: P{ X = k} = Pk = λk − λ e , k = 0 , 1, 2 ,...; λ ≥ 0. k! (2.30) Основные числовые характеристики: математическое ожидание mx = λ; дисперсия Dx = λ; наивероятнейшее значение s , λ-1≤s≤λ; 1 1 ; эксцесс Ex x = скошенность Skx = . λ λ Геометрическое распределение (Фарри). Этот закон распределения вероятностей также связан с последовательностью независимых испытаний. Пусть случайной величиной является число проведённых испытаний до первого осуществления наблюдаемого события. Например, число выстрелов до первого попадания в цель, число проверенных изделий до первого появления бракованного изделия и т.п. Очевидно, что возможными значениями такой случайной величины будут целые числа 1, 2, 3,…, причём эти значения не ограничены (теоретически) сверху. Если p есть вероятность данного события в одном испытании, а q=1-p, то (2.31) P{ X = k} = p k = pq k − 1 , k = 1, 2 , 3,... Эта формула и представляет геометрический закон распределения вероятностей. Заметим, что при любом значении p, не равном нулю или единице, наивероятнейшим значением является единица. C ростом k вероятности монотонно убывают. Основные числовые характеристики: математическое ожидание mx = 1/p; дисперсия Dx = q/p2. 2.10. Примеры непрерывных распределений Равномерное распределение. Говорят, что случайная величина X распределена равномерно в интервале [a, b], если её плотность распределения вероятностей определяется формулой:  1 f ( x ) =  b − a , если a ≤ x ≤ b , (2.32)  0 , если x < a или x > b. Соответствующая функция распределения вероятностей имеет следующий вид: 0 , если x < a , x − a F( x ) =  , если a ≤ x ≤ b , (2.33) a 1b, −если x > b.  Основные числовые характеристики: a+b математическое ожидание m x = ; 2 (b − a) 2 дисперсия D x = ; 12 скошенность Sk x = 0; эксцесс Ex x = -1.2; 46 Случайные величины коэффициент вариации K V = 1 b−a . ⋅ 3 a+b Графики плотности и функции распределения вероятностей приведены на рис. 2.10. F(x) f(x) a 1 b x a b x Рис. 2.10. Графики функции и плотности равномерного распределения вероятностей. Равномерно распределены ошибки округления при выполнении числовых расчётов, время ожидания автобуса, (трамвая и т.п.) при условии, что интервал движения постоянен и строго выполняется, а пассажир прибывает на остановку в случайный момент времени. Равномерно распределено и время ожидания начала обслуживания заявки, поступающей в случайный момент в систему массового обслуживания, если обслуживающее устройство включается через равные промежутки времени. При этом предполагается, что все заявки, поступившие к моменту включения обслуживающего устройства, немедленно принимаются к обслуживанию. Равномерно распределённые величины применяются для получения (генерации) реализаций случайных величин, имеющих другие законы распределения вероятностей. Равномерное распределение является самым простым из непрерывных законов распределения. Поэтому путём определённых операций достаточно легко получить последовательность чисел, которые можно приближённо считать реализациями случайной величины, распределённой равномерно в заданном интервале. Такие числа, а также их функциональные преобразования, называют псевдослучайными числами. Существует много алгоритмов получения равномерно распределённых псевдослучайных чисел. Все они работают так, что через некоторый период начинают повторяться те числа, которые уже встречались. В этом и заключается смысл псевдослучайности полученных чисел. С позиций теории вероятностей повторение одной и той же реализации непрерывной случайной величины является событием с нулевой вероятностью. Если же само это событие повторяется многократно, то это очевидный признак того, что имеет место отклонение от равномерного закона распределения. Заметим, что генератор псевдослучайных чисел тем лучше, чем больший период повторения он имеет. В то же время следует заметить, что при практическом использовании полученных чисел они всегда округляются. Следовательно, даже при самом лучшем генераторе псевдослучайных чисел отклонение от заданного закона распределения вероятностей неизбежно. В программном обеспечении современных ЭВМ имеется программа генерации равномерно распределённых псевдослучайных чисел с параметрами a=0 и b=1. Можно приближенно считать, что числа, полученные с помощью такой программы, являются реализациями случайной величины X, распределённой равномерно в интервале (0; 1) и имеющей математическое ожидание mx=0,5 и дисперсию Dx=1/12. 47 Теория вероятностей и математическая статистика Экспоненциальное (показательное) распределение. Говорят, что случайная величина X распределена по экспоненциальному закону, если её плотность распределения вероятностей определяется формулой: f ( x ) = λ ⋅ e − λx , x ≥ 0 , λ > 0. (2.34) Соответствующая функция распределения вероятностей имеет следующий вид: F( x ) = 1 − e − λx , x ≥ 0 , λ > 0. (2.35) Графики плотности и функции распределения вероятностей приведены на рис. 2.11. 0,02 f(x) 1 F(x) x 100 200 300 x 100 200 300 Рис. 2.11. Функция и плотность распределения вероятностей случайной величины, распределённой по экспоненциальному закону Основные числовые характеристики: 1 1 ; дисперсия Dx = 2 ; скошенность Skx = 2; эксцесс Exx = 6; математическое ожидание mx = λ λ коэффициент вариации KV = 1. Экспоненциальное распределение зависит от единственного параметра λ. Этим фактом определяются некоторые характерные свойства данного распределения. В частности, среднее квадратическое отклонение σx всегда совпадает с математическим ожиданием, т.е. всегда коэффициент вариации равен единице. Последовательность реализаций случайной величины, распределённой по экспоненциальному закону, легко получить экспериментально. Пусть T есть случайная величина, распределённая равномерно в интервале (0; 1), а t – одно из значений этой величины. Тогда число x, определяемое формулой x=− 1 ⋅ ln(1 − t ) , λ (2.36) будет одним из значений случайной величины X, распределённой по экспоненциальному закону с параметром λ. Если t получать с помощью генератора случайных чисел, то x будет реализацией псевдослучайной величины X, распределённой по этому закону. Заметим, что эта формула вытекает непосредственно из формулы (2.35), если предполагать, что сама функция F(x) является случайной величиной равномерно распределённой в интервале (0; 1). Экспоненциальное (или, иначе, показательное) распределение широко применяется в теории надёжности и в теории массового обслуживания. Оказывается, что случайное время безотказной работы многих технических систем обладает именно экспоненциальным распределением. Кроме того, время восстановления (ремонта) отказавшей технической системы часто также оказывается распределённым по этому закону. В связи с этими фактами экспоненциальное распределение получило относительно широкое применение. Экспоненциальное распределение имеет определённую связь с распределением Пуассона. Предположим, что мы наблюдаем некоторую последовательность событий, развивающуюся с течением времени. Если интервалы времени между моментами осуще48 Случайные величины ствления последовательных событий распределены по экспоненциальному закону c параметром λ, то число событий, осуществившихся на интервале времени (0; t), будет распределено по закону Пуассона с параметром λt. В связи с этим закон распределения Пуассона часто называют законом редких событий. Нормальное распределение. Говорят, что случайная величина X распределена по нормальному закону, если её плотность распределения вероятностей определяется следующей формулой: − 1 f (x) = ⋅e 2π ⋅ σ ( x − m )2 2 σ2 , − ∞ < x < 0. (2.37) Соответствующая функция распределения вероятностей имеет следующий вид: x − 1 F( x ) = e ∫ 2 π ⋅ σ −∞ ( x − m )2 2σ2 dx. (2.38) Графики плотности и функции распределения вероятностей приведены на рис. 2.12. На рисунке представлены графики двух нормальных законов распределения вероятностей с разными числовыми характеристиками. f(x) 0,2 0,5 0,1 x -5 F(x) 1 5 10 15 -5 5 10 15 x Рис. 2.12. Графики плотности и функции распределения вероятностей нормально распределённой случайной величины. Основные числовые характеристики: математическое ожидание mx = m; дисперсия Dx = σ2; скошенность Skx = 0; эксцесс Exx = 0; коэффициент вариации KV = σ/m. Отметим, что нормальное распределение симметрично относительно своего математического ожидания. В связи с этим, мода, медиана и математическое ожидание нормально распределенной случайной величины равны между собой. Нормальное распределение удобно использовать в качестве эталонного распределения при сравнении случайных величин. Однако для сравнения используется не произвольная нормально распределённая случайная величина, а величина с нулевым математическим ожиданием и единичной дисперсией: mx=0, Dx=1. Обозначим плотность и функцию распределения вероятностей такой величины соответственно через f0(x) и F0(x). Тогда 1 F0 ( x ) = 2π x ∫ −∞ e − t2 2 dt , − 1 f 0 (x) = ⋅e 2π x2 2 , − ∞ < x < ∞. (2.39) Делая замену переменной интегрирования в (2.38), легко получить связь между функциями F(x) и F0(x): F( x ) = F0 ( x−m ). σ (2.40) 49 Теория вероятностей и математическая статистика Таким образом, вероятность попадания нормально распределённой случайной величины в интервал [α;β) определяется формулой: P{α ≤ X < β} = F0 ( α−m β−m ) − F0 ( ). σ σ (2.41) Отметим, что преобразование случайной величины по формуле T=(X-m)/σ называют операцией центрирования (вычитание математического ожидания) и нормирования (деление на среднее квадратическое отклонение) случайной величины. Полученную таким образом случайную величину T называют центрированной (с нулевым математическим ожиданием) и нормированной (с единичной дисперсией). Очевидно, что центрирование и нормирование можно проводить раздельно. При решении задач, связанных с нормальным распределением, часто вместо функции распределения вероятностей F0(x) используется функция Лапласа Ф0(x): Ф0 (x ) = 1 2π x ∫e − t2 2 dt. Очевидно, что F 0 (x)=F 0 (0)+Ф 0 (x). Но F 0 (0)=0,5. Поэтому F0(x)=0.5+Ф0(x). (2.42) Таким образом, вероятность попадания нормально распределённой случайной величины в интервал [α;β) можно находить и по следующей формуле: P{α ≤ X < β} = Ф 0 ( α−m β−m ) − Ф0 ( ). σ σ (2.43) Выбор формул (2.41) или (2.43) зависит только от того, какие таблицы имеются в распоряжении. В справочной литературе (а также в учебниках, в сборниках задач и т.п.) можно найти таблицы значений как функции распределения вероятностей F0(x), так и функции Лапласа Ф0(x). Заметим, что функция Ф0(x) является нечётной функцией, т.е. Ф0(-x) = -Ф0(x), а f0(x) является чётной функцией, т.е. f0(-x) = f0(x). Поэтому обычно приводятся таблицы значений этих функций только для положительных значений аргументов. Нормально распределённые случайные величины встречаются очень часто в практических задачах. Это связано с тем, что нормально распределённая случайная величина является следствием аддитивного (суммарного) взаимодействия большого числа других величин (или факторов), каждая из которых вносит малую долю в общий результат. Вообще при определённых условиях закон распределения суммы случайных величин при увеличении числа слагаемых неограниченно приближается к нормальному закону. Об этом говорит центральная предельная теорема, которая формулируется в теме 5. Частным случаем этой теоремы являются локальная и интегральная теоремы Муавра-Лапласа, рассмотренные в первой теме. Искусственное получение реализаций нормально распределённой случайной величины также опирается на центральную предельную теорему. Оказывается, что уже двенадцать одинаково равномерно распределённых случайных величин в сумме представляют величину, закон распределения которой достаточно близок к нормальному закону. Если ti, i=1, 2,…,12, есть реализации случайной величины, распределённой равномерно в интервале (0; 1), то величина 12 x = ∑ (t i − 0 ,5 ) (2.44) i =1 будет реализацией центрированной и нормированной случайной величины, распределённой приближенно по нормальному закону. 50 Случайные величины Гамма-распределение и распределение Эрланга. Более сложным законом распределения вероятностей непрерывных случайных величин является гамма-распределение. Плотность распределения вероятностей величины T, распределённой по этому закону имеет вид: f (t ) = λα α −1 t exp{− λt}, t ≥ 0 , , t ≥ 0, Γ(α ) (2.45) где λ>0, α>0, а Г(α) - гамма-функция Эйлера: ∞ Γ (α ) = ∫ t α −1 exp{ −t} dt (2.46) При целых значениях α это распределение совпадает с распределением Эрланга. Если α=n – целое, то Г(n)= (n-1)!. Тогда плотность распределения запишется следующим образом: f (t ) = λ ⋅ ( λt ) n − 1 exp{ −λt} (n − 1)! (2.47) Это распределение называют распределением Эрланга n-го порядка. В частности, распределение Эрланга 1-го (при n=1) совпадает с экспоненциальным законом распределения (2.34). Для гамма-распределения можно записать функцию распределения вероятностей следующим образом: 0 , если t ≤ 0 ,  F (t ) =  Γ ( α , λ t )  Γ (α ) , если t > 0 ,  (2.48) где Г(α,λt) – неполная гамма-функция: λt Γ (α , λt ) = ∫ z α −1 exp{ − z} dz . (2.49) В случае распределения Эрланга, когда α=n, интеграл (2.49) можно вычислить. Тогда 0 , если t ≤ 0 ,  n−1 F (t ) =  ( λt )k 1 exp{ t } − − λ ⋅ , если t > 0. ∑  k! k =0  (2.50) Гамма-распределение имеет следующие основные числовые характеристики: 2 α α математическое ожидание m x = ; ; дисперсия D x = 2 ; скошенность Sk x = λ λ α 6 эксцесс Ex x = ; коэффициент α 1 f(x) вариации K V = . α 0,04 Чтобы получить основные числовые характеристики распределения Эрланга, достаточно 2 3 0,04 1 вместо α подставить порядок распределения n. x Примеры графиков 20 40 плотности распределения вероРис. 2.13. Графики плотности распределения вероятностей ятностей гамма-распределения гамма-распределения при разных значениях параметра α. 51 Теория вероятностей и математическая статистика представлены на рис. 2.13. Все графики получены при значении λ=0,1. Значения второго параметра равны соответственно: α=0,7 для графика 1, α=1,5 для графика 2 и α=2 для графика 3. Гамма-распределение можно использовать при описании процессов массового обслуживания или процессов восстановления. Легко убедиться, что интервал времени, распределённый по закону Эрланга порядка n с параметром λ, представляет собой сумму n интервалов, распределённых по экспоненциальному закону с тем же параметром α. Поэтому с помощью распределения Эрланга часто описываются процессы многоэтапного обслуживания. Гамма-распределение является более гибким законом, поскольку для величины, распределённой по этому закону, коэффициент вариации можно изменять плавно, изменяя значения параметров λ и α. Пример 2.18. Некоторые приборы последовательно проходят профилактическое обслуживание. Время обслуживания одного прибора является случайной величиной, распределённой по экспоненциальному закону с параметром λ=2 час-1 (это означает, что среднее время обслуживания одного прибора равно 1/λ=0,5 часа). Какова вероятность того, что время обслуживания четырёх приборов будет не более чем 1,5 часа. Пусть ti – случайный интервал времени обслуживания i-го (по очереди) прибора. Тогда время обслуживания четырёх приборов будет равно величине T=t1+t2+t3+t4. Случайная величина T будет распределена по закону Эрланга четвёртого порядка, так как она является суммой четырёх случайных величин, распределённых по одному и тому же экспоненциальному закону. Следовательно, ( 2t )k , k! k =0 3 F(t ) = 1 − exp{ −2t} ⋅ ∑ если t > 0 и F(t ) = 0 , если t ≤ 0. Таким образом, P{T<1,5}=F(1,5)=1-exp{-3}[9/2+9/2+3+1]=0,353. Распределение Вейбулла. Это распределение широко применяется в задачах надёжности и в теории восстановление. Этому закону распределения вероятностей подчиняется случайный интервал времени безотказной работы некоторых устройств или их элементов. Плотность распределения вероятностей величины T, распределённой по закону Вейбулла, имеет вид: f (t ) = λα ⋅ t α −1 exp{− λt α }, t ≥ 0 , (2.51) где λ>0, α>0. Функция распределения вероятностей записывается следующим образом: F(t ) = 1 − exp{ −λt α }, t ≥ 0. (2.52) f(t) 0,2 4 3 2 0,1 1 5 10 15 t Рис. 2.14. Графики плотности распределения вероятностей для закона распределения Вейбулла. 52 Распределение Вейбулла имеет два параметра, которые могут принимать любые положительные значения. Поэтому оно является достаточно гибким и удобным для аппроксимации законов распределения, полученных опытным путём. При α=1 распределение Вейбулла становится экспоненциальным распределением. Основные числовые характеристики распределения Вейбулла: математиче- Случайные величины ское ожидание m x = − 1 λ α Г (1 + 1 ) ; дисперсия α − 2 D x = λ α [Г (1 + 2 1 ) − Г 2 (1 + ] . Гаммаα α) функция Эйлера определена в (2.46). Графики плотности закона распределения Вейбулла представлены на рис. 2.14. Графики построены при значении параметра α=1,7. Кривая 1 соответствует значению λ=0,03, кривая 2 – значению 0,005, кривая 3 – значению 0,07 и кривая 4 – значению 0,09. Термины для запоминания ♦ ♦ Случайная величина, дискретная случайная величина, непрерывная случайная величина, закон распределения вероятностей, функция распределения вероятностей, условие нормировки вероятностей. Математическое ожидание, дисперсия, среднее квадратическое отклонение, коэффициент вариации, мода, медиана, квантили, квартили, вероятное отклонение, начальные моменты случайных величин, центральные моменты, скошенность, асимметрия, эксцесс. Список контрольных вопросов 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. Дайте определение случайной величины. В чём различие дискретной и непрерывной случайных величин? Что называется законом распределения вероятностей случайной величины? Какими способами можно задать дискретную случайную величину? Дайте определение функции распределения вероятностей случайной величины. Перечислите основные свойства функции распределения вероятностей случайной величины и объясните их смысл. Дайте определение плотности распределения вероятностей случайной величины. Перечислите основные свойства плотности распределения вероятностей случайной величины и объясните их смысл. Чему равен интеграл от плотности распределения вероятностей по всей области задания случайной величины? Перечислите характеристики положения случайной величины на числовой оси. Перечислите характеристики рассеяния случайной величины. Как определяются математическое ожидание и дисперсия дискретной случайной величины? Как определяются математическое ожидание и дисперсия непрерывной случайной величины? Что такое мода и медиана и как они определяются? Дайте определение начальных моментов случайной величины. Дайте определение центральных моментов случайной величины. Что такое асимметрия и эксцесс закона распределения и как они определяются? Что такое квантили и квартили закона распределения и как они определяются? 53 Теория вероятностей и математическая статистика Вопросы для обсуждений 1. 2. 3. 54 Есть ли в окружающем нас мире «независимые» случайные величины? Попробуйте найти примеры таких величин. Обоснуйте относительность понятия «независимость». Многомерные случайные величины ТЕМА 3. Многомерные случайные величины Студент должен освоить: • понятия многомерной случайной величины, условные и безусловные законы распределения, статистической зависимости, числовые характеристики случайных величин, линии регрессии; приобрести навыки: • решения задач на вычисление характеристик связи между величинами (ковариационный момент, коэффициент корреляции). 55 Теория вероятностей и математическая статистика Краткое содержание Определение, классификация, способы задания многомерных случайных величин. Функция распределения вероятностей двухмерной случайной величины и ее свойства. Плотность распределения вероятностей двухмерной случайной величины и ее свойства. Условные законы распределения вероятностей. Статистическая зависимость между величинами. Числовые характеристики многомерных случайных величин. Ковариационный момент и коэффициент корреляции. Условные числовые характеристики. Линии регрессии. Корреляционное отношение. Двухмерное нормальное распределение. 3.1. Определение многомерных случайных величин Совокупность n случайных величин принято называть n-мерной случайной величиной или системой n случайных величин или n-мерным вектором. В дальнейшем nмерную случайную величину будем обозначать (X1, X2, …, Xn), где Xi, i = 1, 2, …, n – отдельные случайные величины. В частности (X, Y) – двухмерная случайная величина, (X, Y, Z) – трёхмерная случайная величина и т.д. Очевидно, что n-мерную случайную величину можно трактовать как вектор, компоненты которого являются случайными величинами. Двухмерная случайная величина представляет собой вектор на координатной плоскости XOY, а трёхмерная случайная величина – вектор в трёхмерном пространстве. Для определения типа n-мерной случайной величины достаточно указать типы составляющих её компонент. Здесь рассматриваются только полностью дискретные величины (достаточно кратко) и полностью непрерывные величины (более подробно). Слово «полностью» означает в данном случае тот факт, что все компоненты случайной величины относятся к одному и тому же типу. Почти все вопросы, касающиеся изучения n-мерных случайных величин, можно рассмотреть на примере двухмерной случайной величины. Пусть в случайной величине (X, Y) возможными значениями компоненты X являются значения x1, x2, …, xs, а возможными значениями Y являются y1, y2, …, yq. Перечисление всех пар возможных значений (xi, yj), i = 1, 2, …, s, j = 1, 2, …, q, с указанием вероятностей этих пар pij называется законом распределения вероятностей двухмерной случайной величины (X, Y). Для дискретных величин часто применяют табличный способ задания: yi y1 y2 …. yq pi* x1 p11 p12 … p1q p1* x2 p21 p22 … p2q p2* … … … … … … xs ps1 ps2 … psq ps* p*j p*1 p*2 … p*q 1 xi В первом столбце перечислены возможные значения случайной величины X, а в первой строке – возможные значения случайной величины Y. На пересечении i-й строки и j-го столбца указана вероятность того, что случайная величина X примет значение xi и, одновременно, случайная величина Y примет значение yj, т.е. p i j = P{X = x i , Y = y j }. Суммируя все вероятности pij по одному из индексов , сохраняя постоянным другой индекс, можно получить закон распределения вероятностей для одномерной величины: q P{ X = xi } = ∑ pij , i = 1, 2, ..., s, j =1 56 s P{Y = y j } = ∑ pij , j = 1, 2, ..., q. i =1 Многомерные случайные величины Эти вероятности будем обозначать соответственно pi* и p*j. Символ «звёздочка» означает, что по данному индексу проведено суммирование вероятностей двухмерной случайной величины. Вероятности pi* и p*j записаны в последнем столбце и в последней строке таблицы. Очевидно, что обычное условие нормировки вероятностей для pi* и p*j сохраq s няется, т.е. ∑ p i* = 1 ∑p и i =1 j =1 *j = 1. Из этого следует, что сумма всех вероятностей pij всегда будет равна единице (условие нормировки двухмерных вероятностей): s q ∑∑ p i =1 j =1 ij = 1. (3.1) Аналогично можно задавать и случайные величины большей размерности. С ростом размерности процесс задания случайной величины становится громоздким. Так, для трёхмерной случайной величины потребуется трёхмерная таблица, т. е. несколько таблиц представленного выше типа. Пример 3.1. Двухмерная случайная величина задана табличным способом. yj xi 3 4 6 8 –1 1 2 3 0,03 0,04 0,05 0,04 0,04 0,06 0,08 0,08 0,03 0,07 0,09 0,06 0,03 0,05 0,08 0,04 0,02 0,03 0,05 0,03 Требуется определить одномерные законы распределения случайных величин X и Y. Вычислить вероятность P того, что случайная величина X примет значение из интервала (3; 7) и, одновременно, Y примет значение из интервала [0; 3). Для определения вероятностей p i * и p * j нужно просуммировать заданные в таблице вероятности соответственно по строкам и по столбцам. Суммируя по строкам, получим закон распределения вероятностей случайной величины X в табличной форме, суммируя по столбцам, получим закон распределения вероятностей случайной величины Y. xi 3 4 5 6 yj –1 1 2 3 pi* 0,15 0,25 0,35 0,25 p*j 0,16 0,26 0,25 0,20 0,13 В интервал (3; 7) попадает всего два возможных значений величины X: x = 4 и x = 6. В интервал [0; 3) попадает три возможных значения величины Y: y = 0, y = 1 и y = 2. Таким образом, в указанную в условии задачи область попадает всего шесть точек: (4; 0), (4; 1), (4; 2), (6; 0), (6; 1) и (6; 2). Искомая вероятность равна сумме вероятностей этих точек: P = = 0,06 + 0,07 + 0,05 + 0,08 + 0,09 + 0,08 = 0,43. 3.2. Функция распределения вероятностей двухмерной случайной величины Универсальным способом задания двумерной случайной величины является задание её функции распределения вероятностей. Функцией распределения вероятностей двухмерной случайной величины (X, Y) в точке (x, y) называется вероятность того, что случайная 57 Теория вероятностей и математическая статистика величина X примет значение меньшее, чем x, а случайная величина Y одновременно примет значение меньшее, чем y, т.е. F(x, y) = P{X < x, Y < y}. (3.2) Функция распределения вероятностей F(x, y) равна вероятности попадания точки (X; Y) в область D, заштрихованную часть координатной плоскости на рис. 3.1. Из определения вытекают свойства двухмерной функции распределения. 1. F(–∞, –∞) = F(–∞, y) = F(x, –∞) = 0. Действительно, соy (x;y) бытия X < –∞ и Y < –∞ представляют невозможные события, следовательно, их вероятность равна нулю. Поэтому одновреx менное осуществление любого другого события с данными событиями является невозможным. Здесь и далее замена любого аргумента функции F(x, y) символом ∞ (или –∞) означает предельный переход при стремлении к ∞ (или –∞) данного Рис. 3.1. Область D аргумента. 2. F(∞, ∞) = 1. Действительно, F(∞, ∞) = P{X < ∞, Y < ∞}. Но события X < ∞ и Y < ∞ представляют собой достоверные события. Следовательно, F(∞, ∞) = P{X < ∞, Y < ∞} = P{U} = 1. 3. F(x, ∞) = FX(x) и F(∞, y) = FY(y), где FX(x) и FY(y) есть одномерные функции распределения вероятностей y ( b ; d ) ( a ; d ) соответственно для величин X и Y. Докажем, например, d первое равенство. По определению, F(x, ∞) = P{X < x, Y < < ∞}, но событие Y < ∞ является достоверным, следоваc (b; c) тельно, P{X < x, Y < ∞} = P{X < x}. Таким образом, F(x, ∞) = (a; c) x = P{X < x}, а эта вероятность является функцией распреa b деления FX(x). Рис. 3.2. К определению 4. Вероятность того, что случайная величина X вероятности попадания точки примет значение из интервала [a; b), а величина Y примет (X; Y) в прямоугольник значение из интервала [c; d), определяется формулой: P{a ≤ X < b, c ≤ Y < d} = F(b, d) − F(a, d) − F(b, c) + F(a, c). (3.3) Эта вероятность представляет собой вероятность попадания случайной точки (X; Y) в заштрихованный прямоугольник, изображённый на рис. 3.2. Доказательство равенства (3.3) вытекает из свойств вероятности. При определении вероятности попадания точки в данный прямоугольник возьмём вероятность попадания точки в квадрант с вершиной (b; d). Отнимем от неё вероятности попадания точки в квадранты с вершинами соответственно (a; d) и (b; c). Тогда вероятность попадания точки в квадрант с вершиной (a; c) будет отнята дважды. Поэтому в (3.3) указанная вероятность один раз прибавляется. 5. Функция распределения вероятностей F(x, y) является неубывающей. Эти свойства справедливы и для многомерных случайных величин более высокой размерности. Необходимо лишь делать соответствующие поправки на размерность. Так, для трёхмерной случайной величины (X, Y, Z) функция распределения в точке (x, y, z) равна F3(x, y, z) = P{X < x, Y < y, Z < z}. При этом F3(–∞, –∞, –∞) = F3(–∞, y, z) = F3(x, –∞, z) = = F3(x, y, –∞) = 0, а F3(∞, ∞, ∞) = 1. Далее, F(x, y, ∞) = F2(x, y), где F2(x, y) есть функция распределения вероятностей двухмерной случайной величины (X, Y). Аналогично можно получить и остальные двухмерные функции распределения вероятностей. Нижние индексы у функций указывают на их размерность и позволяют различать эти функции. Индекс у двухмерной функции распределения вероятностей будем указывать только в случае необходимости. У одномерных функций в качестве индексов будем всегда указывать имя величины, к которой она относится. 58 Многомерные случайные величины Свойство 3 является правилом перехода к законам распределения вероятностей более низкой размерности. Чтобы из многомерной функции распределения вероятностей получить функцию распределения вероятностей более низкой размерности нужно перейти к пределу при стремлении к бесконечности части аргументов исходной функции. Например, из четырёхмерной функции распределения F4(x, y, z, t) можно получить двухмерную: F2(x, t) = F4(x, ∞, ∞, t). Эту формальную запись следует рассматривать как предельный переход от функции F4(x, y, z, t) при y→∞ и z→∞. Стремление аргументов к ∞ относится к тому случаю, когда возможные значения (x, y) величины (X, Y) располагаются на всей координатной плоскости. Если область определения случайной величины ограничена, то вместо бесконечности нужно использовать граничные значения переменных x и y, соответствующие этой области. Пусть область возможных значений (x, y) такова, что α ≤ x < β при любом значении y и δ ≤ y < γ при любом значении x (область не обязательно прямоугольная). Тогда свойства функции распределения можно записать так: F(α, y) = F(x, δ) = F(α, δ) = 0; F(β, γ) = 1; F(x, γ) = FX(x), F(β, y) = FY(y). Графиком двухмерной функции распределения является поверхность. Для дискретных величин эта поверхность имеет ступенчатую форму. Для непрерывных величин график не имеет разрывов в области определения функции распределения. Пример 3.2. Задана функция распределения вероятностей двухмерной случайной   величины (X, Y): F ( x, y ) = a ⋅  arctg x + π π   arctg y + , − ∞ < x < ∞, − ∞ < y < ∞. 2  2 Определить коэффициент a. Найти одномерные функции распределения величин X и Y. Вычислить вероятность попадания точки (X, Y) в квадрат: –1 ≤ x ≤ 1; –1 ≤ y ≤ 1. По второму свойству F(∞, ∞) = 1, следовательно, π  π  F (∞, ∞) = a ⋅  arctg ∞ +  arctg ∞ +  = a ⋅ π2 = 1. Отсюда находим: a = 1/π2. 2  2  Воспользуемся свойством 3 функции распределения вероятностей: 1  π  π  arctg x +  arctg y +  = 2 y →∞ y →∞ π 2  2  1  π π 1  π  = 2  arctg x +  arctg ∞ +  =  arctg x + . 2  2 π 2 π  FX ( x) = lim F ( x, y ) = lim Поскольку переменные x и y входят в функцию F(x, y) симметрично, то, очевидно, функция F(y) имеет аналогичную структуру: FX ( y ) = 1 π  arctg y + . 2 π Вершинами квадрата, заданного в условии задачи, являются точки A(–1; –1), B(–1; 1), C(1; 1) и D(1; –1). По свойству 4 двухмерной функции распределения получим: P{ −1 ≤ X ≤ 1, − 1 ≤ Y ≤ 1} = F(1, 1) − F( −1, 1) − F(1, − 1) + F( −1, − 1} = − 1 π π 1 π π ( arctg 1 + ) ( arctg 1 + ) − 2 ( arctg ( −1) + ) ( arctg 1 + ) − 2 2 2 2 2 π π 1 1 π π π π ( arctg 1 + ) ( arctg ( −1) + ) + 2 ( arctg ( −1) + ) ( arctg ( −1) + ). 2 2 2 2 2 π π Так как arctg1 = π/4 и arctg(–1) = –π/4, то P{–1 ≤ X ≤ 1, –1 ≤ Y ≤ 1} = 1/4 = 0,25. 59 Теория вероятностей и математическая статистика 3.3. Плотность распределения вероятностей двухмерной случайной величины Найдём вероятность попадания двухмерной случайной величины (X, Y) в прямоугольник со сторонами ∆x и ∆y, полагая, что функция распределения вероятностей F(x, y) является непрерывной и дифференцируемой. Пусть вершинами прямоугольника являются точки A(x; y), B(x; y + ∆y), C(x + ∆x; y + ∆y) и D(x + ∆x; y). Тогда P{x ≤ X < x + ∆x, y ≤ Y < < y + ∆y} = F(x + ∆x, y + ∆y) – F(x, y + ∆y) – F(x + ∆x, y) + F(x, y). Поделим эту вероятность на ∆x∆y и перейдём к пределу при ∆x→0 и ∆y→0: P{ x ≤ X < x + ∆x , y ≤ Y < y + ∆y } F ( x + ∆x , y + ∆y ) − F ( x + ∆ x , y ) 1 = lim − lim { lim ∆x →0 ∆x →0 ∆x ∆y →0 ∆x ⋅ ∆y ∆y ∆y →0 F (x , y + ∆y ) − F( x , y ) 1 ∂F( x + ∆x , y ) ∂F( x , y ) } = lim { }. − ∆y →0 ∆x →0 ∆x ∂y ∆y ∂y Последний предел равен, очевидно, второй смешанной частной производной. Этот предел называют плотностью распределения вероятностей f(x, y) двухмерной случайной величины (X, Y), или двухмерной плотностью распределения вероятностей: − lim f ( x, y ) = ∂ 2 F ( x, y ) . ∂x∂y (3.4) Плотность распределения вероятностей является удобной формой задания закона распределения вероятностей случайных величин, но применение её ограничено только непрерывными случайными величинами. Графиком двумерной плотности распределения вероятностей является поверхность, расположенная над координатной плоскостью XOY. Сформулируем свойства двумерной плотности распределения вероятностей. 1. Всегда f(x, y) ≥ 0, так как F(x, y) является неубывающей функцией. 2. Непосредственно из (3.4) вытекает следующее равенство: x y F ( x, y ) = ∫ ∫ f (u, v)dvdu . (3.5) − ∞− ∞ 3. Используя свойство 2 и, учитывая, что F(∞, ∞) = 1, получим: ∞ ∞ ∫ ∫ f ( x, y)dxdy = 1 . (3.6) − ∞− ∞ 4. Вероятность попадания случайной точки (X, Y) в произвольную область D равна интегралу от плотности распределения вероятностей по этой области: P{( X , Y ) ∈ D} = ∫∫ f ( x, y )dxdy . (3.7) D Если D прямоугольник с вершинами в точках A(a; c), B(a; d), C(b; d) и E(b; c), то b d a c P{( X , Y ) ∈ D} = ∫ dx ∫ f ( x, y )dy . 5. (3.8) Из (3.5) следует, что ∞ ∫ f ( x, y)dy = f ∞ X ( x) и −∞ ∫ f ( x, y)dx = f Y ( y ). (3.9) −∞ Действительно, F(x, ∞) = FX(x) и fX(x) = FX' ( x) . С другой стороны, по свойству 2, F ( x, ∞ ) = x ∞ ∫ ∫ f (u, v)dvdu . −∞− ∞ 60 Многомерные случайные величины Дифференцируя это равенство по x, получим первое равенство из (3.9). Свойство 3 представляет условие нормировки вероятностей. Если D охватывает все возможные значения компонент X и Y, то (3.6) запишется так: ∫∫ f ( x, y)dxdy = 1 . (3.10) D Это означает, что объём тела, заключённого между поверхностью z = f(x, y) и координатной плоскостью XOY, всегда равен единице. На рис. 3.3 изображён график плотности распределения вероятностей для величины (X, Y), все возможные значения которой (x, y) находятся в области D. На рис. 3.4 приводится график плотности распределения вероятностей случайной величины (X, Y), равномерно распределённой в прямоугольной области: f(x, y) = 1/SD, если (x, y)∈D и f(x, y) = 0, если (x, y)∉D, SD = (b – a)(d – c). z z f(x, y) f(x, y) y D x x Рис. 3.3. График плотности распределения вероятностей двухмерной величины (X, Y) в области D c a b d y Рис. 3.4. График плотности равномерного распределения величины (X, Y) в прямоугольнике Свойство 5 является общим правилом перехода от плотности распределения вероятностей размерности n к плотностям распределения вероятностей размерности n – 1. Для такого перехода достаточно n-мерную плотность распределения проинтегрировать по одному из аргументов в пределах от –∞ до ∞. Пример 3.3. Задана плотность распределения вероятностей величины (X, Y): f ( x, y ) = a ⋅ cos( x − y ), 0 ≤ x ≤ π π , 0≤ y≤ . 2 2 Определить коэффициент a. Найти одномерные плотности fX(x) и fY(y). Воспользуемся условием нормировки вероятностей (3.6): ∞ ∞ π π 2 2 π 2 −∞− ∞ 0 0 π ∫ ∫ f ( x, y)dydx = ∫ ∫ a ⋅ cos( x − y)dydx = a ⋅∫ [sin( 2 − y) − sin(− y)]dy = π π π π = a ⋅ [cos( − ) − cos( − 0) − cos( ) + cos(0)] = 2a = 1. Отсюда находим a = 1/2. 2 2 2 2 ∞ Одномерные плотности определяем по свойству 5: fY ( y ) = ∫ f ( x , y )dx = −∞ 1 π = [sin( − y ) + sin y ], 2 2 f X ( x) = ∞ 1 π 2 1 π 2 1 cos( x − y )dx = 20 ∫ π ∫ f ( x, y)dy = 2 ∫ cos(x − y )dy = − 2 [sin(x − 2 ) − sin x] . −∞ Приме- няя формулы приведения для синуса, получим: f X ( x) = 1 π (cos x + sin x), 0 ≤ x ≤ ; 2 2 f Y ( y) = 1 π (cos y + sin y ), 0 ≤ y ≤ . 2 2 61 Теория вероятностей и математическая статистика 3.4. Условные законы распределения. Статистическая зависимость Зная плотность распределения вероятностей f(x, y) двухмерной случайной величины (X, Y), можно определить одномерные плотности распределения fX(x) и fY(y), пользуясь свойством 5. При таком переходе вся информация о характере связи между величинами X и Y будет потеряна. Обратный переход от одномерных плотностей fX(x) и fY(y) к двухмерной плотности f(x, y) оказывается невозможным. Для установления связи между двухмерной и одномерными плотностями распределения вероятностей вводится понятие условной плотности распределения вероятностей. Условной плотностью распределения вероятностей случайной величины Y по отношению к величине X называют плотность распределения вероятностей величины Y, вычисленную при условии, что величина X приняла значение x. Обозначают f(y|x). Можно показать, что для двух непрерывных величин f(x, y) = f(y | x) ⋅ fX(x) и f(x, y) = f(x | y) ⋅ fY(y). (3.11) Двухмерная плотность распределения вероятностей равна произведению условной плотности распределения вероятности одной из этих величин по отношению к другой на безусловную плотность распределения вероятности второй величины. Для восстановления двухмерной плотности необходимо знать одну из условных плотностей и соответствующую одномерную плотность. Формулы (3.11) называют формулами умножения плотностей распределения вероятностей. Их структура совпадает со структурой формулы умножения вероятностей событий. Условные плотности распределения вероятностей содержат всю информацию о зависимости между случайными величинами. Может оказаться, что условная плотность полностью совпадает с безусловной плотностью. В таком случае говорят, что данные величины являются статистически независимыми. Заметим, что если величина Y не зависит от величины X, то и X не зависит от Y. Действительно, пусть f(y | x) = fY(y). Левые части равенств (3.11) равны, поэтому равны и правые части, т.е. f ( x | y ) ⋅ f Y ( y ) = f ( y | x) ⋅ f X ( x) или f ( x | y) = f ( y | x) ⋅ f X ( x) . f Y ( y) Отсюда следует, что если f(y |x) = fY(y), то f(x | y) = fX(x). Если условные плотности распределения вероятностей не равны безусловным плотностям, то случайные величины X и Y являются статистически зависимыми. Формулы умножения плотностей распределения (3.11) справедливы в любом случае. Для статистически независимых величин формулы сводятся к одной: f(x, y) = fX(x) ⋅ fy(y). (3.12) Это равенство является признаком независимости случайных величин. Из записанных соотношений вытекает следующая формула для определения условных плотностей распределения вероятностей по двухмерной плотности: f ( y | x) = f ( x, y ) ∞ ∫ f ( x, y)dy −∞ и f ( x | y) = f ( x, y ) ∞ . (3.13) ∫ f ( x, y)dx −∞ Аналогично вводится понятие условной плотности распределения вероятностей для многомерных величин более высокой размерности. 62 Многомерные случайные величины Вообще условным законом распределения вероятностей одной случайной величины по отношению к другой называется её закон распределения, полученный при условии, что вторая величина приняла конкретное значение. Пусть (X, Y) дискретная случайная величина. Возможными значениями компоненты X являются значения x1, x2, …, xs, а возможными значениями Y – y1, y2, …, yq. Заданы вероятности pij = P{X = xi, Y = yj}. Условный закон распределения вероятностей величины X при условии, что величина Y приняла значение yj, будет иметь следующий вид: P{ X = xi | Y = y j } = pij s ∑p i =1 ij = pij p* j , i = 1, 2, ..., s. (3.14) Здесь изменяется индекс i, но не изменяется индекс j. Заметим, что по своему смыслу эта формула полностью эквивалентна второй формуле из (3.13). Другими словами, любая строка (любой столбец) в таблице задания вероятностей pij (см. п. 3.1), поделённая на сумму вероятностей этой строки (этого столбца), представляет собой условный закон распределения вероятностей одной из величин по отношению к фиксированному значению другой величины. Если, например, все вероятности второй строки таблицы поделить на p2*, то получим условный закон распределения случайной величины Y при условии, что величина X приняла значение x2. Для дискретных величин статистическая зависимость определяется аналогично. Если условное распределение вероятностей одной величины по отношению к другой совпадает с безусловным законом, т.е. P{X = xi Y = yj} = pi*, i = 1, 2, …, s, j = 1, 2, …, q, то величины X и Y являются статистически независимыми. Если это условие не выполняется, то величины являются статистически зависимыми. Пример 3.4. Задана плотность распределения вероятностей двухмерной случай-  1  ной величины (X, Y): f ( x, y ) =  πR 2 при x 2 + y 2 < R,  0 при x 2 + y 2 ≥ R, R > 0. Доказать, что случайные величины X и Y являются зависимыми. Случайные величины X и Y будут зависимыми, если f(x | y) ≠ fX(x). Найдём fX(x): ∞ 1 f X ( x) = ∫ f ( x, y )dy = ⋅ πR 2 − −∞ R2 − x2 ∫ dy = R2 − x2 2 R2 − x2 , − R < x < R. πR 2 Здесь при расстановке пределов интегрирования было учтено, что плотность f(x, y) равна нулю вне круга радиуса R. В силу симметрии плотности f(x, y), плот- 2 R2 − y2 , − R < y < R. СледовательπR 2 1 2 R2 − x2 . Это доказы= ≠ f X ( x) = πR 2 2 R2 − y2 ность f Y (y) имеет такую же структуру: fY ( y ) = но, f ( x | y ) = f ( x, y ) 1 πR 2 = ⋅ f Y ( y ) πR 2 2 R 2 − y 2 вает, что X и Y являются зависимыми величинами. Отметим, что условные плотности f(x | y) и f(y | x) также имеют одинаковые структуры. Следует иметь в виду, что они определены только внутри круга: x 2 + y 2 < R 2 . Вне этого круга они равны нулю. Для доказательства существования зависимости между величинами необязательно находить условные плотности распределения вероятностей. Достаточно убедиться, что f(x, y) ≠ fX(x)fY(y). В данном случае это неравенство очевидно. 63 Теория вероятностей и математическая статистика 3.5. Числовые характеристики многомерных случайных величин. Ковариационный момент и коэффициент корреляции При изучении свойств двухмерной случайной величины (X, Y) можно говорить о математических ожиданиях отдельных компонент mx и my, о их дисперсиях Dx и Dy и т. п. Однако знание характеристик изолированных компонент не позволяет делать выводы о существовании статистической связи между этими компонентами и о характере этой связи. При изучении многомерных величин дополнительно привлекают такие характеристики, которые отражают статистическую связь. К таким характеристикам относятся смешанные моменты случайных величин. Пусть для двухмерной случайной величины (X, Y) задана плотность распределения вероятностей f(x, y). Начальным моментом νgh порядка k = g + h двухмерной величины (X, Y) называется математическое ожидание произведения Xg ⋅ Yh: ν gh = M { X g ⋅ Y h } = ∞ ∞ ∫ ∫x g y h f ( x, y )dxdy . (3.15) − ∞−∞ Если (X, Y) двухмерная дискретная случайная величина с возможными значениями (xi, yj), i = 1, 2, …, s, j = 1, 2, …, q, и с вероятностями pij, то q s ν gh = M { X g ⋅ Y h } = ∑ ∑ x ig y hj p ij . (3.16) i =1 j =1 В формулах (3.15) и (3.16) g и h – целые числа, g ≥ 0, h ≥ 0, g + h = k, k = 0, 1, 2, … . Число моментов порядка k будет равно k + 1. При k = 0 имеется всего один момент ν00, который всегда равен единице (условие нормировки вероятностей). При k = 1 имеется два момента ν01 и ν10, которые совпадают с математическими ожиданиями величин X и Y: ν01 = my и ν10 = mx. Докажем, например, первое равенство: ν 10 = M { X ⋅ Y } = M { X } = 1 ∞ ∞ ∞ ∞ ∞ − ∞− ∞ −∞ −∞ −∞ ∫ ∫ x ⋅ f ( x, y)dxdy = ∫ x ⋅ [ ∫ f ( x, y)dy]dx = ∫ x ⋅ f X ( x)dx = m x . Перечислим моменты порядка k: ν0k, ν1(k–1), ν2(k–2), …, ν(k–1)1, νk0. Моменты ν0k и νk0 являются моментами k-ого порядка соответственно величин Y и X. Остальные моменты (из перечисленных) при k > 1 представляют собой смешанные моменты, которые и характеризуют статистическую связь между компонентами X и Y. Для анализа статистической связи удобнее использовать центральные моменты. Центральный момент µgh порядка k двухмерной величины (X, Y) это математическое ожидание произведения (X – mx)g⋅(Y – my)h, так что g + h = k, т.е. µ gh = M {( X − m x ) ⋅ (Y − m y ) } = g h ∞ ∞ ∫ ∫ (x − m x ) g ( y − m y ) h f ( x, y )dxdy. . (3.17) − ∞− ∞ Если (X, Y) двухмерная дискретная случайная величина с возможными значениями (xi, yj), i = 1, 2, …, s, j = 1, 2, …, q, и с вероятностями pij, то s q µ gh = M {( X − m x ) g ⋅ (Y − m y ) h } = ∑∑ ( xi − m x ) g ( y j − m y ) h pij . (3.18) i =1 j =1 В этих формулах g и h – целые числа, g ≥ 0, h ≥ 0, g + h = k, k = 0, 1, 2, …. Рассмотрим моменты 2-го порядка. Момент µ20 является, очевидно, дисперсией Dx случайной величины X, а момент µ02 – дисперсией Dy величины Y. Смешанный момент 64 Многомерные случайные величины µ11 имеет первостепенное значение при изучении зависимости между случайными величинами. Этот момент принято называть ковариационным моментом, моментом связи или просто ковариацией и обозначать через Kxy. Ковариационный момент характеризует линейную связь между рассматриваемыми величинами. Легко показать, что если X и Y являются статистически независимыми величинами, то корреляционный момент равен нулю. Действительно, если X и Y независимы, то f(x, y) = fX(x)fY(y) и, следовательно, K xy = ∞ ∞ ∫ ∫ (x − m x ) ( y − m y ) f ( x, y )dxdy = − ∞− ∞ = ∞ ∫ (x − m −∞ ∞ x ) f X ( x)dx ∫ ( y − m y ) f Y ( y )dy = µ x1 ⋅ µ y1 = 0. −∞ Здесь µx1 и µy1 есть центральные моменты первого порядка величин соответственно X и Y. Эти моменты всегда равны нулю. Таким образом, если величины X и Y являются статистически независимыми, то Kxy = 0. Однако обратное утверждение не является верным, т.е. если Kxy = 0, то это ещё не значит, что данные величины являются статистически независимыми. Равенство нулю ковариационного момента означает факт, что между величинами отсутствует линейная связь. Однако может существовать нелинейная связь, которая может выступать в разных формах. Форма связи при Kxy = 0 определяется моментами более высокого порядка. Например, момент µ21 определяет параболическую связь между величиной Y и величиной X, момент µ31 – кубическую связь и т.д. Рассмотрим подробнее вопрос о линейной связи между двумя величинами. Предположим, что между случайными величинами X и Y существует статистическая зависимость, причём точно известно, что эта зависимость линейная. Тогда справедливо равенство Y = aX + b + ξ. В этом равенстве слагаемое aX + b представляет собой компоненту величины Y, линейную относительно величины X, причём a и b являются постоянными коэффициентами. Слагаемое ξ представляет собой некоторую случайную величину, не зависящую от X. Пусть mx и mξ есть математические ожидания величин X и ξ, а Dx – дисперсия величины X. Тогда математическое ожидание величины Y будет равно my = = M{aX + b + ξ} = amx + b + mξ. Следовательно, Kxy = M{(Y - my)(X - mx)} = M{(aX + b + ξ – amx – – b – mξ)(X – mx)} = M{[a(X – mx) + ( ξ – mξ)](X – mx)} = aM{(X – mx)2} + M{( ξ – mξ)(X – mx)} = = aDx + Kξx. Но Kξx = 0, так как, по предположению, связь между величинами X и ξ отсутствует. Таким образом, Kxy = aDx. Это означает, что ковариационный момент пропорционален коэффициенту, обеспечивающему линейную связь между величинами. Если линейная связь отсутствует, то a = 0 и ковариационный момент также обращается в нуль. Изучение линейной связи между величинами является наиболее простой и, в то же время, неизбежной задачей при исследовании статистической зависимости между величинами. Именно поэтому придаётся большое значение определению ковариационного момента. При изучении свойств совокупности n случайных величин X1, X2, …, Xn используется понятие ковариационной матрицы – матрицы, состоящей из ковариационных моментов попарно рассматриваемых величин из данной совокупности:  K 11 K 12 ... K 1n     K 21 K 22 ... K 2 n  K = . (3.19) ... ... ... ...    K   n 1 K n 2 ... K nn  Здесь Kij – ковариационный момент между величинами Xi и Xj, 1 ≤ i ≤ n, 1 ≤ j ≤ n. Для унификации записи введено обозначение: σi2 = Kii. Последнее означает, что диспер65 Теория вероятностей и математическая статистика сия σi2 формально рассматривается как ковариационный момент между Xi и Xi. Ковариационная матрица даёт полное представление о линейной связи между величинами рассматриваемой совокупности. Анализ матрицы позволяет выявить те компоненты, между которыми линейная зависимость наиболее существенна. Величина ковариационного момента Kxy зависит от дисперсий σx2 и σy2 величин X и Y. Поэтому затруднительно судить о силе линейной связи между величинами, опираясь на значение коэффициента Kxy. Если, например, Kxy > Kuv, то ещё нельзя утверждать, что линейная связь между Y и X сильнее, чем между величинами V и U. Это связано с тем, что у пары величин Y и X дисперсии могут значительно отличаться от дисперсий пары V и U. С целью устранения этого неудобства для измерения силы линейной связи был введён коэффициент корреляции: rxy = K xy σxσ y . (3.20) Коэффициент корреляции является безразмерной величиной, не зависящей от дисперсий σx2 и σy2, причём всегда выполняется неравенство: |rxy| ≤ 1 или –1 ≤ rxy ≤ 1. (3.21) Если |rxy| = 1, то имеется функциональная линейная связь между величинами Y и X, т.е. Y = aX + b, где a и b – некоторые постоянные коэффициенты. Если rxy = –1, то a < 0, если rxy = 1, то a > 0. Другими словами, при rxy = –1 имеем монотонно убывающую функцию связи между Y и X, а при rxy = 1 – монотонно возрастающую функцию. Если rxy = 0, то линейная связь между величинами Y и X отсутствует. Последнее означает, что или величины Y и X являются статистически независимыми, или между ними существуют только нелинейные виды связей. При рассмотрении совокупности n случайных величин (n > 2) используется корреляционная матрица – матрица, составленная из коэффициентов корреляции:  1   r21 R= ...  r  n1 r12 1 ... rn 2 ... r1n   ... r2 n  . ... ...   ... 1  (3.22) Корреляционная матрица более наглядно представляет линейные связи между рассматриваемыми величинами. Из определения ковариационного момента и коэффициента корреляции следует, что всегда имеют место равенства Kxy = Kyx и rxy = ryx. Таким образом, ковариационная (3.19) и корреляционная (3.22) матрицы являются симметричными относительно главных диагоналей. Если коэффициент rxy между величинами X и Y равен нулю, то говорят, что эти случайные величины являются некоррелированными. Если rxy ≠ 0, величины называют коррелированными. Статистически независимые величины являются некоррелированными. Обратное утверждение в общем случае не является верным. Вычисление начальных моментов почти всегда менее трудоёмко, чем вычисление центральных моментов. Поэтому для определения центральных моментов часто применяют формулы связи между начальными и центральными моментами. В частности, для ковариационного момента Kxy = M{(X – mx)⋅(Y – my)} = M{XY – mxY – myX + mxmy}. Пользуясь свойствами математического ожидания, получим: Kxy = M{XY} – mxmy или Kxy = ν11 – mxmy. 66 (3.23) Многомерные случайные величины Из формулы (3.23) вытекает одно очень важное свойство математических ожиданий. Если ковариационный момент (или коэффициент корреляции) равен нулю, то математическое ожидание произведения случайных величин равно произведению их математических ожиданий. Справедливо и обратное утверждение. Однако из равенства ν11 = mxmy ещё не следует, что величины X и Y являются статистически независимыми. Пример 3.5. Вычислить числовые характеристики mx, my, Dx, Dy, Kxy и rxy для двухмерной дискретной случайной величины, заданной в примере 3.1. Для определения характеристик mx, my, Dx и Dy воспользуемся одномерными законами распределения вероятностей, уже определёнными в примере 3.1: s q i =1 j =1 m x = ∑ xi pi* = 3 ⋅ 0,15 + 4 ⋅ 0,25 + 6 ⋅ 0,35 + 8 ⋅ 0,25 = 5,55; m y = ∑ y j p* j = −1 ⋅ 0,16 + 0 ⋅ 0,26 + + 1 ⋅ 0,25 + 2 ⋅ 0,20 + 3 ⋅ 0,13 = 0,88. Найдём 2-е начальные моменты для величин X и Y: s M { X 2 } = ∑ xi2 pi* = 9 ⋅ 0,15 + 16 ⋅ 0,25 + 36 ⋅ 0,35 + 64 ⋅ 0,25 = 33,95; M {Y 2 } = i =1 q = ∑ y 2j p* j = +1 ⋅ 0,25 + 2 ⋅ 0,20 + 3 ⋅ 0,13 = 0,88. j =1 Следовательно, Dx = 33, 95 – (5, 55)2 ≈ 3, 15 и Dy = 2, 38 – (0, 88)2 ≈ 1, 61. Тогда средние квадратические отклонения будут равны: σ x = Dx = 3,15 ≈ 1,77; σ y = Dy = 1,61 ≈ 1,27. Ковариационный момент вычисляется непосредственно по исходной таблице вероятностей. Применим формулу (3.23) s q K xy = ν 11 − m x m y = M { XY } − m x m y = ∑∑ xi y j − m x m y = i =1 j =1 = 3 ⋅ ((−1) ⋅ 0,03 + 0 ⋅ 0,04 + 1 ⋅ 0,03 + 2 ⋅ 0,03 + 3 ⋅ 0,02) + + 4 ⋅ ((−1) ⋅ 0,04 + 0 ⋅ 0,06 + 1 ⋅ 0,07 + 2 ⋅ 0,05 + 3 ⋅ 0,03) + + 6 ⋅ ((−1) ⋅ 0,05 + 0 ⋅ 0,08 + 1 ⋅ 0,09 + 2 ⋅ 0,08 + 3 ⋅ 0,05) + + 8 ⋅ ((−1) ⋅ 0,04 + 0 ⋅ 0,08 + 1 ⋅ 0,06 + 2 ⋅ 0,04 + 3 ⋅ 0,03) − 5,55 ⋅ 0,88 = −0,024. K xy − 0,024 = ≈ −0,011. Следовательно, коэффициент корреляции будет равен rxy = σ x σ y 1,77 ⋅1,27 Существует очень слабая линейная связь между X и Y. Однако коэффициент корреляции настолько мал, что этой линейной связью можно пренебречь. Для выявления нелинейной связи необходимо вычислять смешанные моменты более высоких порядков. Пример 3.6. Вычислить числовые характеристики mx, my, Dx, Dy, Kxy и rxy для двухмерной непрерывной случайной величины, заданной в примере 3.3. Одномерные плотности распределения вероятностей, найденные в примере 3.3, имеют одинаковую структуру. Поэтому математические ожидания и дисперсии величин X и Y будут равными. Одномерная плотность fX(x) имеет следующий вид: 1 f X ( x ) = (cos x + sin x ) . Найдём mx и Dx, применяя интегрирование по частям: 2 67 Теория вероятностей и математическая статистика π 2 ∞ π π 1 1 m x = x ⋅ f X ( x )dx = x(cos x + sin x )dx = [( x sin x + cos x ) 2 − ( x cos x − sin x ) 2 ] = 20 2 −∞ ∫ = 1 π π [ − 1 + 1] = . 2 2 4 Dx = | ∫ π2 8 + Dx = M { X 2 } − m x2 = 2 π 2 1 2 x [cos x + sin x ]dx −m x2 . 20 ∫ π π π π  −2 −  = + − 2. Итак, mx = m y = 4 2 16 2 4 π | 2 è Интегрируя, Dx = Dy = π2 16 + π 2 получим: − 2. Ковариационный момент вычислим по формуле (3.23): ν 11 = M { XY } = ∞ ∞ 1 1 π 2 π 2 ∫ ∫ xyf ( x, y)dxdy = 2 ∫ ∫ xy cos( x − y)dxdy = 2 ∫ y ∫ x cos( x − y)dxdy = − ∞− ∞ = π π 2 2 0 0 π 2 π 2 1 π π π 1 π π2 π y [ sin( − y ) + cos( − y ) − cos y ] dy = y [( − 1 ) cos y + sin y ] dy = − + 1. 2 ∫0 2 2 2 2 ∫0 2 8 2 π2 π π2 π2 π Тогда K xy = ν 11 − m = − +1− = − + 1 . Следовательно, коэффициент 8 2 16 16 2 K xy (π − 4) 2 π2 π π2 π = ( − + 1) ( + − 2) = 2 . корреляции r xy будет равен: rxy = σxσ y 16 2 16 2 π + 8π − 32 2 x Численные расчёты показывают, что mx = my ≈ 0,785, Dx = Dy ≈ 0,188, Kxy ≈ 0,046 и rxy ≈ ≈ 0,246. Последнее означает, что между величинами X и Y существует линейная связь. Если ставится задача по прогнозированию ожидаемых значений величины Y по известным значениям величины X, то можно пользоваться линейной функцией y = ax + b (вопрос определения коэффициентов a и b этой функции будет рассмотрен позднее). При этом точность прогноза будет достаточно низкой, так как коэффициент корреляции относительно мал. Можно предположить, что имеется ещё и нелинейная связь. Если учесть её, то можно повысить точность прогнозирования. 3.6 Условные числовые характеристики. Линии регрессии. Корреляционное отношение Числовые характеристики, найденные на основе условных законов распределения вероятностей, называются условными числовыми характеристиками случайных величин. При анализе зависимости между величинами часто ограничиваются рассмотрением условного математического ожидания и условной дисперсии. Для двухмерной случайной величины (X, Y) можно определить два условных закона распределения вероятностей: условный закон для величины Y по отношению к X и условный закон распределения величины X по отношению к Y. Таким образом, можно выделить две группы условных числовых характеристик: условные числовые характеристики случайной величины Y по отношению к X и условные числовые характеристики случайной величины X по отношению к Y. Условное математическое ожидание величины Y по отношению к X будем обозначать через my(x), а условное математическое ожидание величины X по отношению к Y – через mx(y). Условные дисперсии будем обозначать через Dy(x) и Dx(y). 68 Многомерные случайные величины Для непрерывных случайных величин (X, Y) m y ( x) = ∞ ∫ y ⋅ f ( y | x)dy и ∞ mx ( y) = −∞ ∫ x ⋅ f ( x | y)dx. (3.24) −∞ Для дискретных величин (X, Y) с вероятностями pij = P{X < xi, Y < yj}, i = 1, 2, …, s, j = = 1, 2, …, q, условные математические ожидания определяются формулами (см. (3.14)): m y ( xi ) = 1 q ⋅ ∑ y j pij pi* j =1 и mx ( y j ) = 1 s ⋅ ∑ xi pij . p* j i =1 (3.25) Условное математическое ожидание имеет большое значение при исследовании статистической зависимости между величинами. Если нужно предсказывать ожидаемые значения величины Y по известным значениям величины X, то следует использовать условное математическое ожидание. Функция y = my(x) (3.26) называется регрессией величины Y на X, а график этой функции – линией регрессии Y на X. Оказывается, что применение этой функции для прогнозирования ожидаемых значений Y обеспечивает минимальную среднеквадратическую ошибку прогнозирования. Пусть для прогнозирования мы применяем функцию y = ϕ(x). Тогда средний квадрат ошибки прогнозирования будет равен M{[Y – ϕ(X)]2}. При любых законах распределения минимум этой величины достигается в случае ϕ(x) = my(x). Аналогично определяется регрессия величины X на Y: x = mx(y). Линии регрессии y = my(x) и x = mx(y) расположены на координатной плоскости XOY симметрично относительно биссектрисы первого и третьего координатных углов. В связи с этим регрессии y = = my(x) и x = mx(y) можно считать взаимно обратными функциями. Регрессия не охватывает всю глубину статистической связи между величинами. Может оказаться, что my(x) = my. В таком случае регрессия оказывается бесполезной с точки зрения возможного прогнозирования. Однако нельзя делать вывод, что величина X не влияет на Y. Действительно, величина X, не оказывая влияния на математическое ожидание величины Y, может существенно влиять на её дисперсию или на её моменты более высоких порядков. Для уточнения характера влияния одной величины на другую используются условные моменты более высоких порядков, в частности условная дисперсия. Для непрерывных случайных величин (X, Y) ∞ ∞ D y ( x) = ∫ [ y − m y ( x)]2 ⋅ f ( y | x)dy; D x ( y ) = ∫ [ x − m x ( y )]2 ⋅ f ( x | y )dx. −∞ (3.27) −∞ Аналогичные формулы для дискретных величин (X, Y) с вероятностями pij = P{X < < xi, Y < yj}, i = 1, 2, …, s; j = 1, 2, …, q, имеют следующий вид: D y ( xi ) = 1 q 1 s ⋅ ∑ [ y j − m y ( xi )]2 pij ; D x ( y j ) = ⋅ ∑ [ xi − m x ( y j )]2 pij . pi* j =1 p* j i =1 (3.28) Подчеркнём ещё раз, что тождественное совпадение условных и безусловных дисперсий не позволяет делать вывод о независимости случайных величин. Это замечание относится к любым условным характеристикам. Если хотя бы одна из условных характеристик не совпадает с соответствующей безусловной характеристикой, то рассматриваемые величины являются статистически зависимыми. Вернёмся снова к упомянутой выше задаче прогнозирования ожидаемых значений одной величины по известным значениям другой величины. Пусть прогнозируются значения величины Y по известным значениям величины X с использованием известной 69 Теория вероятностей и математическая статистика регрессии y = my(x). На самом деле в результате опыта будут появляться значения величины Y, отличающиеся от прогнозируемых значений: y = my(x) + ξ. Случайная величина ξ является ошибкой прогнозирования. Тогда средний квадрат Dост ошибки ξ будет равен: Dост = M{ξ2} = M{[Y – my(X)]2}. (3.29) Величина Dост называется остаточной дисперсией. Смысл термина «остаточная дисперсия» заключается в следующем. Неопределённость в предсказании ожидаемых значений Y полностью определяется дисперсией Dy. Сама дисперсия Dy обусловлена, вопервых, влиянием на Y величины X, во-вторых, всеми другими (неучтёнными в данном опыте) факторами. Если проводится прогнозирование Y с использованием регрессии y = my(x), то неопределённость, связанная с влиянием X, снимается. Остаётся неопределённость, обусловленная неучтёнными факторами, которая характеризуется остаточной дисперсией. Не следует путать остаточную дисперсию с условной дисперсией. Первая из них есть число, а вторая – функция. Представим дисперсию Dy в виде суммы двух компонент: D y = M {[Y − m y ] 2 } = M {[Y − m y ( X ) + m y ( X ) − m y ] 2 } = M {[Y − − m y ( X )] 2 } + 2 M {[Y − m y ( X )][m y ( X ) − m y ]} + M {[ m y ( X ) − m y ] 2 }. Можно показать, что второе слагаемое в этом выражении равно нулю. Тогда Dy = M{[Y - my(X)]2} + M{[my(X) – my]2}. Поделим равенство (3.30) на Dy: M {[Y − m y ( X )]2 } Dy + (3.30) M {[ m y ( X ) − m y ] 2 } Dy = 1. Первое слагаемое в левой части этого соотношения представляет долю дисперсии Dy, обусловленную неконтролируемой компонентой ξ, второе слагаемое – долю дисперсии Dy, обусловленную контролируемой компонентой my(X). Это второе отношение используется в качестве меры статистической связи между величинами Y и X. Оно называется корреляционным отношением и обозначается η 2y / x (читается: «эта квадрат игрек на икс»). Таким образом, η 2 y/x = M {[m y ( X ) − m y ] 2 } Dy = 1− M {[Y − m y ( X )] 2 } Dy = 1− Dост . Dy (3.31) Для корреляционного отношения η 2y / x всегда справедливо неравенство: 0 ≤ η 2y / x ≤ 1. (3.32) Равенство η 2y / x = 0 означает, что my(X) ≡ my. При этом оказывается, что остаточная дисперсия Dост совпадает с дисперсией Dy, т.е. прогнозирование вообще невозможно. Из этого факта нельзя сделать вывод о полной независимости рассматриваемых случайных величин, поскольку может иметь место влияние X на другие числовые характеристики величины Y. Если η 2y / x = 1, то существует функциональная связь между Y и X, которая точно описывается регрессией y = my(x). Остаточная дисперсия Dост будет равна нулю, и прогнозирование ожидаемых значений величины Y по известным значениям величины X с помощью регрессии будет точным. Аналогично определяется и второе корреляционное отношение η 2x / y . Корреляционные отношения могут совпадать или не совпадать. Поэтому при изучении зависимости между величинами необходимо вычислять оба отношения. 70 Многомерные случайные величины Корреляционные отношения характеризуют и линейную и нелинейную связь в совокупности. Поэтому всегда справедливы два неравенства: η 2y / x ≥ rxy2 и η 2x / y ≥ rxy2 , (3.33) где rxy – коэффициент корреляции между величинами X и Y. Сравнивая коэффициент корреляции с корреляционными отношениями, можно сделать определённые выводы о характере статистической зависимости. Так, если корреляционные отношения велики по сравнению с квадратом коэффициента корреляции, то преобладает нелинейная связь между величинами. Если, напротив, η 2y / x ≈ rxy2 и, одновременно, η 2x / y ≈ rxy2 , то преобладает линейная связь. Если хотя бы одно из корреляционных отношений равно нулю, то линейная связь полностью отсутствует. 3.7. Двухмерное нормальное распределение Двухмерная случайная величина (X,Y) с нормальным законом распределения вероятностей встречается относительно часто при рассмотрении конкретных практических задач. Проведём краткий анализ такой двухмерной случайной величины. Говорят, что двухмерная случайная величина (X,Y) распределена по нормальному закону, если её плотность распределения вероятностей имеет следующий вид: 1 f (x , y ) = ⋅ ϕ( x , y ), где ϕ( x , y ) = (3.34) 2 πσ x σ y 1 − rxy2   (x − mx ) 2 ( x − m x )( y − m y ) ( y − m y ) 2   1 2 r =exp− − +   . xy 2 σxσy σ 2y σ 2x    2(1 − rxy )  Найдём одномерную плотность распределения вероятностей fX(x). Выражение, стоящее в квадратных скобках, можно преобразовать, выделяя полный квадрат, получим: 2 2  y − my x − mx  2 (x − m x ) . − rxy   + (1 − rxy ) σ x  σ 2x  σ y ∞ Тогда f X ( x ) = ∫ ( x − mx ) 2 1 1 × exp{ − }⋅ 2 2σ x 2 πσ x 2 πσ y 1 − rxy2 f ( x , y )dy = −∞ ∞ × 1 ∫ exp{− 2(1 − r 2 xy ) −∞ Получим: f X ( x ) = ⋅ 2 πσ x exp{ − 1− (x − mx ) 2 2σ 2x y − my σy 1 Сделаем замену переменной, положив 1 [ }⋅ rxy2 1 2π [ − rxy x − mx 2 ] dy . σx y − my σy ∞ ∫ exp{ − −∞ − rxy x − mx ] = t, σx dy σ y 1 − rxy2 = dt. t2 } dt . 2 Последний интеграл вместе с коэффициентом, стоящим перед ним, представляет собой интеграл от плотности распределения вероятностей некоторой случайной величины T. Этот интеграл называют ещё интегралом Пуассона, он равен единице: 1 2π ∞ ∫ exp{ − −∞ t2 } dt = 1. 2 71 Теория вероятностей и математическая статистика Окончательно, (x − mx ) 2 1 exp{ − }. (3.35) f X (x) = 2 σ 2x 2 πσ x Очевидно, что плотность fY(y)будет иметь такую же структуру, однако в ней вместо параметров mx и σx2 будут стоять my и σy2 Таким образом, fX(x) представляет собой обычную плотность нормального распределения одномерной случайной величины X. Это означает, что математическое ожидание и дисперсия величины X равны соответственно mx и σx2. Аналогично можно убедиться, что my и σy2 являются соответственно математическим ожиданием и дисперсией случайной величины Y. Достаточно громоздкие, но простые вычисления приводят к выводу, что параметр rxy является не чем иным, как коэффициентом корреляции между величинами X и Y. Таким образом, все параметры двухмерной плотности по своему смыслу соответствуют их исходным обозначениям. Поскольку известны f(x,y) и fX(x), то можно определить условную плотность распределения вероятностей f(y|x), пользуясь тем, что f(x,y)=f(y|x)fX(x): σy 1 1 exp{ − 2 f ( y|x ) = [ y − m − r ( x − m x )]2 }. y xy 2 2 σx 2σ y (1 − rxy ) σ 2 π(1 − r ) y xy Структура условной плотности распределения вероятностей полностью соответствует структуре нормального распределения. Положим σy m y ( x ) = m y + rxy ( x − m x ) и D y ( x ) = σ 2y ( x ) = σ 2y 1 − rxy2 . (3.36) σx Тогда можно записать: 1 1 exp{ − 2 [ y − m y ( x )]2 }. (3.37) f ( y|x ) = 2σ y ( x ) 2 πσ y ( x ) ( ) Из этого следует, что my(x) и Dy(x) из (3.36) есть соответственно условное математическое ожидание и условная дисперсия случайной величины Y при фиксированном значении величины X, что не противоречит введённым обозначениям. Если коэффициент корреляции rxy будет равен нулю, то окажется, что my(x)=my и Dy(x)=Dy. В таком случае условная плотность f(y|x) совпадёт с безусловной плотностью f(y) и, следовательно, случайные величины X и Y окажутся статистически независимыми. При этом, естественно, выполнится равенство f(x,y)=fX(x)fY(y), т.е.  1  ( x − m ) 2 ( y − m y ) 2   1 x f (x, y ) = exp−  (3.38) +  . 2 2 πσ x σ y 2 σ σ 2y  x    Таким образом, вопрос о том, являются ли нормально распределённые величины зависимыми или независимыми, разрешается значением всего одного параметра. Если rxy=0, то величины X и Y являются статистически независимыми. Если, напротив, rxy≠0, то эти случайные величины статистически зависимы. Всё выше изложенное приводит к выводу, что если X и Y распределены нормально, то регрессия одной величины на другую всегда будет линейной: σy σ m y ( x ) = m y + rxy ( x − m x ) и m x ( y ) = m x + rxy x ( y − m y ) . (3.39) σx σy Линии регрессии являются прямыми линиями, пересекающимися в точке (mx; my), графики линий симметричны относительно биссектрисы первого и третьего координатных углов. Другой связи между нормально распределёнными величинами быть не может. 72 Многомерные случайные величины Для прогнозирования ожидаемых значений величины Y по заданным значениям X следует воспользоваться регрессией (3.39): σy y = m y + rxy (x − mx ) . (3.40) σx При этом остаточная дисперсия Dост совпадает с условной дисперсией Dy(x): (3.41) Dост = D y ( x ) = σ 2y ( x ) = σ 2y (1 − rxy2 ) Действительно, Dост = M {[Y − m y ( X )]2 = M {[(Y − m y ) − rxy = M {[Y − m y ]2 } − 2 rxy + rxy2 σ 2y σy σx σy σx ( X − m x )]2 } = M {( X − m x )(Y − m y )} + M {[ X − m x ]2 } = σ 2y − 2rxy σy K xy + rxy2 σ 2y σ 2x . σx σ x2 σ 2x Подставляя сюда Kxy=rxyσxσy, в соответствии с (3.20), получим равенство (3.41). Таким образом, корреляционное отношение в данном случае совпадает с квадратом коэфσ 2y (1 − rxy2 ) D фициента корреляции: η 2y / x = 1 − ост = 1 − = 1 − (1 − rxy2 ) = rxy2 . Это ещё раз подDy σ 2y тверждает, что между величинами X и Y может существовать только линейная связь. Пусть коэффициент корреляции rxy равен нулю. Тогда двухмерная плотность распределения вероятностей представляется выражением (3.38). Уравнение 2 (x − mx ) 2 ( y − m y ) (3.42) + = k2 , σ 2x σ 2y определяет эллипс на координатной плоскости XOY с центром в точке (mx; my) и с осями, параллельными осям координат. Поделим это уравнение на k2 (k>0): 2 (x − mx ) 2 ( y − my ) + = 1. ( kσ x ) 2 ( kσ y ) 2 Таким образом, полуоси эллипса пропорциональны средним квадратическим отклонениям и равны соответственно kσx и kσy. Придавая константе k различные значения, получаем эллипсы различного размера. Такие эллипсы называются эллипсами рассеяния. На линии эллипса рассеяния плотность распределения вероятностей f(x,y) является постоянной, т.е. эллипсы рассеяния представляют собой линии равного уровня функции f(x,y). Если σx=σy, то рассеяние называют круговым. Эллипс, полученный при k=1, называют единичным эллипсом рассеяния. Найдём вероятность попадания точки (X;Y) внутрь эллипса рассеяния. Обозначим эту область через D. Тогда 2 (x − mx ) 2 ( y − m y ) 1 exp{ − } dxdy − P{( X ; Y ) ∈ D} = f ( x , y )dxdy = 2 πσ x σ y D 2σ x2 2 σ 2y D ∫∫ ∫∫ Перейдём к центрированным и нормированным случайным величинам, делая замену y − my dy x − mx dx = u, = v , тогда = du , = dv. σx σy σx σy Уравнение (3.42) на координатной плоскости UOV окажется уравнением окружно1 u2 + v2 сти: u2+v2=k2. Тогда P{( X ; Y ) ∈ D} = exp{ − } dudv , причём область D является 2π D 2 ∫∫ 73 Теория вероятностей и математическая статистика кругом радиуса k. Интегрирование удобно провести в полярной системе координат. Пусть u = ρ cos θ, v = ρ sin θ . Тогда элемент площади dxdy изменится на ρdρdθ. Получим: 1 P{( X ; Y ) ∈ D} = 2π 2π k k ρ2 1 ρ2 dθ exp{ − }ρdρ = − ⋅ 2 π ⋅ exp{ − } . 2 2π 2 0 ∫ ∫ Окончательно, k2 }. (3.43) 2 Таким образом, вероятность попадания точки (X;Y) в эллипс рассеяния не зависит от дисперсий. Вероятность попадания точки (X;Y) в единичный эллипс равна приблизительно 0,39. При k=3 вероятность будет равна примерно 0,99. Это означает, что почти всегда точка (X;Y) попадёт в эллипс рассеяния с полуосями 3σx и 3σy. Также легко определяется вероятность попадания двухмерной случайной величины (X;Y) в прямоугольную область со сторонами, параллельными осям координат, если только X и Y статистически независимы. Если область D определяется неравенствами: a≤ x 0. Если X имеет нор- x2 } , причём f X (− y ) = f X ( y ). Сле2σ 2 2 πσ y ⋅ exp{− 2 }, y > 0. Если y < 0, то fY(y) = 0. 2σ 2πy σ 1 Функциональные преобразования случайных величин Рассмотрим более подробно линейное преобразование случайной величины X. Пусть Y = αX + β, α ≠ 0. Тогда x( y ) = это в формулу (4.3), получим: f Y ( y ) = 1 α ( y − β ), x' ( y ) = 1 α и | x' ( y ) | = 1 |α | . Подставляя 1 1 ⋅ f X ( ( y − β)) . |α| α Линейное преобразование не изменяет типа закона распределения вероятностей. Оно приводит лишь к изменению масштаба графика плотности распределения и к переносу начала координат в точку y0 = β. Это свойство часто используется при решении задач. 4.2. Функция нескольких случайных величин Рассмотрим случайную величину Z, которая является функцией двух случайных величин X и Y: Z = ϕ(X, Y). Будем считать, что любой паре значений (x, y) двухмерной величины (X, Y) соответствует единственное значение z величины Z. Последнее означает, что функция z = ϕ(x, y) является однозначной. По определению, FZ(z) = P{Z < z}, так что FZ(z) представляет собой вероятность попадания точки (X; Y) в ту область значений (x, y), для которой выполняется неравенство ϕ(x, y) < z. Обозначим эту область через Dz. Тогда FZ ( z ) = ∫∫ f ( x, y )dxdy. (4.3) DZ Здесь Dz зависит от z, а f(x, y) – плотность распределения вероятностей двухмерной случайной величины (X, Y). Закон распределения суммы случайных величин. Пусть Z = X + Y. Тогда область интегрирования в (4.3) представляет собой полуплоскость x + y < z (рис. 4.1): y FZ ( z ) = ∫∫ x+y x z− y −∞ −∞ ∫ dy ∫ f ( x, y)dx. f ( x, y )dxdy = x+ y< z Z 0, 2 Γ(n / 2) (4.15) где Γ(z) – гамма-функция. Этот закон распределения вероятностей называется распределением χ2 с n степенями свободы. Распределение зависит только от одного параметра – от числа степеней свободы n. Это число представляет собой число статистически независимых величин, представленных в сумме (4.14). При неограниченном увеличении n распределение (4.15) неограниченно приближается к нормальному распределению. Математическое ожидание случайной величины U равно числу степеней свободы n. Отметим одно важное свойство. Сумма двух величин, распределённых по закону χ2 с n1 и с n2 степенями свободы, также распределена по закону χ2 с n = n1 + n2 степенями свободы. Распределение Стьюдента. Пусть случайная величина X распределена нормально с математическим ожиданием mx и дисперсией σx2, а величина U распределена по закону χ2 с n степенями свободы. Тогда величина T= X − mx (4.16) σx U / n будет распределена по закону Стьюдента с n степенями свободы: f (t ) = Γ((n + 1) / 2) t2 − (1 + ) Γ(n / 2) n πn 1 ⋅ n +1 2 , − ∞ < t < ∞. (4.17) Распределение Стьюдента зависит от одного параметра и также приближается к нормальному распределению при неограниченном увеличении n. Этот закон является симметричным относительно начала координат. График плотности распределения (4.17) напоминает график плотности нормального распределения. Распределение Фишера – Снедекора (F-распределение). Пусть случайная величина U распределена по закону χ2 с k степенями свободы, а величина V – по закону χ2 с n степенями свободы. Тогда величина Z = U /k n U = ⋅ будет распределена по закону Фишера – V /n k V Снедекора с k и n степенями свободы: k k −1 k −  k  2 Γ((k + n) / 2) f ( z) =   ⋅ z 2 (1 + z ) n  n  Γ ( k / 2) Γ ( n / 2) k +n 2 , z > 0. (4.18) Этот закон распределения вероятностей зависит от двух степеней свободы k и n. 82 Функциональные преобразования случайных величин Термины для запоминания ♦ Функциональное преобразование; композиция распределений; распределение χ2 (распределение «хи-квадрат»); распределение Стьюдента; распределение Фишера – Снедекора; F-распределение. Список контрольных вопросов Как определить закон распределения функция дискретной случайной величины? Каким будет закон распределения функции от случайной величины при линейном преобразовании. 3. Если нормально распределённая случайная величина преобразуется линейно, то какой закон распределения будет иметь функция? 4. Что называется композицией распределений двух случайных величин? 5. Сформулируйте первую теорему о математических ожиданиях случайных величин. 6. Сформулируйте вторую теорему о математических ожиданиях случайных величин. 7. В каком случае математическое ожидание произведения двух случайных величин равно произведению их математических ожиданий? 8. Сформулируйте первую теорему о дисперсиях случайных величин. 9. В каком случае дисперсия суммы двух случайных величин равна сумме их дисперсий? 10. Сформулируйте вторую теорему о дисперсиях случайных величин. 11. В каком случае дисперсия произведения двух случайных величин равна произведению их дисперсий? 12. Перечислите специальные распределения, полученные путём функциональных преобразований нормально распределённых случайных величин. 1. 2. Вопрос для обуждения Почему нормальное распределение имеет такое широкое применение? Объясните это, используя материал, рассмотренный в теме «Функциональные преобразования случайных величин». 83 Теория вероятностей и математическая статистика 84 Закон больших чисел. Центральная предельная теорема ТЕМА 5. Закон больших чисел. Центральная предельная теорема Студент должен освоить: • законы больших чисел в форме Чебышева и центральной предельной теоремы; приобрести навыки: • применения закона больших чисел для оценки вероятности попадания случайной величины в симметричные (относительно математического ожидания) интервалы. 85 Теория вероятностей и математическая статистика Закон больших чисел в форме Чебышева. Неравенство Чебышева. Теорема Чебышева. Теорема Бернулли. Центральная предельная теорема. Краткое содержание 5.1. Предварительные замечания Закон больших чисел говорит о свойствах сумм случайных величин при неограниченном увеличении числа слагаемых. Пусть Z – среднее арифметическое n случайных величин 1 n Z= Xk . n k =1 ∑ Закон больших чисел в форме Чебышева – это совокупность теорем, которые позволяют оценить вероятность попадания величины Z в интервал, симметричный относительно математического ожидания этой суммы. Такие суммы появляются при многократных измерениях случайных величин. Пусть требуется оценить математическое ожидание случайной величины X, не зная закона распределения вероятностей. Сделаем n измерений этой величины и в качестве оценки mx* математического ожидания возьмём среднее арифметическое полученных измерений: m *x = 1 n ∑ xi . Здесь xi, i = 1, 2, …, n, – измеренные значения X. Насколько n i =1 близко значение mx* к истинному значению математического ожидания mx? Сколько нужно сделать измерений, чтобы можно было оценить mx с удовлетворительной точностью? Можно ли, хотя бы приближённо, судить о законе распределения вероятностей такой суммы? На некоторые из таких вопросов можно ответить, применяя выводы закона больших чисел и центральной предельной теоремы. Для формулировки теорем закона больших чисел введём понятие сходимости по вероятности. Пусть Z1, Z2, …, Zn – последовательность случайных величин. Говорят, что эта последовательность сходится по вероятности к числу mz, если для любого как угодно малого положительного числа ε выполняется равенство: lim P{| Z n − m z |< ε} = 1 . (5.1) n →∞ Особенность сходимости по вероятности состоит в том, что нельзя полностью отвергать событие |Zn – mz | ≥ ε при n→∞. Здесь уместно вспомнить, что вероятность невозможного события равна 0, но обратное утверждение не всегда является верным, т.е. событие, имеющее нулевую вероятность, может, тем не менее, произойти. Свойства сумм случайных величин рассматривает также центральная предельная теорема. При определённых условиях закон распределения суммы случайных величин при неограниченном увеличении числа слагаемых неограниченно приближается к нормальному закону. Центральная предельная теорема указывает на эти условия. 5.2. Неравенство Чебышева Пусть Z – произвольная случайная величина, имеющая математическое ожидание mz и дисперсию Dz. Неравенство Чебышева утверждает, что вероятность отклонения слу86 Закон больших чисел. Центральная предельная теорема чайной величины от своего математического ожидания на величину, не меньшую чем ε, ограничена сверху величиной Dz/ε2, т.е. P{| Z − m z |≥ ε} ≤ Dz ε2 (5.2) Докажем это неравенство для случая непрерывной случайной величины. Вероятность попадания случайной величины Z в интервал, указанный в (5.2), равна интегралу от плотности распределения вероятностей по области значений z, в которой | z – mz | ≥ ε: (z − mz )2 P{|Z − m z |≥ ε} = f z ( z)dz ≤ f z ( z )dz . 2 ε |z − m |≥ ε |z − m |≥ ε ∫ ∫ z z Последнее неравенство записано на том основании, что в области интегрирования отношение (z – mz)2/ε2 ≥ 1 для всех значений z. Так как подынтегральная функция не отрицательна, то расширение области интегрирования может привести только к увеличе∞ нию этого интеграла. Следовательно, P{|Z − m z|≥ ε} ≤ D 1 ( z − m z ) 2 f z ( z )dz = 2z . 2 ε −∞ ε ∫ Неравенство Чебышева можно записать в другой форме: P{|Z − m z |< ε} > 1 − Dz . ε2 (5.3) Неравенство Чебышева даёт достаточно грубую оценку вероятности. Иногда такие оценки становятся просто бесполезными. Например, пользуясь неравенством (5.3), можно иногда прийти лишь к выводу, что вероятность попадания в данный интервал не отрицательна, а неравенство (5.2) может привести к выводу, что вероятность не больше единицы. Такие оценки не несут никакой новой информации. Однако, в некоторых случаях оценки вероятности попадания случайной величины в интервал вполне приемлемы. Неравенством Чебышева пользуются тогда, когда другого подходящего способа оценки вероятности нет. Наибольшее значение неравенство Чебышева имеет в теоретическом плане, поскольку теоремы закона больших чисел базируются на неравенстве Чебышева. Пример 5.1. С помощью неравенства Чебышева оценить вероятность того, что случайная величина X отклонится от своего математического ожидания mx менее чем на 3σx, где σx – её среднее квадратическое отклонение. В данном случае ε = 3σx. Воспользуемся неравенством (5.3): P{| X − m x | < 3σ x } > 1 − σ x2 1 8 = 1 − = ≈ 0,89. 2 9 9 (3σ x ) Пример (5.1) показывает, что вероятность попадания любой случайной величины в интервал (mx – 3σx; mx + 3σx) является величиной, большей, чем 8/9. Этот нижний предел достигается в самом худшем случае. Для конкретных случайных величин эта вероятность значительно выше. Так, например, для нормально распределенной случайной величиины эта вероятность равна приблизительно 0,997. В связи с вышесказанным, интервал (mx – 3σx; mx + 3σx) принимают часто за интервал практически возможных значений случайной величины. Сам факт, состоящий в том, что для всех величин вероятность попадания в такой интервал достаточно велика, называют «законом трёх сигм». 87 Теория вероятностей и математическая статистика Пример 5.2. Пусть mx = 2, Dx = 4. С помощью неравенства Чебышева оценить вероятность того, что случайная величина примет значение из интервалов (0; 4) и (–1; 5). Для 1-го интервала ε = 2. Тогда P{| X – 2 | < 2} > 1 – 4/22 = 0. Таким образом, вероятность попадания случайной величины X в интервал (0; 4) больше нуля. Этот результат не несёт новой информации, поскольку любая вероятность не отрицательна. Для 2-го интервала ε = 3. Следовательно, P{|X – 2| < 3} > 1 – 4/32 ≈ 0,56. Этот результат уже представляет интерес. 5.3. Теорема Чебышева Теорема Чебышева. Пусть случайные величины X1, X2, …, Xn попарно независимы и имеют дисперсии, ограниченные одной и той же постоянной, т.е. D{X1} ≤ C, D{X2} ≤ C, …, D{Xn} ≤ C. Тогда среднее арифметическое этих величин при n→∞ сходится по вероятности к среднему арифметическому их математических ожиданий:   1 n 1 n (5.4) lim P  Xk − M { X k } < ε  = 1. n→∞  n n k =1   k =1 ∑ ∑ 1 n ∑ X k . Здесь слагаемые независимы. Поn k =1 1 n 1 n этому m zn = M {Z n } = ∑ M { X k }, D zn = D{Z n } = 2 ∑ D{ X k }. В последней сумме кажn k =1 n k =1 Рассмотрим случайную величину Z n = дая из дисперсий D{X k } меньше или равна C. Следовательно, всегда выполняется неравенство D zn ≤ C/n. Таким образом, P{| Z n − m zn |< ε} ≥ 1 − D zn C ≥ 1 − 2 . Переходя к 2 ε nε пределу при n→∞, получим: lim P{| Z n − m zn |< ε} ≥ 1 . Из этого следует (5.4). n→∞ Для практики представляет интерес частный случай теоремы Чебышева, когда случайные величины Xk, k = 1, 2, …, n, имеют одинаковые математические ожидания и одинаковые дисперсии, т.е. M{Xk} = mx и D{Xk} = Dx для всех значений k. В этом случае 1 n  lim P  ∑ X k − m x < ε = 1 . n →∞  n k =1  (5.5) Рассмотрим практическую интерпретацию равенства (5.5). Пусть величина X с математическим ожиданием mx и дисперсией Dx измерена n раз. Измерения x1, x2, …, xn можно также считать независимыми случайными величинами с теми же характеристи- 1 n ∑ x k будет иметь характеристики: n k =1 D 1 n 1 n 1 n D{m *x } = D{ ∑ x k } = 2 ∑ D{x k } = 2 ∑ D x = x . n k =1 n n k =1 n k =1 ками mx и Dx. Тогда случайная величина m *x = M {m *x } = 1 n 1 n M {x k } = ∑ m x = m x , ∑ n k =1 n k =1 { } Для величины m *x получим: lim P m *x − m x < ε = 1 , т.е. оценка m *x с характеристиками n→∞ M {m *x } = m x и D{m *x } = Dx n (5.6) при n→∞ сходится по вероятности к истинному математическому ожиданию mx случайной величины X. Таким образом, m *x можно использовать в качестве оценки неизвестного математического ожидания. Дисперсия оценки стремится к нулю с возрастанием n. 88 Закон больших чисел. Центральная предельная теорема В практических задачах используются соответствующие неравенства Чебышева. Например, равенству (5.5) соответствует следующее неравенство Чебышева: 1 n  D P  ∑ X k − m x < ε ≥ 1 − x2 . nε  n k =1  (5.7) Пример 5.4. Технологическое оборудование обеспечивает среднее квадратическое отклонение длины изготовляемой детали от математического ожидания этой длины не более чем 0,05 см. Были измерены 50 деталей. Какова вероятность того, что среднее арифметическое этих измерений отклонится от истинного математического ожидания не более чем на 0,02? В данном случае ε = 0,02, дисперсия измеряемой величины Dx = 0,052, число изме0 ,05 2 5  1 20  рений n = 50. По формуле (5.7) P  X − m < , 02 = 1 − = 1− = 0 ,875 . ∑ k  x 2 50 ⋅ 0 ,02 40  50 k =1  5.4. Теорема Бернулли Теорема Бернулли. Относительная частота появления некоторого события в последовательности независимых испытаний стремится по вероятности к истинной вероятности этого события при неограниченном увеличении числа испытаний. Пусть проводится последовательно n независимых испытаний, в каждом из которых событие A может осуществиться с вероятностью p. Пусть в n испытаниях событие A осуществилось k раз. Тогда величина p* = k/n является частотой появления события в n испытаниях. Теорема Бернулли утверждает, что истинную неизвестную вероятность появления события A в одном испытании можно оценить с помощью p*. Пусть Xi, i = 1, 2, …, n, – двоичная случайная величина: 1, если событие A произошло в i − ом испытании, Xi =  . 0, если событие A не произошло в i − ом испытании. k 1 n pq . Тогда p * = = ∑ X i причём, M { p * } = p и D{ p * } = n n n i =1 (5.8) Теорема Бернулли утверждает, что величина p* при n→∞ стремится по вероятности к истинной вероятности p осуществления события A в одном испытании, т.е. 1 n   k lim P  ∑ X i − p < ε  = 1 или lim P  − p < ε  = 1 . n→∞ n → ∞  n  n i =1  (5.9) Таким образом, величина p* может быть использована в качестве оценки истинной неизвестной вероятности p осуществления события A в одном испытании. При конечных n теорема Бернулли применяется в форме неравенства Чебышева: pq k  P  − p < ε ≥ 1 − 2 . nε n  (5.10) Это неравенство зависит от вероятности p. Вспомним, что величина pq = p(1 – p) имеет наибольшее значение при p = 1/2 (на интервале 0 < p < 1). При этом pq = 1/4. Если вместо величины pq подставить её наибольшее значение, то неравенство может только усилиться: 89 Теория вероятностей и математическая статистика k  1 . P  − p < ε ≥ 1 − 4nε 2 n  (5.11) Пример 5.5. Сколько нужно сделать выстрелов по мишени, чтобы с вероятностью не меньшей чем 0,9 можно было утверждать, что относительная частота попаданий отклонится от истинной вероятности попадания в мишень менее чем на 0,05? Здесь ε = 0,05, задан нижний предел вероятности осуществления неравенства |p* – – p| < ε, а число испытаний n неизвестно. Воспользуемся формулой (5.11): P k / n − p < ε ≥ 1 − 1 /( 4nε 2 ) = 1 − 1 /( 4n ⋅ 0,05 2 ) = 1 − 100 / n = 0,9 . { } Отсюда, n = 1000. 5.5. Центральная предельная теорема В центральной предельной теореме говорится об условиях, при которых закон расn пределения суммы случайных величин Z n = ∑ X k неограниченно приближается к норk =1 мальному закону при n→∞. Ограничимся формулировкой теоремы для статистически независимых, одинаково распределённых, случайных величин. Теорема. Если X1, X2, …, Xn, … – независимые случайные величины, имеющие один и тот же закон распределения с математическим ожиданием mx и дисперсией σx2, то при неограниченном увеличении n закон распределения суммы Zn неограниченно приближается к нормальному закону. Другие формулировки центральной предельной теоремы расширяют область её действия. Смысл условий, предъявляемых слагаемым, сводится к тому, чтобы каждая из суммируемых величин вносила относительно малую долю в общую сумму. Практически центральная предельная теорема применяется при конечных значениях числа слагаемых величин. Если для величины Zn выполняются условия центральной предельной теоремы, то говорят, что эта величина имеет асимптотически нормальное распределение. При выполнении условий теоремы можно считать, что f z ( z) ≈ 1 2 πσ ⋅ exp{− (z − mz ) 2 2σ 2z }, − ∞ < z < ∞ , (5.12) где mz = nmx и σz2 = nσx2. Равенство будет тем точнее, чем большее n. С помощью центральной предельной теоремы можно обосновать выбор нормального распределения для аппроксимации закона распределения исследуемой случайной величины. Достаточно показать, что эта величина образуется в результате аддитивного воздействия многих мелких факторов. Рассмотренные ранее предельные теоремы Муавра – Лапласа являются одним из вариантов центральной предельной теоремы. Термины для запоминания ♦ 90 Закон больших чисел в форме Чебышева. Неравенство Чебышева. Теорема Чебышева. Теорема Бернулли. Центральная предельная теорема. Закон больших чисел. Центральная предельная теорема Список контрольных вопросов О чём говорит закон больших чисел? Что называют законом больших чисел в форме Чебышева? Сформулируйте неравенство Чебышева в двух его формах. К каким случайным величинам можно применить неравенство Чебышева? Сформулируйте теорему Чебышева. В каких условиях она применима? Какой практический вывод делается на основе теоремы Чебышева по поводу оценки математического ожидания случайной величины? 7. Сформулируйте теорему Бернулли. 8. Какой практический вывод делается на основе теоремы Бернулли по поводу оценки неизвестной вероятности события? 9. Сформулируйте центральную предельную теорему. 10. Как практически используется центральная предельная теорема? 1. 2. 3. 4. 5. 6. Вопрос для обсуждения Почему нормальное распределенпе имеет такое широкое применение в окружающем нас мире? Объясните это, опираясь на законы больших чисел. 91 Теория вероятностей и математическая статистика 92 Статистическая обработка экспериментальных данных. Оценка параметров ТЕМА 6. Статистическая обработка экспериментальных данных. Оценка параметров Студент должен освоить: • понятия выборки, вариационного ряда, эмпирических законов распределения вероятностей, эмпирических числовых характеристик, точечных и интервальных оценок неизвестных параметров; приобрести навыки: • построения гистограммы, полигона, эмпирической функции распределения вероятностей, вычисления эмпирических числовых характеристик, построения доверительных инвервалов. 93 Теория вероятностей и математическая статистика Краткое содержание 6.1. Выборка. Генеральная совокупность. Вариационный ряд. Эмпирические законы распределения вероятностей. Полигон и гистограмма. Точечные оценки параметров распределения. Свойства оценок. Понятие несмещенности, эффективности, состоятельности оценок. Методы нахождения оценок. Доверительные интервалы. Построение доверительных интервалов для параметров нормального распределения. Построение доверительного интервала для неизвестной вероятности события. Задачи математической статистики Любое понятие теории вероятностей есть отражение определённого физического процесса. Оно появляется в связи с требованием практики и представляет собой следствие некоторых экспериментов. Задачей математической статистики является обработка экспериментальных данных с целью изучения свойств случайных явлений, получения некоторой математической модели изучаемого объекта. Математическая модель объекта – это система математических соотношений, которые описывают с определённым уровнем приближения свойства величин, характеризующих объект, а также их возможные связи. Математическая модель не полностью описывает реальный объект, однако по мере изучения самой модели (вместо объекта) она может уточняться, всё полнее отражая свойства этого объекта. Если в объекте имеют место случайные явления, то его математическая модель обязательно будет включать в себя некоторые понятия теории вероятностей. Изучить определённые закономерности случайных явлений можно только с помощью многократных повторений опыта с объектом с последующей обработкой результатов. Кроме основной задачи – обработки экспериментальных данных – математическая статистика рассматривает и смежные задачи, такие, как методы регистрации, способы описания экспериментальных данных, а также само планирование эксперимента. Прежде чем проводить эксперимент, необходимо чётко сформулировать и осознать цель этого эксперимента. Характер эксперимента должен максимально соответствовать его цели в том смысле, что результаты его будут достаточными для оценки тех или иных характеристик объекта. Задачу по изучению свойств случайной величины с помощью экспериментальных данных можно поставить в разных вариантах. Во-первых, можно ограничиться лишь оценкой числовых характеристик величины X. В этом случае задача относится к группе задач оценки неизвестных параметров. В эту группу входят задачи выбора структуры оценок и задачи анализа качества этих оценок. Оценить можно не только параметры, относящиеся к одной величине (математическое ожидание, дисперсию и т.п.), но и параметры, связанные с двумя или более величинами (коэффициент корреляции, корреляционное отношение и т.п.). Более общая задача – установление закона распределения вероятностей величины X. Пусть x1, x2, ..., xn – n измерений этой величины. При отсутствии иной информации остаётся предполагать, что эти значения являются единственно возможными значениями данной случайной величины, а вероятность каждого из них равна 1/n. Исходя из этого, можно построить функцию распределения вероятностей величины X как дискретной случайной величины: F*(x) = k/n, где k – число измерений, лежащих на числовой оси левее x. Возникает вопрос, нельзя ли при конечном значении n провести сглаживание функции F*(x) так, чтобы получить функцию, близкую к истинной функции распределения? Этот вопрос рассматривается в группе задач, связанных с установлением закона распределения вероятностей по экспериментальным данным. 94 Статистическая обработка экспериментальных данных. Оценка параметров Следующая группа задач – это задачи проверки статистических гипотез. В качестве гипотез могут быть гипотезы о виде закона распределения вероятностей, гипотезы о предположительном значении тех или иных числовых характеристик, гипотезы о существовании или отсутствии статистической связи между величинами и т.д. Разработано достаточно много методов проверки статистических гипотез. Часть из них предполагает обработку данных постоянного объёма, другая часть – данных переменного объёма. Если рассматриваются несколько случайных величин в совокупности, то одной из задач математической статистики является изучение и аппроксимация статистических связей между ними. Рассмотрим, например, две случайные величины X и Y. Можно поставить следующий вопрос: зависит ли случайная величина Y от случайной величины X? Ответом на этот вопрос будет либо «да», либо «нет». Задачу в такой постановке можно отнести к группе задач дисперсионного анализа. В задачах дисперсионного анализа рассматривают обычно некоторые факторы, которые могут влиять на исследуемую величину. Факторы могут быть как количественными, так и качественными. Например, зависит ли количество дорожно-транспортных происшествий (фактор B – количественный) от цвета автомобилей (фактор A – качественный). Факторов может быть и более двух. Задачи такого типа называют ещё задачами факторного анализа. Предположим теперь, что X и Y являются статистически зависимыми величинами. Тогда можно поставить следующую задачу: найти такую функцию Y = ϕ(X), которая бы максимально отражала статистическую зависимость между величинами. С помощью такой функции можно было бы наиболее точно по заданным значениям X прогнозировать значения, которые будет принимать величина Y. Эта задача относится к группе задач регрессионного анализа. Такая задача может быть одномерной, многомерной, линейной или нелинейной. 6.2. Выборка. Вариационный ряд. Эмпирические законы распределения Пусть проводятся n независимых испытаний над случайной величиной X при неизменном комплексе условий, от которых зависят конкретные реализации этой величины. В результате испытаний получены n измерений величины X: Xn = {x1, x2, …, xn}. Совокупность Xn таких измерений называют выборкой случайной величины X, сами измерения называют элементами выборки, а число измерений n – объёмом выборки. Элементы выборки можно считать независимыми одинаково распределёнными случайными величинами, поскольку они являются результатом проведения последовательности независимых испытаний с одной и той же случайной величиной X. Предположим, что в выборке Xn представлены все возможные значения случайной величины X с частотами, пропорциональными истинным (неизвестным) вероятностям этих значений. Тогда выборку называют генеральной совокупностью. Генеральная совокупность полностью представляет закон распределения вероятностей случайной величины. Если X – дискретная случайная величина с конечным числом возможных значений, то, в принципе, можно получить генеральную совокупность при неограниченном увеличении числа измерений. По теореме Бернулли (см. п. 5.4) относительные частоты появления тех или иных возможных значений будут стремиться по вероятности к истинным вероятностям этих значений. Если X – непрерывная случайная величина, то ситуация усложняется, поскольку возможные значения случайной величины в совокупности представляют непрерывное множество. Из сказанного следует, что, во-первых, для любого конечного n нельзя утверждать, что Xn является генеральной совокупностью, во-вторых, чем больше n, тем ближе, в определённом смысле, Xn к генеральной совокупности. 95 Теория вероятностей и математическая статистика Та выборка Xn, которая достаточно хорошо сохраняет пропорции генеральной совокупности, называется представительной (или репрезентативной). Это определение представительности выборки не позволяет делать конкретные выводы, так как не указана общая мера соответствия между представительной выборкой и генеральной совокупностью. Вопрос о представительности выборки нужно решать в конкретных частных задачах, опираясь на конкретные критерии соответствия. Выборка Xn, элементы которой расположены в порядке возрастания, называется простым вариационным рядом. Разность R между наибольшим и наименьшим значениями измерений называют широтой распределения или размахом варьирования. Если одинаковые по значению элементы объединить в группы, то получается сгруппированный вариационный ряд, который представляется в виде таблицы: xr x1 x2 … xi nr ni n1 n2 … В таблице xi (i = 1, 2, ..., r) – различающиеся значения элементов; ni – число элементов, имеющих значение xi; r – число различных значений в выборке, причём n1 + n2 + ... + + nr = n. По вариационному ряду строится эмпирическая функция распределения вероятностей исследуемой случайной величины. Эмпирическая функция распределения вероятностей F*(x) определяется как отношение числа α(x) элементов выборки, меньших, чем x, к общему числу элементов n: F*(x) = α(x)/n. Эта функция будет иметь ступенчатый график. Если все элементы выборки различны, то величина ступенек будет равна 1/n. С ростом объёма выборки n величина ступенек уменьшается и стремится к нулю при n→∞. Для непрерывной величины при n→∞ эмпирическая функция F*(x) будет неограниченно приближаться к некоторой непрерывной функции F(x). Эту сходимость следует понимать как сходимость по вероятности. Если выборка имеет повторяющиеся по величине элементы, что характерно для дискретных величин, то удобнее пользоваться сгруппированным вариационным рядом. В случае дискретной величины ступенчатый характер функции F*(x) с возрастанием n сохраняется. С ростом n могут появляться дополнительные ступеньки до тех пор, пока не будут зарегистрированы все возможные значения дискретной случайной величины (если число их конечно). При большом объёме выборки и большом числе различных по величине элементов выборки пользоваться простым и сгруппированным вариационными рядами неудобно. В таком случае пользуются интервальным вариационным рядом, который строится следующим образом. Вся широта распределения разбивается на r частичных интервалов и подсчитывается число элементов ni, попавших в i-й интервал (i = 1, 2, ..., r). Для каждого интервала указываются его правая αi–1 и левая αi границы и его середина xi . Вся эта информация представляется в виде таблицы произвольной формы. Приведём один из вариантов такой таблицы: Номер интервала 96 1 2 3 … r Границы интервала α0÷α1 α1÷α2 α2÷α3 Середина интервала x1 x2 x3 … xr Число точек в интервале n1 n2 n3 … nr Относительная частота n1/n n2/n n3/n … nr/n … αr–1÷αr Статистическая обработка экспериментальных данных. Оценка параметров Для наглядного представления о форме плотности распределения случайной величины X используются понятия полигона и гистограммы распределения, которые строятся по интервальному вариационному ряду. Для построения полигона нужно из середины каждого частичного интервала восстановить перпендикуляр длиной pi* = ni/n и соединить отрезками прямых вершины этих перпендикуляров. Вершины крайних перпендикуляров соединяются с концами крайних частичных интервалов. Относительные частоты pi* представлены в таблице последней строкой. Чтобы построить гистограмму, нужно на каждом частичном интервале построить прямоугольник высотой pi* (рис. 6.1). p k* p k* Рис. 6.1. Полигон и гистограмма эмпирического распределения Относительные частоты pi* есть не что иное, как эмпирические вероятности попадания случайной величины в соответствующие интервалы (здесь и далее символ * означает, что величина определена по экспериментальным данным). Если по оси OY откладывать не pi*, а отношения pi*/∆i, где ∆i – длины частичных интервалов, то полигон и гистограмма будут различными формами представления эмпирической плотности распределения вероятностей. Любая группировка исходных данных, подобная той, которая применяется при построении интервального вариационного ряда, приводит к частичной потере информации. Интервальный вариационный ряд не содержит точных значений элементов выборки, так как все элементы, попавшие в i-й интервал (i = 1, 2, ..., r), фактически приравниваются к значению xi , находящемуся в середине интервала. Современная вычислительная техника позволяет проводить обработку данных, исходя непосредственно из простого вариационного ряда при любом объёме выборки. Использовать интервальный вариационный ряд рационально тогда, когда этого требует сам метод обработки экспериментальных данных. Пример 6.1. Для определения среднего размера мужской обуви, на который нужно ориентироваться при оптовых закупках, был проделан следующий эксперимент. В течение определённого времени в обувном магазине фиксировался размер обуви, которую приобретали покупатели. В результате была получена следующая выборка: 39, 43, 42, 40, 44, 39, 42, 41, 41, 40, 42, 41, 42, 45, 43, 44, 40, 43, 41, 42, 41, 43, 38, 41, 42, 40, 43, 40, 44, 41, 43, 41, 39, 45, 43, 46, 42, 43, 42, 40, 43, 42, 41, 43, 39, 44, 40, 43, 41, 42, 41, 43, 42, 45, 44, 42, 41, 42, 40, 44. Построить сгруппированный вариационный ряд и график эмпирической функции распределения вероятностей F*(x) случайной величины X – размера обуви, которую носит мужское население данного города. Объединяя одинаковые значения размера обуви, получим следующий сгруппированный вариационный ряд: xi ni 38 1 39 4 40 8 41 12 42 13 43 12 44 6 45 3 46 1 97 Теория вероятностей и математическая статистика Функция распределения вероятностей в точке x определяется следующим образом. Число элементов вариационного ряда, меньших, чем x, делится на объём выборки n. Например, для x∈(x1; x2] слева находится всего один элемент, т.е F*(x) = 1/60. Для x∈(x2; x3] слева уже находится пять элементов (n1 + n2), т. е. F*(x) = 5/60 = 1/12, и т.д. F*(x) F*(x) 1 1 38 40 42 44 46 Рис. 6.2. F*(x) для дискретной случайной величины x 215 220 225 x Рис. 6.3. F*(x) для непрерывной случайной величины График эмпирической функции распределения вероятностей приведён на рис. 6.2. Для сравнения на рис. 6.3 приводится график эмпирической функции распределения вероятностей непрерывной случайной величины, рассмотренной в примере 6.2. Для непрерывных случайных величин вероятность совпадения по величине двух или нескольких измерений случайной величины равна нулю. Все измерения практически всегда оказываются различными, и скачки функции F*(x) будут равны величине 1/n. Пример 6.2. Напряжение (X) в электрической сети зависит от подключаемой к ней нагрузки, которая имеет случайный характер. Для изучения колебаний напряжения в сети в течение определённого периода времени было сделано 30 измерений с точностью до десятых долей вольта. Был получен следующий вариационный ряд: 215,0 215,5 215,9 216,4 216,8 217,3 217,5 218,1 218,6 218,9 219,2 219,4 219,7 219,8 220,0 220,2 220,3 220,5 220,7 220,9 221,3 221,6 221,9 222,3 222,6 222,9 223,4 224,0 224,5 225,0. Построить график эмпирической функции распределения вероятностей случайной величины X, найти вероятность того, что напряжение в сети будет находиться в интервале от 219 до 221 вольт. Эмпирическая функция распределения вероятностей F*(x) случайной величины X строится так же, как в примере 6.1. Величина всех ступенек будет одинаковой, равной 1/30 (рис. 6.3). Вероятность попадания случайной величины в заданный интервал определяется по обычным правилам: P*{219 < X < 221} = F*(221) – F*(219) = 20/30 – 10/30 = 1/3. Таким образом, примерно в 33% случаев будет наблюдаться напряжение в сети, величина которого находится между 219 и 221 вольтами. 6.3. Эмпирические числовые характеристики Числовые характеристики случайных величин, найденные на основе экспериментальных данных, называются точечными оценками этих характеристик или эмпирическими характеристиками. Чтобы понять структуру формул, определяющих эмпирические моменты случайной величины, рассмотрим простой вариационный ряд Xn = {x1, x2, …, xn}. Можно формально считать, что рассматривается дискретная случайная величина, имеющая n возможных значений с вероятностями 1/n. Математическое ожидание этой случайной величины и дисперсия определяются по общему правилу: 1 n 1 n m x* = x i , Dx* = M {( X − m x* ) 2 } = ( x i − m x* ) 2 . (6.1) n i =1 n i =1 ∑ 98 ∑ Статистическая обработка экспериментальных данных. Оценка параметров Формулы (6.1) соответствуют простому вариационному ряду. Для сгруппированного вариационного ряда число слагаемых в (6.1) уменьшится до r, где r – число различных по величине элементов выборки, за счёт группирования одинаковых слагаемых. Для интервального вариационного ряда формулы будут иметь такую же структуру, однако вместо непосредственных измерений, в ней фигурируют середины частичных интервалов xi . Учитывая эти особенности, можно записать общие формулы для вычисления начальных ν *k и центральных µ *k эмпирических моментов случайной величины: 1 n (xi − ν1* )k ,  n i=1  1 r (xi − ν1* )k ni , µ*k =  n  i=1 1 r  (xi − ν1* )k ni , k = 1, 2, .... n i=1 1 n k xi ,  n  i=1  1 r xik ni , ν*k =  n  i=1 1 r  xik ni , n i=1 ∑ ∑ ∑ ∑ (6.2) ∑ ∑ В этих формулах первая строка соответствует простому вариационному ряду, вторая – сгруппированному, третья – интервальному вариационному ряду. Формулы связи между центральными и начальными моментами не изменяется, т.е. µ *2 = ν *2 − ν1*2 , µ *3 = ν *3 − 3ν *2 ν 1* + 2ν1*3 , µ *4 = ν *4 − 4ν *3 ν1* + 6ν *2 ν1*2 − 3ν1*4 . (6.3) Эмпирическое математическое ожидание случайной величины совпадает с первым начальным моментом ν1*, а её эмпирическая дисперсия совпадает со вторым центральным моментом µ2*. Формулы, определяющие основные характеристики случайной величины, также сохраняют свою структуру. В них достаточно заменить теоретические моменты νk и µk на эмпирические νk* и µk*. Таким образом, эмпирические характеристики асимметрия (скошенность) и эксцесс определяются по обычным формулам: Sk x* = где σ *x = µ *3 , σ *x3 Ex *x = µ *4 − 3, σ *x4 (6.4) D x* – эмпирическое среднее квадратическое отклонение величины X. При вычислении эмпирических характеристик можно делать некоторые предварительные преобразования выборки, которые приводят к упрощению вычислений. При этом опираются на соответствующие свойства математического ожидания, дисперсии и т.п. Например, математическое ожидание можно вычислять по формуле: m *x = 1 n ∑ ( xi − C ) + C. n i =1 (6.5) Постоянная величина C выбирается так, чтобы суммирование оказалось наиболее простым. Преобразование типа X – C означает сдвиг всей выборки по числовой оси на величину C. Дисперсия не изменяется, т.е. D*{X} = D*{X – C}. Можно вводить масштабный коэффициент, т.е. рассматривать величину αX вместо величины X, где α – масштабирующий множитель. При вычислениях следует учитывать, что M{αX} = αM{X}, а D{αX} = = α2D{X}. Такие преобразования часто приводят к упрощению вычислений. Если вычисления проводятся на ЭВМ, то эти преобразования не целесообразны. Пример 6.3. По выборке из примера 6.1 вычислить эмпирические математическое ожидание и дисперсию размера обуви, который пользуется спросом у населения. 99 Теория вероятностей и математическая статистика Воспользуемся формулой (6.5). Выберем C = 42 и рассмотрим величину Y = X – 42: xi – 42 ni –4 1 –3 4 –2 8 –1 12 13 1 12 2 6 3 3 4 1 Эмпирические математическое ожидание m *y = ν 1* и второй начальный момент будем вычислять по второй формуле из (6.2) для ν *k : m *y = 1 n ∑ y i ni = n i =1 1 [(−4) ⋅ 1 + (−3) ⋅ 4 + (−2) ⋅ 8 + (−1) ⋅ 12 + 0 ⋅ 13 + 1 ⋅ 12 + 2 ⋅ 6 + 3 ⋅ 3 + 4 ⋅ 1] = 60 = −7 / 60 ≈ −0,117 * * Следовательно, m x = m y + 42 = 41,883 . Это средний (эмпирический) размер обуви, = которую носит мужское население данного города. Вычислим дисперсию, пользуясь тем, что Dx* = Dy*: D x* = D *y = ν 2* − ν 1*2 = = 1 n 2 y i ni − ν 1*2 = ∑ n i =1 1 [(−4) 2 ⋅ 1 + (−3) 2 ⋅ 4 + (−2) 2 ⋅ 8 + (−1) 2 ⋅ 12 + 0 2 ⋅ 13 + 12 ⋅ 12 + 2 2 ⋅ 6 + 3 2 ⋅ 3 + 4 2 ⋅ 1] − 0,117 2 ≈ 60 ≈ 2,89. Пример 6.4. По данной выборке случайной величины X вычислить все основные эмпирические характеристики: математическое ожидание mx*, дисперсию Dx*, среднее квадратическое отклонение σx*, асимметрию Sk x* и эксцесс Ex *x . 1,8 0,8 4,5 1,2 1,3 4,0 1,6 0,5 2,3 0,2 1,5 0,0 2,7 0,3 9,6 1,3 4,7 0,6 4,0 2,8 3,4 3,0 0,3 0,6 1,0 3,5 0,7 1,4 0,1 4,6 7,3 0,8 0,2 0,5 2,5 1,1 2,7 0,6 2,0 0,9 0,3 4,1 3,7 0,4 2,1 2,7 0,1 1,2 0,7 0,3 0,9 0,2 3,3 0,4 4,9 0,1 8,0 1,2 0,1 0,7. Наибольший элемент выборки равен 9,6, наименьший – 0, размах выборки равен 9,6. Учитывая, что элементы выборки распределены не равномерно на этом интервале, ширину первых пяти частичных интервалов выберем равной 0,6, двух следующих – 1,2, а последнего интервала – 4,2. Составим интервальный вариационный ряд, подсчитав число элементов выборки, попавших в каждый частичный интервал. Если значение элемента совпадает с левой границей частичного интервала, то его следует относить к данному интервалу. Значение, совпадающее с правой границей, не включается в данный интервал. В последний интервал включается и то значение, которое совпадает с его правой границей. Вычисления проводятся в таблице, содержащей вариационный ряд и строки, необходимые для вычисления начальных моментов. 1 r 1 ⋅ ∑ x i ni = ⋅ 120 = 2, 60 n i =1 1 r 1 ν *3 = ∑ xi3 ni = ⋅ 2252,88 = 37,55, 60 n i =1 По результатам вычислений, получим: m *x = ν 1* = 1 r 2 1 ⋅ ∑ x i ni = ⋅ 447,84 = 7,46, 60 n i =1 1 r 1 ν *4 = ∑ xi4 ni = ⋅ 13351,26 = 222,52, D x* = ν *2 − ν 1*2 = 7,46 − 2 2 = 3,46, σ = D x* = 1,86. 60 n i =1 ν *2 = 100 Статистическая обработка экспериментальных данных. Оценка параметров i zi–1 ÷ zi xi ni x i ni xi2 ni xi3 ni xi4 ni 1 2 3 4 5 6 7 8 ∑ 0 ÷ 0,6 0,6 ÷ 1,2 1,2 ÷ 1,8 1,8 ÷ 2,4 2,4 ÷ 3,0 3,0 ÷ 4,2 4, 2 ÷ 5,4 5,4 ÷ 9,6 0,3 0,9 1,5 2,1 2,7 3,6 4,8 7,5 16 12 8 4 5 8 4 3 60 4,8 10,8 12 8,4 13,5 28,8 19,2 22,5 120 1,44 9,72 18 17,64 36,45 103,68 92,16 168,75 447,84 0,43 8,75 27 37,04 92,42 373,25 442,37 1265,63 2252,88 0,13 7,87 40,5 77,79 265,72 1343,69 2123,37 9492,19 13351,26 Вычислим центральные моменты по формулам (6.3): µ 3* = 37,55 − 3 ⋅ 7,46 ⋅ 2 + 2 ⋅ 2 3 = 8,79, µ 4* = 222,52 − 4 ⋅ 37,55 ⋅ 2 + 6 ⋅ 7,46 ⋅ 2 2 − 3 ⋅ 2 4 = 53,16 Таким образом, асимметрия и эксцесс будут равны: Sk x* = 6.4. µ *3 8,76 = = 1,36, *3 σ x 1,86 3 Ex *x = µ *4 53,27 −3 = − 3 = 1,44. *4 σx 3,46 2 Точечные оценки параметров. Свойства эмпирических характеристик Требуется оценить некоторый параметр θ, связанный со случайной величиной X, используя выборку Xn = {x1, x2, …, xn}. Пусть в качестве такой оценки выбрана однозначная функция от элементов выборки θ* = θ*(x1, x2, …, xn). Для конкретных значений элементов выборки эта оценка представляет собой одно число. Такие оценки называются точечными оценками параметров, так как на числовой оси они изображаются одной точкой. Задача состоит в том, чтобы найти такую оценку θ*, которая была бы в определённом смысле наиболее близкой к оцениваемому параметру θ. Как функция элементов выборки, оценка θ* является случайной величиной. Определим её математическое ожидание. Оно, очевидно, будет зависеть от истинных числовых характеристик изучаемой величины X и от объёма выборки n. Пусть получено равенство: M{θ*} = θ + ϕ(θ, n), (6.6) где ϕ(θ, n) – некоторая функция истинного значения параметра θ. Желательно, чтобы функция ϕ(θ, n) равнялась нулю. Это бы означало, что математическое ожидание оценки параметра равно истинному значению этого параметра. Оценка θ*, обладающая таким свойством, называется несмещённой оценкой параметра θ. Если ϕ(θ, n) ≠ 0, то θ* называется смещённой оценкой параметра θ, а сама функция ϕ(θ, n) называется смещением. Если при n→∞ оценка параметра сходится по вероятности к истинному значению параметра, то оценка θ* называется состоятельной оценкой параметра θ. Для дальнейшего изучения свойств оценки θ* можно определить её дисперсию, которая также окажется функцией от истинных числовых характеристик изучаемой случайной величины X и от объёма выборки n, т.е. D{θ*} = D(θ, n). Если оценка состоятельная, то D(θ, n) стремится к нулю при n→∞. Различные оценки одного и того же параметра будут иметь разные дис101 Теория вероятностей и математическая статистика персии. Та из них, которая имеет наименьшую дисперсию, называется эффективной оценкой данного параметра. Проведём краткий анализ эмпирических числовых характеристик. Найдём математическое ожидание и дисперсию оценки mx* истинного математического ожидания mx случайной величины X: M {m *x } = M { D{m *x } = D{ 1 n 1 n 1 n 1 x } = M { x } = m x = ⋅ nm x = m x . ∑ ∑ ∑ i i n i =1 n i =1 n i =1 n 1 n 1 xi } = 2 ∑ n i =1 n n ∑ D{xi } = i =1 1 n2 n ∑D i =1 x = D 1 ⋅ nD x = x . 2 n n Здесь учтено, что элементы выборки xi, являясь независимыми реализациями случайной величины X, имеют те же самые характеристики, что и сама величина X. Таким образом, M {m *x } = m x , D{m *x } = Dx . n (6.7) Из этого следует, что mx* является несмещённой и состоятельной оценкой истинного математического ожидания mx случайной величины X (D{mx*}→0 при n→∞). Аналогичный анализ для эмпирической дисперсии Dx* показывает, что M {D x* } = D x − Dx . n Таким образом, эмпирическая дисперсия является смещённой оценкой дисперсии. Смещение равно (–Dx/n) и стремится к нулю при n→∞. Однако при малом объёме выборки это смещение оказывается существенным. Для его устранения вводится поправочный коэффициент, при умножении которого на Dx* получается другая оценка дисперсии, не имеющая смещения. Эта оценка обозначается обычно через S2 (читается: «S – квадрат»): S2 = n D x* n −1 или S 2 = 1 n ( xi − m *x ) 2 . ∑ n −1 (6.8) Очевидно, что M{S2} = Dx. Вычисление дисперсии величины S2 не представляет принципиальных трудностей, но оказывается достаточно громоздким. Вычисления показывают, что эта дисперсия пропорциональна величине 1/n и, следовательно, стремится к нулю при n→∞. Таким образом, величина S2 является несмещённой и состоятельной оценкой истинной дисперсии Dx. Её рекомендуется использовать вместо оценки Dx*, особенно при малых значениях n. Свойством несмещённости обладают только первые два эмпирических момента. Моменты более высоких порядков ни при каких весовых коэффициентах суммирования таким свойством не обладают, т. е. они всегда имеют неустранимое смещение. Рассмотрим кратко методы нахождения оценок. Один из методов предполагает задание структуры оценки с точностью до неизвестных параметров, которые определяются из условия минимума дисперсии оценки. Примером применения этого метода является определение оценки математического ожидания случайной величины в случае неравноточных измерений. Пусть по выборке Xn = {x1, x2, …, xn} требуется оценить параметры mx и Dx, причём измерения xi были произведены с разной точностью, т.е. M{xi} = mx, M{(xi – mx)2} = σi2, i = 1, 2, …, n. Чем меньше дисперсия измерения, тем больше доверия этому измерению, т.е. измерения должны учитываться оценкой с разными весовыми коэффициентами. Исходя из этого, выберем следующую структуру оценки: 102 Статистическая обработка экспериментальных данных. Оценка параметров n m *x = ∑ bi xi . (6.9) i =1 Чтобы оценка была несмещённой, необходимо выполнение условия: n n n i =1 i =1 i =1 M {m *x } = M {∑ bi xi } =∑ bi M {xi } =m x ∑ bi = m x , n т.е. ∑b i i =1 = 1 . Коэффициенты bi нужно выбрать так, чтобы они минимизировали бы дис- персию D{m x* } = D{ n ∑ i =1 оценки. n Так n ∑b x } = ∑b i =1 i i i =1 2 2 i σi как измерения статистически независимы, то . Коэффициенты bi должны определяться из условия: b i2 σ i2 = min , i = 1, 2 , ..., n , при ограничении bi n ∑b i =1 i = 1. Проводя минимизацию, получим: σ2 α bi = n i , где α i = n2 . σi αj ∑ (6.10) j =1 Итак, при неравноточных измерениях для оценки математического ожидания следует пользоваться формулой (6.9), подставляя в неё коэффициенты bi из (6.10). Второй метод нахождения оценок – метод моментов. В этом методе используются теоретические формулы, которые связывают оцениваемый параметр с моментами случайной величины. Для получения оценки неизвестного параметра нужно в соответствующую формулу подставить вместо теоретических моментов эмпирические моменты. Предположим, например, что случайная величина X распределена по экспоненциальному закону: f(x) = λexp{–λx}, где λ > 0, x > 0, причём параметр λ неизвестен. Требуется оценить этот параметр. Пусть по выборке Xn получена оценка математического ожидания mx* исследуемой случайной величины. С другой стороны, известна формула, связывающая параметр λ экспоненциального распределения с математическим ожиданием mx: λ = = 1/mx. Подставляя в эту формулу вместо mx оценку mx*, получим оценку параметра λ: λ* = = 1/mx*. В некоторых случаях оценки, полученные этим простым способом, совпадают с оценками, полученными с помощью других, более сложных методов. Третий метод – метод наибольшего правдоподобия. Этот метод требует знания закона распределения случайной величины с точностью до неизвестных параметров. Предположим, что плотность распределения вероятностей величины X равна fX(x, θ), где θ – неизвестный параметр, который требуется оценить. Тогда каждое измерение xi из выборки Xn = {x1, x2, …, xn} будет иметь плотность распределения fX(xi, θ). Элементы выборки xi являются статистически независимыми, поэтому n – мерная плотность распределения вероятностей выборки равна произведению одномерных плотностей, т.е. n f ( x 1 , x 2 , ..., x n , θ ) = ∏ f X ( x i , θ ). i =1 (6.11) Эту плотность называют функцией правдоподобия. Можно предполагать, что в выборке чаще встречаются те возможные значения величины X, для которых плотность распределения имеет относительно большие значения. Из этого следует, что в качестве оценки параметра θ логично взять такое значение, которое максимизирует функцию 103 Теория вероятностей и математическая статистика правдоподобия. Однако с целью упрощения вычислений используют не функцию правдоподобия непосредственно, а её натуральный логарифм: n L( x1 , x 2 , ..., x n ,θ ) = ∑ ln[ f X ( xi ,θ )] . (6.12) i =1 Доказано, что эта функция имеет максимум, причём значение θ = θ*(x1, x2, …, xn), при котором достигается этот максимум, является оценкой параметра θ, обладающей наименьшей дисперсией. Таким образом, для определения оценки нужно решить уравнение ∂L( x1 , x 2 , ..., x n , θ ) = 0. ∂θ (6.13) Решение этого уравнения θ*( x1, x2, …, xn) и будет оценкой параметра θ. Оценки, найденные таким способом, называются оценками максимального (или наибольшего) правдоподобия. Оценки максимального правдоподобия всегда являются эффективными оценками. Пример 6.5. По выборке объёма n = 20 найдена оценка дисперсии Dx* случайной величины X: Dx* = 4,8. Определить несмещённую оценку S2 неизвестной дисперсии. n 20 D x* = ⋅ 4 ,8 ≈ 5 ,05 . n −1 19 Воспользуемся формулой (6.9): S 2 = Пример 6.6. Некоторая постоянная величина C была измерена тремя измерительными приборами по 4 раза каждым. Измерения, полученные с помощью первого прибора, равны 4,75, 4,9, 5,05, 4,85, с помощью второго прибора – 4,9, 5,1, 4,7, 5,15, с помощью третьего прибора – 4,7, 4,95, 5,05, 5,25. Класс точности измерительных приборов такой, что первый из них обеспечивает среднее квадратическое отклонение измерений σ1 = 0,1, второй – σ2 = 0,15, третий – σ3 = 0,2. Требуется оценить истинное значение величины C. Измерения величины C являются неравноточными. Поэтому применим для оцен- ки формулу (6.9). Вычислим коэффициенты bi по формулам (6.10): α 1÷ 4 = 2 σ12 0,2 2 = = 4, σ12 0,12 2 σ12 0,2 2 16 = = , α 9÷12 = 1. Поскольку каждым прибором было сделано по 4 из9 σ 22 0,15 2 12 16 61 мерения, то n = 12, и, следовательно, ∑ α i = 4 ⋅ 4 + 4 ⋅ + 4 ⋅ 1 = 4 ⋅ ≈ 27,11 . 9 9 i =1 4 16 1 Таким образом, b1÷ 4 = ≈ 0,148, b5 ÷8 = ≈ 0,066, b9 ÷12 = ≈ 0,037 . 27,11 27,11 ⋅ 9 27,11 α 5÷8 = Подставим найденные значения и соответствующие измерения в формулу (6.10): mx* = C* = 0,148(4,75 + 4,9 + 5,05 + 4,85) + 0,066(4,9 + 5,1 + 4,7 + 5,15) + + 0,037(4,7 + 4,95 + 5,05 + 5,25) = 2,8934 + 1,3101 + 0,7382≈4,94. Итак, в качестве оценки истинного значения величины C следует взять C* = 4,94. Пример 6.7. Построить оценку максимального правдоподобия для параметра λ случайной величины X с плотностью распределения вероятностей fX(x) = λexp{–λx}, x > 0. Пусть имеется выборка: Xn = {x1, x2, …, xn}. Тогда функция правдоподобия будет равна n n n i =1 i =1 i =1 f ( x1 , x 2 , ..., x n , λ ) = ∏ f X ( xi , λ ) = ∏ [λ exp(−λxi )] = λn exp{−λ ∑ xi }. 104 Статистическая обработка экспериментальных данных. Оценка параметров Найдём логарифм функции правдоподобия: n L( x1 , x 2 , ..., x n , λ ) = ln[ f ( x1 , x 2 , ..., x n , λ )] = n ln λ − λ ∑ xi . i =1 Приравнивая производную этой функции по параметру λ к нулю, получим уравнение, определяющее оценку этого параметра: λ* = n = n ∑x i =1 i ∂L n n = − ∑ xi = 0, откуда следует, что ∂λ λ i =1 1 . Полученная максимально правдоподобная оценка полностью совпадает m *x с оценкой этого параметра с помощью метода моментов. 6.5. Доверительные интервалы. Общие определения Точечные оценки оценивают неизвестное значение параметра одним числом. Недостатком точечных оценок является то, что в них не указывается точность оценки параметра при выборках конечного объёма. Можно лишь сказать, что при n→∞ оценки параметров сходятся по вероятности к истинным значениям этих параметров. Иногда удобнее оценивать значение параметра с помощью интервала, в который это значение попадает с определённой вероятностью. Пусть θ – оцениваемый параметр, а θ1 и θ2 – две функции элементов выборки x1, x2, …, xn, такие, что θ1 < θ2. Если выполняется соотношение (6.14) P{θ1 < θ < θ2} = γ, то интервал (θ1, θ2) называется 100 γ-процентным доверительным интервалом параметра θ. Другими словами, доверительный интервал – это интервал, в котором с заданной вероятностью находится значение неизвестного параметра. Значения θ1 и θ2 называют соответственно нижней и верхней границами доверительного интервала, а γ – доверительной вероятностью или коэффициентом доверия. Неважно, каким образом были получены границы интервала θ1 и θ2, важен сам факт выполнения соотношения (6.14). Доверительный интервал даёт определённую информацию о точности оценки данного параметра. Для построения доверительного интервала необходимо знать тот или иной закон распределения вероятностей. Предположим, например, что неизвестный параметр θ можно интерпретировать как некоторую случайную величину с известной плотностью распределения вероятностей f(θ). Пусть θ* = θ*(x1, x2, …, xn) – точечная оценка параметра θ. Тогда в некоторых случаях можно определить условную плотность распределения f (θ | θ * ) = вероятностей f (θ * | θ) f (θ) ∞ ∫ f (θ * . Следовательно, из соотношения | θ) f (θ)dθ −∞ P{θ1 < θ < θ 2 } = θ2 ∫θ f (θ | θ * )dθ = γ можно определить границы θ1 и θ2 доверительного ин- 1 тервала с доверительной вероятностью γ. Однако не всегда можно задать неизвестный параметр плотностью распределения вероятностей. Обычно неизвестный параметр является некоторой постоянной величиной. Поэтому при построении доверительного интервала пользуются не условной плотностью распределения f(θ | θ*), а условной плотностью f(θ* | θ). Рассмотрим один из возможных способов построения доверительного интервала с использованием этой плотно105 Теория вероятностей и математическая статистика сти. Зададим некоторую доверительную вероятность γ и рассмотрим соотношение P{| θ* – – θ | < δ} = γ. Это соотношение определяет симметричный относительно θ доверительный интервал. Рассматривая это соотношение как уравнение относительно δ, можно определить δ, используя известную плотность f(θ*|θ). Тем самым доверительный интервал будет найден. Действительно, P{| θ* – θ | < δ} = P{–δ < θ* – θ < δ} = P{θ – δ < θ* < θ + δ} = P{θ* – δ < θ < θ* + + δ} = γ. Последнее равенство означает, что θ ∈(θ* – δ, θ* + δ) с вероятностью γ. Данные соотношения показывают, что при построении доверительного интервала можно исходить как из плотности f(θ* | θ), так и из плотности f(θ | θ*). Величина δ определяет ширину доверительного интервала. Для фиксированного значения довериθ θ2 тельной вероятности γ и для неизменной плотности θ1 f(θ* | θ) эта величина является постоянной. Границы δ доверительного интервала определяются равенстваθ* ми θ = θ*−δ и θ = θ* + δ. Если считать θ и θ* перемен-δ θ* ными, то эти два равенства являются уравнениями Рис. 6.4. Доверительная область прямых линий. Вся область, заключённая между с прямолинейными границами этими прямыми, называется доверительной областью (рис. 6.4). Располагая доверительной областью можно определить доверительный интервал для любого значения оценки θ*. На рисунке указаны границы доверительного интервала θ1 и θ2 для произвольного значения оценки θ*. Границы доверительной области не обязательно являются прямыми линиями. Форма доверительной области определяется структурой самой оценки и, прежде всего, видом закона распределения f(θ* | θ). Здесь рассмотрен самый простой случай построения доверительной области. На рис. 6.5 изображена доверительная область для неизвестной вероятности события. Границами этой области является линия эллипса (см. п. 6.7). Для дискретных случайных величин не всегда можp но найти доверительный интервал, имеющий коэффици1 ент доверия, в точности равный γ, если γ задано произвольp2 но. Это связано с тем, что закон распределения дискретной случайной величины имеет ступенчатый характер. p1 Установление доверительного интервала не ознаp* чает того факта, что неизвестный параметр принадлежит 1 p* этому интервалу. Можно лишь утверждать, что с вероятностью γ этот параметр находится внутри интервала. При Рис. 6.5. Доверительная область в форме эллипса этом, разумеется, с вероятностью 1 – γ данный параметр находится вне этого интервала. Доверительную вероятность γ выбирают достаточно большой (γ = 0,9 ÷ 0,99). Следует иметь в виду, что при увеличении доверительной вероятности увеличивается длина доверительного интервала. Таким образом, при выборе значения доверительной вероятности следует придерживаться разумного компромисса. Если есть необходимость повысить доверительную вероятность при сохранении длины доверительного интервала, то нужно увеличить объём выборки. 6.6. Доверительные интервалы параметров нормального распределения Пусть X – случайная величина, распределённая по нормальному закону с математическим ожиданием mx и дисперсией σx2. Требуется оценить неизвестное математиче106 Статистическая обработка экспериментальных данных. Оценка параметров ское ожидание mx. По выборке Xn = {x1, x2, …, xn} вычислим эмпирическое математическое ожидание mx*, которое является точечной оценкой параметра mx: m *x = 1 n ∑ xi , n i =1 M {m *x } = m x , D{m *x } = D x σ 2x . = n n Поскольку оценка mx* является линейной относительно измерений нормально распределённой случайной величины, то сама она также будет иметь нормальное распределение с математическим ожиданием mx и дисперсией σx2/n. Пусть σx2 является известной величиной. Преобразуем оценку mx* в центрированную и нормированную случайную величину T: T= m *x − m x σx / n = n (m *x − m x ) , M {T } = 0, D{T } = 1. σx (6.15) Величина T распределена нормально с нулевым математическим ожиданием и единичной дисперсией. Пользуясь таблицами нормального распределения и исходя из заданного значения вероятности γ, можно решить следующее уравнение относительно ε γ : P{| T |< ε γ } = γ или P{−ε γ < T < ε γ } = γ. (6.16) Для нормального распределения вероятность попадания случайной величины в заданный интервал выражается через функцию Лапласа: P{−ε γ < T < ε γ } = P{−ε γ < T < ε γ } = Ф(ε γ ) − Ф(−ε γ ) = 2Ф(ε γ ). Здесь учтена нечётность функции Лапласа, т. е. Ф(–z) = –Ф(z). Для определения ε γ нужно, пользуясь таблицей функции Лапласа, решить уравнение Ф (ε γ ) = γ / 2 . (6.17) Вернёмся вновь к оценке mx*. Подставим в (6.16) выражение для T из (6.15): P{−ε γ < T < ε γ } = P{−ε γ < n (m *x − m x ) < ε γ }. σx Разрешая внутреннее неравенство относительно mx, приходим к выражению: P{m *x − ε γ σx n < m x < m *x + ε γ σx n } = γ. Итак, если mx* – эмпирическое математическое ожидание нормально распределённой величины с истинным математическим ожиданием mx и известной дисперсией σ2, то σ σ   m x ∈  m *x − ε γ x ; m *x + ε γ x  n n  (6.18) с вероятностью γ. При этом величина εγ находится по таблицам нормального распределения, как решение уравнения (6.17). Пример 6.8. Класс точности измерительного прибора обеспечивает среднюю квадратическую погрешность измерений σx = 0,05, причём ошибка измерений распределена по нормальному закону с нулевым средним значением. При измерении некоторой постоянной величины были получены следующие значения: 5,25; 5,23; 5,29; 5,31; 5,22; 5,26; 5,23; 5,26; 5,26; 5,24; 5,25; 5,21; 5,27; 5,24; 5,28; 5,25. Построить доверительный интервал для истинного значения измеряемой величины с доверительной вероятностью 0,95. 107 Теория вероятностей и математическая статистика Измерение X является случайной величиной с неизвестным математическим ожиданием mx и известным средним квадратическим отклонением σx. Так как систематическая ошибка прибора равна нулю, то значение измеряемой величины совпадает с mx. Суммируя все измерения и деля полученную сумму на число измерений n = 16, найдём оценку mx*: mx* ≈ 5,253. Решим уравнение (6.17) при γ = 0,95: Ф( ε γ ) = 0,95/2 или Ф( ε γ ) = 0,475. По значению функции Лапласа, равному 0,475, по таблице определяем соответствующее значение аргумента этой функции: ε γ = 1,96. Тогда с вероятностью 0,95 справед-  0,05   . Вычисляя, получим довери16 16   тельный интервал: m x ∈ (5,228; 5,278) с вероятностью γ = 0,95. ливо выражение: m x ∈  5,253 − 1,96 ⋅ 0,05 ; 5,253 + 1,96 ⋅ Пример 6.9. Случайная величина X распределена нормально и имеет дисперсию, равную 16. Сколько раз нужно измерить случайную величину, чтобы с вероятностью не меньшей чем 0,9 можно было утверждать, что эмпирическое математическое ожидание отклонится от истинного математического ожидания на величину не большую чем 0,2? Здесь γ = 0,9, σx2 = 16, σx = 4. Неизвестной величиной является объём выборки n. Решим уравнение Ф( ε γ ) = 0,9/2 = 0,45. Используя таблицу, получим: ε γ = 1,645. Отклоне- ние оценки mx* от mx будет не более чем ε γ ⋅ σx клонение должно быть не более чем 0,2: = 1,645 ⋅ n 6,580 n 4 n = 6,580 ≤ 0,2, или n . По условию это от- n≥ 6,58 = 32,9, или 0,2 n ≥ 1082,41. Объём выборки n – целое число. Поэтому берём ближайшее целое число: n = 1083. Пусть теперь дисперсия σx2 случайной величины X неизвестна. Пусть S2 – несмещённая оценка дисперсии этой величины, т.е. S 2 = 1 n [ x i − m *x ] 2 . Доказано, что ве∑ n − 1 i =1 личина [(n – 1)S2]/σx2 распределена по закону χ2 с (n – 1)-й степенью свободы (см. п. 4.4). Число степеней свободы равно числу независимых слагаемых в S2. Всего слагаемых n, однако, измерения xi, входящие в S2, входят также и в mx*, что и приводит к уменьшению числа независимых слагаемых на единицу. Доказано также, что величина T= n (m *x − m x ) распределена по закону Стьюдента с (n – 1)-й степенью свободы. S Следовательно, пользуясь таблицей распределения Стьюдента, можно решить уравнение (6.16) относительно ε γ при заданном значении доверительной вероятности γ. Дальнейшее построение доверительного интервала аналогично построению доверительного интервала в случае известной дисперсии σx:  S S  ; m *x + ε γ m x ∈  m *x − ε γ  с вероятностью γ . n n  (6.19) По своей структуре формула (6.19) совпадает с формулой (6.18). Различие заключается в том, что в (6.19) используется величина S, а не σx. Кроме того, в данном случае при решении уравнения (6.16) применяется таблица распределения Стьюдента. 108 Статистическая обработка экспериментальных данных. Оценка параметров Пример 6.10. Пусть условия примера 6.9 сохраняются, но средняя квадратическая ошибка измерительного прибора является неизвестной. Требуется построить доверительный интервал для измеряемой величины. В примере 6.8 уже было найдено значение mx* = 5,253. Для построения доверительного интервала нужно вычислить оценку S2 дисперсии σx2. Найдём второй начальный момент. Для этого просуммируем квадраты всех элементов выборки и поделим полученную сумму на n: ν 2* = 1 n 2 ∑ xi = n i =1 1 (5,212 + 5,22 2 + 2 ⋅ 5,23 2 + 2 ⋅ 5,24 2 + 3 ⋅ 5,25 2 + 3 ⋅ 5,26 2 + 5,27 2 + 5,28 2 + 5,29 2 + 5,312 ) ≈ 16 ≈ 27,596. 16 n Таким образом, D x* = ν 2* − m *x2 = 27,596 − 5,253 2 = 0,002, S 2 = D x* = 0,002 ≈ 0,0021 . n −1 15 = Извлекая корень, находим S ≈ 0,046. Решим уравнение (6.16), имея в виду, что доверительная вероятность γ равна 0,95, а число степеней свободы равно r = n – 1 = 15. По таблице находим ε γ = 2,13. Подставляя  0,046  16 вычисленные значения в (6.19), получим: m x ∈  5,253 − 2,13 ⋅ f(χ2) f(x) 1-γ 2 -εγ P{|x| < εγ} =γ 1-γ 1-γ 2 εγ x 2 χ1 2 ; 5,253 + 2,13 ⋅ 0,046   . 16  P{χ12 ≤ χ2 < χ22} = γ 1-γ 2 χ2 2 χ2 Рис. 6.6. Построение доверительных интервалов в случае симметричного и несимметричного закона распределения Проводя вычисления, найдём окончательно доверительный интервал m x ∈ (5,229; 5,277 ) с вероятностью γ = 0,95. Полученный доверительный интервал оказался более узким, чем интервал, найденный в примере 6.8. Это связано с тем, что данная конкретная выборка указывает на более высокую реальную точность прибора, чем та, которая определена изготовителем прибора. Однако для подтверждения этого нужно значительно увеличить объём выборки. Рассмотрим процесс построения доверительного интервала для дисперсии нормально распределённой случайной величины. Пусть (n − 1) S 2 . χ = σ 2x 2 (6.20) Эта величина имеет распределение χ2 с (n – 1)-й степенью свободы. Распределение χ2 не является симметричным. Поэтому невозможно использовать уравнение типа (6.16) для определения границ интервала. Построение доверительного интервала в случаях симметричных и несимметричных распределений иллюстрируется на рис. 6.6. Будем исходить из следующего уравнения: P{χ 12 ≤ χ 2 < χ 22 } = γ . (6.21) 109 Теория вероятностей и математическая статистика Это уравнение содержит две неизвестные, поэтому имеет бесчисленное множество решений. Чтобы получить одно решение, нужно иметь одно дополнительное условие. Вероятность попадания в интервал (χ12; χ22) равна γ. Выберем интервал так, чтобы оставшаяся вероятность 1 – γ была распределена поровну между интервалами (0; χ12) и [χ22; ∞) (на рис. 6.6 они заштрихованы), т.е. положим P{χ2 < χ12} = (1 – γ)/2 и P{χ2 ≥ χ22} = (1 – γ)/2. Тогда P{χ2 ≥ χ12} = 1 – (1 – γ)/2 = (1 + γ)/2. Границы χ12 и χ22 определяем из двух уравнений: P{χ 2 ≥ χ12 } = 1+ γ 2 и P{χ 2 ≥ χ 22 } = 1− γ 2 (6.22) Используется таблица значений χα2, для которых P{χ2 ≥ χα2} = α. По таблицам решаются уравнения (6.22) относительно χ12 и χ22 при заданном значении γ. Учитывая (6.21), получим: P{χ12 ≤ (n − 1) S 2 (n − 1) S 2 (n − 1) S 2 2 2 P < χ } = γ или { ≤ σ < } = γ . Таким образом, x 2 σ 2x χ 22 χ12 доверительный интервал для дисперсии будет иметь следующий вид: σ 2x ∈ [ (n − 1) S 2 (n − 1) S 2 ; ) с вероятностью γ. χ 22 χ12 (6.23) Отсюда получим доверительный интервал для среднего квадратического отклонения: σ x ∈[ n −1 ⋅ S χ2 ; n −1 ⋅ S χ1 ) с вероятностью γ . (6.24) Пример 6.11. Пусть в условиях примера 6.8 средняя квадратическая ошибка измерительного прибора является неизвестной. На основании выборки требуется построить доверительный интервал для σx с доверительной вероятностью γ = 0,95. Несмещённая оценка дисперсии S2 была уже найдена по данной выборке в примере 6.10. Получено S2 = 0,0021 и S = 0,046. Применяя таблицы, решаем два уравнения: P{χ 2 ≥ χ12 } = 1 + γ 1 + 0,95 1 − γ 1 − 0,95 = = 0,025. = = 0,975, P{χ 2 ≥ χ 22 } = 2 2 2 2 По числу степеней свободы r = n – 1 = 15 и по вероятности, равной 0,975, находим χ1 = 6,26 . По вероятности, равной 0,025, определяем χ22 = 27,5. Следовательно, с вероятностью 0,95 2 σ 2x ∈ [ 15 ⋅ 0,0021 15 ⋅ 0,0021 15 ⋅ 0,046 15 ⋅ 0,046 ; ) и σx ∈[ ; ). 27,5 6,26 27,5 6,26 Проводя соответствующие вычисления, окончательно получаем: σ 2x ∈ [0,0012; 0,0050) и σ x ∈ [0,034; 0,071) с вероятностью γ = 0,95. Отметим, что если известно математическое ожидание mx случайной величины, то вместо оценки дисперсии S2 следует использовать оценку D* = 1 n [ xi − m x ] 2 . ∑ n i =1 (6.25) Эта оценка является несмещённой оценкой истинной дисперсии Dx и распределена по закону χ2 с n степенями свободы. Рассмотренные способы построения доверительных интервалов можно применять и для асимптотически нормальных оценок. Центральная предельная теорема подтвер110 Статистическая обработка экспериментальных данных. Оценка параметров ждает стремление закона распределения суммы случайных величин к нормальному закону при увеличении числа слагаемых. Это оправдывает применение рассмотренных способов построения доверительных интервалов при больших n. Таблицы распределений Стьюдента и χ2 рассчитаны на малые объёмы выборок. При больших объёмах выборок вместо распределения Стьюдента используется непосредственно нормальное распределение. Что касается распределения χ2, то граничные значения χ12 и χ22 вычисляются по формулам: χ 12 = n − 1 − ε γ ⋅ 2(n − 1) , χ 22 = n − 1 + ε γ ⋅ 2(n − 1) , (6.26) где ε γ является решением уравнения (6.17) при заданной доверительной вероятности γ. 6.7. Построение доверительного интервала для вероятности события Пусть в n последовательных независимых испытаниях событие A осуществилось k раз. Тогда вероятность события A можно оценить с помощью относительной частоты его осуществления, т.е. p* = Величина M { p*} = k распределена k . n по (6.27) закону Бернулли, так что 1 1 1 1 pq M {k} = ⋅ np = p и D{ p * } = 2 D{k} = 2 ⋅ npq = , где q = 1 – p. Величина p* n n n n n является несмещённой и состоятельной оценкой вероятности p осуществления события A в одном испытании. Преобразуем оценку p* в центрированную и нормированную случайную величину T: T= p* − p pq / n = n ⋅ ( p * − p), M {T } = 0, D{T } = 1. pq Будем считать, что n достаточно велико. В соответствии с предельной теоремой Муавра–Лапласа, можно предполагать, что величина T распределена приближённо по нормальному закону с нулевым математическим ожиданием и единичной дисперсией. По таблицам нормального распределения, исходя из заданного значения доверительной вероятности γ, можно решить уравнение (6.17) относительно ε γ . Тогда P{−ε γ < T < ε γ } = P{−ε γ < n ⋅ ( p * − p) < ε γ } = γ. pq (6.28) Разрешая внутреннее неравенство относительно p, получим окончательно: pq pq < p < p* + ε γ } = γ. n n  pq * pq  . ; + ε p Таким образом, с вероятностью γ p ∈  p * − ε γ γ   n n   P{ p * − ε γ (6.29) Границы этого интервала зависят от оцениваемого параметра p. Для избавления от этого можно использовать один из следующих способов. В первом способе в выражениях для границ интервала p заменяют на p*. Тогда с вероятностью, приближённо равной γ,  p ∈  p* − ε γ   p*q* * ; p + εγ n p*q* n  * , q = 1 − p * .   111 Теория вероятностей и математическая статистика Второй способ предполагает расширение интервала до максимально возможного. Для этого величина pq заменяется её наибольшим значением. Величина pq принимает максимальное значение 0,25 при p = 0,5. Тогда с вероятностью, не меньшей чем, γ  0,5 * 0,5  p ∈  p * − ε γ ⋅ ; p + εγ ⋅  . n n  (6.30) Третий способ предполагает точное определение границ интервала. Рассмотрим основное неравенство, которое используется для получения доверительного интервала: pq , или n( p * − p ) 2 < ε 2γ p (1 − p ). n T < ε γ или | p * − p |< ε γ Это неравенство определяет доверительную область для неизвестной вероятности p. Приведём это неравенство к более удобному виду: (6.31) (n + ε 2γ ) p 2 − (2np * + ε 2γ ) p + np *2 < 0 . Доверительная область представляет собой множество пар значений (p, p*), попадающих внутрь эллипса, уравнение которого имеет вид: (n + ε 2γ ) p 2 − (2np * + ε 2γ ) p + np *2 = 0 . (6.32) На рис. 6.5. приведёно изображение области (6.31). Эллипс выходит за рамки квадрата с длиной стороны, равной единице, в направлении оси абсцисс. Заштрихованные части не входят в доверительную область, поскольку всегда должно выполняться неравенство 0 ≤ p* ≤ 1. Эффект выхода эллипса за рамки квадрата обусловлен тем, что распределения Бернулли для величины k заменено нормальным распределением. С ростом n эллипс становится всё более узким, «лишние» части уменьшаются. При n→∞ эллипс стягивается к диагонали квадрата с уравнением p = p*, т. е. оценка p* будет совпадать (по вероятности) с истинным значением вероятности p (см. теорему Бернулли из закона больших чисел). Для определения доверительного интервала нужно решить квадратное уравнение (6.32) при известном значении оценки p*. Получим два корня: (6.33) p1 = α( p * , ε γ , n) − β( p * , ε γ , n), p 2 = α( p * , ε γ , n) + β( p * , ε γ , n), α ( p , ε γ , n) = * 2np * + ε 2γ 2(n + ε 2γ ) , β( p , ε γ , n ) = * ε γ 4np * (1 − p * ) + ε 2γ 2(n + ε 2γ ) . Найденные значения p1 и p2 (p1 < p2) являются границами доверительного интервала (рис. 6.5), так что с вероятностью γ, (6.34) p∈(p1; p2). При больших значениях n все три способа дают практически одинаковые результаты. Аппроксимация распределения Бернулли нормальным распределением считается допустимой, если выполняется неравенства: np ≥ 4 и nq ≥ 4. Отсюда следует, что наименьшее значение n достигается при p = 0,5. Тогда должно быть n ≥ 8. Если p = 0,05 или p = 0,95, то должно быть n ≥ 80. Исходя из этих оценок, можно приближённо судить о правомерности применения рассмотренных здесь способов. Так как вероятность p неизвестна, то для оценки этой правомерности вычисляют np* и nq*. Можно построить доверительный интервал, опираясь на закон распределения Бернулли, однако эта процедура достаточно громоздкая. Целесообразность применения этой процедуры очень сомнительна, так как при малых значениях n точность оценки вероятности p настолько низка, 112 Статистическая обработка экспериментальных данных. Оценка параметров что выбор способа построения доверительного интервала уже не имеет практического значения. Отметим, что доверительная область для вероятности события, построенная с использованием закона распределения Бернулли, ограничена ступенчатой линией, напоминающей линию эллипса. Но она не будет выходить за рамки квадрата: 0 ≤ p ≤ 1, 0 ≤ p* ≤ 1. Пример 6.12. Было проведено 36 независимых испытаний, при этом событие A произошло в 9-ти испытаниях. Оценить истинную вероятность p осуществления события A в одном испытании с доверительной вероятностью γ = 0,9. В данном случае p* = 9/36 = 0,25. Поскольку np* = 9 > 4 и nq* = 27 > 4 (q* = 0,75), то допустима аппроксимация распределения Бернулли нормальным распределением. Решая уравнение (6.17) относительно ε γ при γ/2 = 0,9/2 = 0,45, по таблице значений функ- ции Лапласа находим ε γ = 1,645. Воспользуемся формулой (6.30):  0,25 ⋅ 0,75  0,25 ⋅ 0,75 . p ∈  0,25 − 1,645 ⋅ ; 0,25 + 1,645 ⋅  36 36   Производя соответствующие вычисления, получим: p∈(0,131; 0,369) с вероятностью, приближённо равной 0,9. Найдём теперь доверительный интервал по формуле (6.31):  0,5 0,5   , p ∈  0,25 − 1,645 ⋅ ; 0,25 + 1,645 ⋅ 36 36   или p∈ (0,113; 0,387) с вероятностью, не меньшей чем 0,9. Вычислим точные значения границ доверительного интервала. Для этого найдём корни уравнения (6.32) по формулам (6.33): 2 ⋅ 36 ⋅ 0,25 + 1,6452 = 0,2675, α ( p , ε γ , n) = 2(36 + 1,6452 ) * β( p* , ε γ , n) = 1,645 4 ⋅ 36 ⋅ 0,25 ⋅ 0,75 + 1.,452 = 0,1158 . 2(36 + 1,6452 ) Следовательно, p1 = 0,2675 – 0,1158 ≈ 0, 152, p2 ≈ 0, 383, и p∈(0,152; 0,383) с вероятностью, равной 0,9. Три интервала, полученные разными способами, мало отличаются друг от друга. Длины интервалов равны соответственно 0,238, 0,274 и 0,231. Заметим, что выражение «точные границы интервала» является условным, поскольку распределение Бернулли было приближённо заменено нормальным распределением. В особо ответственных случаях из этих трёх интервалов предпочтительно выбирать самый большой интервал. Термины для запоминания ♦ ♦ Выборка; вариационный ряд; простой вариационный ряд; сгруппированный вариационный ряд; интервальный вариационный ряд; эмпирическая функция распределения; полигон; гистограмма; эмпирическая плотность распределения. Эмпирические числовые характеристики; точечные оценки параметров; смещённые оценки; несмещённые оценки; состоятельные оценки; эффективные оценки; метод 113 Теория вероятностей и математическая статистика ♦ моментов; метод наибольшего правдоподобия; функция правдоподобия; оценка наибольшего правдоподобия. Доверительные интервалы; доверительная вероятность; коэффициент доверия. Список контрольных вопросов 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. Перечислите основные задачи математической статистики. Что называют выборкой случайной величины? Перечислите виды вариационных рядов и поясните, чем они отличаются друг от друга. Что такое размах выборки? Как построить эмпирическую функцию распределения вероятностей? Что такое полигон и что такое гистограмма эмпирического распределения? Как построить эмпирическую плотность распределения вероятностей? Как вычисляются эмпирические числовые характеристики случайных величин? Какие оценки называют точечными оценками параметров? Какие оценки называются несмещёнными? Какие оценки называются состоятельными? Какие оценки называются эффективными? Перечислите методы получения оценок и поясните их смысл. Как построить оценку математического ожидания случайной величины по её измерениям? Как построить оценку дисперсии случайной величины по её измерениям? Как построить несмещённую оценку дисперсии случайной величины? Что такое доверительный интервал и что такое доверительная вероятность? Какие законы распределения применяются при построении доверительных интервалов для параметров нормально распределённой случайной величины? Вопросы для обсуждения 1. 2. 114 Влияют ли схема и условия измерения случайной величины для статистического анализа на результаты это анализа? Могут ли здесь возникать чисто логические ошибки? Проверка статистических гипотез ТЕМА 7. Проверка статистических гипотез Студент должен освоить: • понятие статистической гипотезы, статистического критерия, ошибок первого и второго рода; приобрести навыки: • использования наиболее распространённых критериев проверки гипотез, в частности, критерия χ2-Пирсона. 115 Теория вероятностей и математическая статистика Статистическая проверка гипотез. Проверка гипотез о параметрах нормального распределения. Критерий квантилей. Критерий согласия Пирсона и его применение. Краткое содержание 7.1. Общие положения Любое предположение относительно исследуемой случайной величины, истинность которого требуется проверить на основе выборки этой случайной величины, называют статистической гипотезой. Гипотеза может касаться неизвестных параметров закона распределения вероятностей, самого закона распределения, смешанных статистических моментов, описывающих связь между величинами, и т.п. Существует большое разнообразие статистических гипотез и, соответственно, большое количество разнообразных методов проверки этих гипотез. Общая идея проверки статистических гипотез заключается в следующем. Пусть имеется выборка Xn = {x1, x2, …, xn} случайной величины X и выдвигается некоторая гипотеза относительно этой величины. Эту гипотезу называют нулевой гипотезой (H0), а противоположную ей – альтернативной гипотезой (H1). Предположим, что каким-то образом определена такая n-мерная область D, что при (x1, x2, …, xn)∉D нулевая гипотеза принимается, а при (x1, x2, …, xn)∈D эта гипотеза отвергается. Тогда область D называется критической областью. При принятии решения на основе конкретной выборки возможны следующие варианты: гипотеза H0 является верной, и она принимается в соответствии с критерием; H0 является ложной гипотезой и она отвергается в соответствии с критерием. Эти решения являются верными. Возможны варианты, когда принятое решение является ошибочным: H0 отвергается, являясь истинной гипотезой, или H0 принимается, хотя на самом деле она является ложной. В первом случае ошибку в решении называют ошибкой первого рода, во втором случае – ошибкой второго рода. Алгоритм построения критической области и правило принятия решения называют статистическим критерием данной гипотезы или просто критерием гипотезы. Наилучшим критерием для данной гипотезы является тот, который обеспечивает наименьшую величину вероятностей ошибок первого и второго рода. Обозначим вероятность ошибки первого рода через α, а вероятность ошибки второго рода – через β. Величину α называют ещё уровнем значимости. Доказано, что одновременное уменьшение этих ошибок невозможно: уменьшение одной из них неизбежно влечёт увеличение другой (при постоянном объёме выборки n). Поэтому при построении критической области проводится минимизация по одной из вероятностей ошибок, в то время как другая вероятность фиксируется на определённом значении. С другой стороны, стоимость ошибок или потери от них, не всегда являются одинаковыми. В связи с этим выбор значений величин α и β определяется в зависимости от конкретного содержания решаемой задачи. Решение об истинности гипотезы H0 принимается на основе сравнения некоторой вычисленной величины R с одним или двумя критическими значениями, являющимися границей или границами критической области. Если для критической области используется неравенство R ≥ Rв, то говорят о правосторонней критической области, если неравенство R ≤ Rн, то говорят о левосторонней критической области. Если, наконец, применяются оба неравенства, то критическую область называют двухсторонней. Отметим ещё, что схе116 Проверка статистических гипотез ма построения критической области прямым образом связана со схемой построения доверительного интервала. 7.2. Проверка гипотез о параметрах распределений Рассмотрим некоторые простые критерии, применяемые к гипотезам о параметрах случайных величин, таких, как математическое ожидание и дисперсия. Сравнение математических ожиданий. Пусть имеется две выборки некоторой одной случайной величины, полученные в разных условиях, или двух разных случайных величин. Требуется проверить, одинаковы ли истинные математические ожидания, соответствующие этим выборкам. Такую ситуацию можно просмотреть на следующем примере. Имеется две производственные линии, выпускающие одинаковые изделия. Качество изготовленного изделия характеризуется случайной величиной X. Был осуществлён контроль n изделий, изготовленных на первой линии, и получена выборка Xn = (x1, x2, …, xn). По второй линии осуществлён контроль над k изделиями и получена выборка X′k = (x′1, x′2, …, x′k). По этим выборкам нужно принять решение о том, одинаковые ли истинные математические ожидания величины X для этих линий. Будем предполагать, что X имеет нормальное распределение: N(m1, σ12) для первой линии и N(m2, σ22) для второй линии. Рассмотрим сначала вариант, когда σ1 и σ2 известны. Выдвигаем гипотезу H0: m1 = m2, т.е. математические ожидания одинаковы. Альтернативной гипотезой будет H1: m1 ≠ m2. Оценка m1* будет иметь нормальное распределение с параметрами m1 и σ12/n, а оценка m2* – нормальное распределение с параметрами m2 и σ22/k. Если гипотеза H0 верна, то разность m1* – m2* будет распределена по нормальному закону с параметрами 0 и σ12 σ 22 kσ12 + nσ 22 . Следовательно, величина + = n k nk (m * − m2 *) ⋅ nk t= 1 kσ12 + nσ 22 (7.1) является центрированной и нормированной нормально распределённой случайной величиной. Найдём двухстороннюю критическую область, пользуясь этим фактом. Положим Р{ t ≥ tα } = α , или 1 − Р{ t < tα } = α , или 2Ф(t α ) = 1 − α, , где Ф(tα) – функция Лапласа. Таким образом, чтобы найти критическое значение tα, нужно решить уравнение Ф(t α ) = 1− α , 2 (7.2) при заданном уровне значимости α, пользуясь таблицей нормального распределения. Критическая область определяется неравенством  t  ≥ tα. Отсюда вытекает правило принятия решения: если вычисленное значение t удовлетворяет неравенству – tα < t < < tα, то гипотеза H0 принимается, если, напротив,  t  ≥ tα, то гипотеза H0 отвергается. Смысл этого правила состоит в том, что t имеет нормальное эталонное распределение только при равенстве истинных математических ожиданий. Для неравенства  t  ≥ tα задана достаточно малая вероятность α. Если оно реализуется, то это означает, что произошло маловероятное событие. Мы предполагаем, что где-то в наших рассуждениях допущена ошибка. Ошибка может быть только в одном, а именно, в предположении о том, что гипотеза H0 истинна. Следовательно, гипотезу нужно отвергнуть. Заметим, что в таком случае мы совершаем ошибку с вероятностью α. 117 Теория вероятностей и математическая статистика Исследуемая величина не обязательно должна иметь нормальное распределение. При больших n и k (порядка десятков) можно применять нормальное распределение, что оправдывается законом больших чисел. Если дисперсии одинаковы σ12 = σ22 = σ2 и одинаковы объёмы выборок n = k, то вычисление t упрощается: t= σ2. (m1* −m2 *) ⋅ n 2 ⋅σ . (7.3) Рассмотрим теперь случай, когда σ1 и σ2 неизвестны. Будем считать, что σ12 = σ22 = Вычислим оценки этих дисперсии по первой и второй выборкам S12 и S22: 1 n 1 k 2 2 S = ( xi − m1*) , S 2 = ( xi′ − m2*) 2 . ∑ ∑ n − 1 i =1 k − 1 i =1 2 1 Если гипотеза H0 верна, то разность m1* – m2* будет распределена по нормальному закону с нулевым математическим ожиданием, а величина t= (m1* − m2 *) ⋅ nk S k+n S= , S12 (n − 1) + S 22 (k − 1) , n+k −2 (7.4) будет распределена по закону Стьюдента с n + k – 2 степенями свободы. Таким образом, уравнение P{ t  ≥ tα} = α следует решать по таблицам распределения Стьюдента. Пример 7.1. На двух заводах выпускаются автомобильные шины одной и той же марки. Были исследованы данные по времени нормальной эксплуатации шин. По 20 шинам первого завода были вычислены m1* = 36200 (км. пробега) и S12 = 252400. По 40 шинам второго завода были вычислены m2* = 37800 (км. пробега) и S22 = 326200. С уровнем значимости α = 0,05 проверить гипотезу о том, что средний пробег шин, изготовленных на этих заводах, одинаков. Вычислим S: S12 (n − 1) + S 22 (k − 1) = n+k −2 S= 252400 ⋅ 19 + 326200 ⋅ 39 ≈ 550 . 58 Далее вычислим t: t= (m1 * − m2 *) ⋅ nk S k+n = (36200 − 37800) ⋅ 800 550 60 ≈ −10,6 . Решим уравнение P{ t  ≥ tα} = 0,05. По таблицам распределения Стьюдента с числом степеней свободы 58 находим tα = 2. Так как  t  = 10, 6 > 2 = tα, то гипотезу о равенстве среднего пробега шин, изготовленных на разных заводах, следует отвергнуть. Сравнение дисперсий. Рассмотрим снова две выборки. Первая выборка Xn = (x1, x2, …, xn) представляет измерения случайной величины X, вторая выборка Yk = (y1, y2, …, yk) представляет измерения случайной величины Y. Пусть вычислены оценки дисперсий: S x2 = 1 n 1 k ( xi − m x *) 2 , S y2 = ( y i − m y *) 2 . ∑ ∑ n − 1 i =1 k − 1 i =1 Требуется проверить гипотезу о том, что истинные дисперсии этих величин одинаковы. Выдвигаем гипотезу H0: σx2 = σy2, т.е. дисперсии одинаковы. Альтернативной гипотезой будет H1: σx2 ≠ σy2. Если величины X и Y имеют нормальное распределение, то отношение F = Sx2/Sy2 будет иметь F-распределение (Фишера) со степенями свободы n – 1 и k – 1. Так как F-распределение не является симметричным, то можно построить двухсто118 Проверка статистических гипотез роннюю критическую область, полагая P{F ≤ F1} = α/2 и P{F ≥ F2} = α/2. Решая эти уравнения по таблице F-распределения, находим критические значения F1 и F2. Правило принятия решения: если F1 < F < F2, то гипотеза о равенстве дисперсий принимается, в противном случае эта гипотеза отвергается. Удобнее строить одностороннюю критическую область. Для этого в отношении F в знаменателе всегда нужно ставить меньшую оценку из Sx2 и Sy2. Тогда F будет всегда больше единицы и нижняя граница не потребуется. Полагают F= и решают уравнение max(S x2 , S y2 ) min(S x2 , S y2 ) P{F ≥ Fα ) = α , (7.5) (7.6) используя таблицы F-распределения с учётом чисел степеней свободы. Если F < Fα, то гипотеза о равенстве дисперсий принимается, если F ≥ Fα, то эта гипотеза отвергается. Пример 7.2. По данным примера 7.1. с уровнем значимости α = 0,05 проверить гипотезу о равенстве истинных дисперсий пробега шин, изготовленных на первом и втором заводах. В примере 7.1. мы предполагали, что они одинаковы. Так ли это? Так как оценки дисперсий уже вычислены, то строим отношение F по формуле (7.5): F= 326300 ≈ 1,3 . 252400 Решаем по таблицам уравнение P{F ≥ Fα} = 0,05, учитывая, что число степеней свободы меньшей дисперсии равно 19, а большей дисперсии – 39. Находим критическое значение: Fα = 2,02. Так как F = 1,3 < 2,02 = Fα, то гипотезу о равенстве истинных дисперсий можно принять. Данный критерий можно применить и для сравнения двух или нескольких математических ожиданий. В частности, этот критерий в таком варианте применяется в дисперсионном анализе. 7.3. Критерий квантилей Пусть выборка Xn = (x1, x2, …, xn) представляет измерения случайной величины X. Критерий квантилей используется для проверки гипотезы о том, что истинное распределение величины X имеет квантиль xp порядка p, т.е. F(xp) = p, где F(x) – истинная функция распределения этой величины. Здесь гипотеза H0: число xp удовлетворяет равенству F(xp) = p, где p – заданная вероятность; H1: это равенство не выполняется. Критическая область строится следующим образом. Находится число k элементов выборки, попавших в интервал (–∞, xp). Далее рас- k − p ≥ ε α } = α , которое можно разделить на два уравнения: n P{k ≤ np − ε α } = α / 2 и P{k ≥ np + ε α } = α / 2 . Так как k распределено по закону Бернулли, сматривается уравнение P{ то определяются такие целые числа k1 и k2, для которых выполняются приближённые равенства P{k ≤ k1 } ≈ α / 2 и P{k ≥ k 2 } ≈ α / 2 . Правило принятия решения: если k1 < k < k2, то гипотеза H0 принимается, в противном случае гипотеза отвергается. 119 Теория вероятностей и математическая статистика Рассмотренным критерием можно пользоваться только при малых объёмах выборки. При большом объёме выборки пользоваться распределением Бернулли неудобно. Поэтому пользуются тем фактом, что величина t= k − np npq , q = 1 − p, (7.8) при достаточно больших значениях n распределена приближённо по нормальному закону с нулевым математическим ожиданием и единичной дисперсией. Следовательно, по таблицам нормального распределения можно решить уравнение (7.2) и найти критическое значение tα. Правило принятия решения обычное: если вычисленное значение t удовлетворяет неравенству – tα < t < tα, то гипотеза H0 принимается, если, напротив,  t  ≥ tα, то гипотеза H0 отвергается. Если в критерии квантилей положить p = 0,5, то получим критерий проверки гипотезы о медиане истинного распределения. Критерий квантилей удобен тем, что сами элементы выборки в их числовом выражении не используются. Используется лишь сам факт попадания элемента выборки в определённый интервал. Критерий квантилей применяется также при проверке некоторых других гипотез. Пример 7.3. Сделано 30 измерений случайной величины X: 2,8; 2,6; 3,6; 3,2; 3,9; 3,4; 4,1; 3,7; 2,7; 3,9; 2,8; 3,8; 3,5; 3,1; 3,3; 3,5; 3,4; 3,7; 3,0; 3,3; 3,5; 3,7; 4,0; 3,6; 3,5; 3,1; 3,8; 3,5; 3,9; 3,6. С уровнем значимости α = 0,05 проверить гипотезу о том, что медианой истинного закона распределения является число 3,5. В данном случае n = 30, p = 0,5, q = 0, 5, np = 15. Число k = 12 – число элементов вы- борки, которые меньше, чем 3,5. Тогда t = 12 − 15 30 ⋅ 0,5 ⋅ 0,5 =− 3 ≈ −1,1. Решим уравнение 2,74 Ф(tα) = (1 – 0,05)/2 = 0,475. По таблицам находим: tα = 1,96. Так как t < tα, то гипотезу о том, что медиана может быть равной 3,5, принимаем. 7.4. Проверка гипотез о распределениях Рассмотрим задачу проверки гипотез о законе распределения. Эмпирические законы распределения вероятностей имеют дискретный характер независимо от того, является ли эта величина дискретной или непрерывной. Использование такого закона в различных расчётах оказывается не всегда удобным. Поэтому возникает задача замены его некоторым теоретическим законом распределения, который был бы в определённом смысле близким к эмпирическому закону. Эта задача решается следующим образом. По виду гистограммы, полигона или графика эмпирической функции распределения по справочникам выбирается подходящий теоретический закон распределения и выдвигается гипотеза (H0) о том, что именно этот выбранный закон является истинным законом распределения изучаемой величины. Затем по определённому критерию близости теоретического и эмпирического законов распределений выдвинутая гипотеза принимается или отвергается. Сами критерии близости могут быть различными, поэтому истинность выдвинутой гипотезы можно проверить различным образом. Критерий χ 2 -Пирсона. Одним из наиболее распространённых критериев является критерий χ2-Пирсона. Вся широта эмпирического распределения разбивается на r частичных интервалов, и сравниваются вероятности попадания измеренных значений случайной величины в эти интервалы для случая эмпирического распределения и для случая теоретического распределения. В качестве меры отклонения берётся величина 120 Проверка статистических гипотез r χ2 = ∑ i =1 (ni − np i ) 2 , np i (7.9) где n – объём выборки, ni – число элементов, попавших в i-й интервал, pi – вероятность попадания в i-тый интервал, вычисленная на основе теоретического распределения. Смысл величины χ2 заключается в следующем. В качестве меры отклонения эмпирического распределения от теоретического в i-м интервале можно взять квадрат разности между эмпирической и теоретической вероятностью попадания изучаемой величины в 2 1 n  этот интервал: ( p − p i ) =  i − p i  = 2 (ni − np i ) 2 . Если теперь суммировать квадраn n  * i 2 ты отклонений по всем интервалам, то все отклонения будут учтены с одинаковым весом независимо от величины pi. При одном и том же абсолютном отклонении относительная величина отклонения будет тем больше, чем меньше вероятность pi. Целесообразно ввести весовые коэффициенты, обратно пропорциональные вероятностям pi. Выбор коэффициентов в виде n/pi приводит к формуле (7.9). Вероятности pi вычисляются по теоретической (гипотетической) функции распределения F(x) или по соответствующей плотности f(x): zi p i = F ( z i ) − F ( z i −1 ) = ∫ f (t )dt , z i −1 где zi–1 и zi – левая и правая границы i-ого интервала. Оказывается, что если гипотеза верна, то величина χ2 распределена по закону χ2 с k = r – 1 степенями свободы. Этим фактом объясняется выбор структуры весового коэффициента. По таблицам распределения χ2 решается уравнение относительно значения χ α2 : P{χ 2 ≥ χ α2 } = α , (7.10) где α – малая величина, выбираемая в пределах 0,01 ÷ 0,1. Эта величина (уровень значимости) по смыслу является вероятностью отвергнуть истинную гипотезу, т.е. вероятностью ошибки первого рода. Величина χ α2 – критическое значение величины χ2. Она является нижней границей односторонней критической области [ χ α2 ; ∞) данного критерия. Правило принятия решения основывается на сравнении вычисленного значения χ2 с критическим значением χ α2 . Если χ 2 < χ α2 , то гипотеза о соответствии эмпирического и теоретического законов принимается, в противном случае, когда вычисленное χ2 попадает в критическую область, эта гипотеза отвергается. Идея этого критерия заключается в следующем. Величина χ2 распределена по за2 кону χ только в том случае, когда гипотеза H0 является истинной. Именно при этом условии было определено критическое значение χ α2 таким образом, что вероятность выполнения неравенства χ2 ≥ χ α2 очень мала (α). Предположим теперь, что это неравенство, тем не менее, выполнилось, т. е. вычисленное значение χ2 попало в критическую область. Это значит, что произошло маловероятное событие. Если все наши рассуждения верны, то такой результат является достаточно редким. Поэтому мы подвергаем сомнению наши рассуждения. Мы могли сделать ошибку лишь тогда, когда предположили истинность проверяемой гипотезы H0. Следовательно, эту гипотезу нужно отвергнуть. Принимая такое решение, мы можем совершить ошибку с вероятностью α, поскольку именно с этой вероятностью указанное маловероятное событие может произойти. 121 Теория вероятностей и математическая статистика Если теоретическое распределение содержит неизвестные параметры, то перед вычислением вероятностей pi, эти параметры (например, математическое ожидание, дисперсия и т.п.) оцениваются по той же самой выборке. В таком случае число степеней свободы k распределения χ2 уменьшается: k = r – s – 1, где s – число оценённых параметров. Число частичных интервалов следует брать не менее 8, однако, если для некоторых интервалов при вычислениях оказывается npi < 5, то их нужно объединять с соседними интервалами, чтобы было npi ≥ 5 (в ответственных случаях не допускается npi < 10). Общее число интервалов при этом, естественно, сокращается. Критерий ω2. Недостатком критерия χ2-Пирсона является то, что для его применения необходим большой объём выборки. Это связано с тем, что в критерии используется интервальный вариационный ряд, при получении которого имела место частичная потеря информации (за счёт группирования данных). В случае малых объёмов выборок целесообразно использовать критерии, непосредственно опирающиеся на измерения исследуемой величины. Наиболее распространённым критерием такого типа является критерий ω2 (и его модификации). В этом критерии в качестве меры отклонения эмпирического распределения от теоретического применяется величина ∞ ϖ = ∫ [ F * ( x) − F ( x)] 2 dF ( x) , 2 −∞ где F*(x) – эмпирическая функция распределения вероятностей; F(x) – теоретическая (гипотетическая) функция. Интегрирование приводит к следующему выражению: 2 1 1 n  2i − 1 , ϖ = + F ( xi ) − ∑ 2  n i =1  2n  12n 2 (7.11) где xi – элементы выборки. Доказано, что распределение величины nω2 при возрастании n достаточно быстро сходится к некоторому предельному распределению, для которого составлена таблица. Практически критерием можно пользоваться уже при n > 40, что выгодно отличает этот критерий от критерия χ2. Схема принятия решения аналогична схеме, рассмотренной выше. Решается уравнение (7.12) P{nω2 ≥ zα} = α, т.е. по заданному уровню значимости α по таблицам находится критическое значение zα. Если оказывается, что nω2 < zα, то гипотеза о соответствии эмпирического и теоретического распределений принимается, в противном случае – отвергается. Пример 7.4. По выборке, заданной в примере 6.4, построить полигон и гистограмму. Подобрать подходящий теоретический закон распределения вероятностей и проверить гипотезу о соответствии эмпирического закона распределения выбранному теоретическому закону при уровне значимости α = 0,05. По данным примера 6.4 составим следующую таблицу: i 1 2 3 4 5 6 7 8 ∑ zi–1÷zi 0÷0,6 0,6÷1,2 1,2÷1,8 1,8÷2,4 2,4÷3,0 3,0÷4,2 4,2÷5,4 5,4÷9,6 0,6 0,6 0,6 0,6 0,6 1,2 1,2 4,2 ∆i xi 0,3 0,9 1,5 2,1 2,7 3,6 4,8 7,5 ni 15 12 8 4 5 8 4 3 60 pi* 0,267 0,2 0,133 0,067 0,083 0,133 0,067 0,05 pi*/∆i 0,445 0,333 0,222 0,112 0,138 0,111 0,056 0,012 122 1 Проверка статистических гипотез В таблице используются следующие обозначения: ∆i – ширина i–го интервала; pi* – эмпирическая вероятность попадания в i-й интервал. В последней строке представлены значения эмпирической плотности распределения вероятностей для частичных интервалов. По данным этой строки строим гистограмму и полигон распределения, которые в данном случае являются двумя различными графическими представлениями эмпирической плотности распределения вероятностей изучаемой величины (рис. 7.1). pi*/∆i pi*/∆i x x Рис. 7.1. Гистограмма и полигон распределения, построенные по интервальному вариационному ряду Из графиков видно, что эмпирическое распределение очень похоже на теоретическое экспоненциальное распределение. В пользу выбора экспоненциального распределения в качестве гипотетического говорит и тот факт, что оценки математического ожидания и среднего квадратического отклонения достаточно близки. Известно, что в случае экспоненциального распределения эти параметры равны. Для оценки параметра λ экспоненциального распределения F ( x) = 1 − e − λx , f ( x) = λe − λx , x ≥ 0 , λ > 0 , используем соотношение mx = 1/λ, заменив математическое ожидание mx его оценкой mx*, вычисленной в примере 6.4: λ* = 1/mx* = 1/2,033 = 0,492 ≈ 0,5. Таким образом, гипотетическое распределение имеет вид: F ( x) = 1 − e −0,5 x , f ( x) = 0,5 ⋅ e −0,5 x , x ≥ 0. Теоретические вероятности попадания случайной величины в частичные интервалы вычисляются по формуле: pi = F(zi) – F(zi–1), i = 1, 2, …, 8. Например, p1 = F(0, 6) – F(0) = = (1 − e −0,5⋅0, 6 ) − (1 − e −0,5⋅0 ) = 1 − 0,741 = 0,259. Тогда np1 = 60 ⋅ 0,259 = 15,54. Выполняя аналогичные вычисления для всех интервалов, внесём полученные результаты в таблицу. Правая граница последнего интервала принята равной ∞, так как в случае гипотетического распределения случайная величина может принимать значения в интервале (0; ∞). В соответствии с теорией значения npi не должны быть меньше пяти. В таблице это было учтено путём объединения 5-го интервала с 6-м, а 7-го – с 8-м. В двух последних столбцах проводится вычисление величины χ2 непосредственно по формуле (7.9). Полученное значение равно χ2 = 1,4306. i 1 2 3 4 5 6 7 8 Σ zi–1÷zi 0÷0, 6 0,6÷1,2 0,6÷1,2 0,6÷1,2 0,6÷1,2 0,6÷1,2 0,6÷1,2 0,6÷1,2 ni 16 12 8 4 5 8 4 3 60 F(zi) 0,259 0,451 0,593 0,699 0,777 0,878 0,933 1,000 F(zi–1) 0,259 0,451 0,593 0,699 0,777 0,878 0,933 pi 0,259 0,192 0,142 0,106 0,078 0,101 0,055 0,067 1,000 npi 15,54 11,52 8,52 6,36 4,68 6,06 3,3 4,02 60 ni–npi 0,46 0,48 –0,52 –2,36 (ni–npi)2/(npi) 0,0136 0,02 0,0317 0,8757 2,26 0,4756 –0,32 0,014 1,4306 123 Теория вероятностей и математическая статистика Так как окончательный расчёт величины χ2 проводился по 6-ти интервалам и один параметр был оценён (λ) по этой же выборке, то число степеней свободы распределения χ2 будет равно k = 6 – 2 = 4. По таблицам распределения χ2 с 4 степенями свободы и с уровнем значимости α = 0,05 находим критическое значение χα2 = 9,5. Вычисленное значение χ2 меньше критического. Следовательно, гипотеза о соответствии эмпирического и теоретического распределения принимается. Это означает, что можно рассматривать исследуемую величину как величину, распределённую по экспоненциальному закону с параметром λ = 0,5. В заключение заметим, что принятие любой гипотезы вовсе не означает, что она действительно истинна. Факт принятия гипотезы означает лишь то, что данная выборка не противоречит этой гипотезе. Не следует также забывать, что при принятии или отклонении гипотезы мы можем совершить одну из ошибок: либо ошибку первого рода, либо ошибку второго рода. Поэтому при пополнении статистических данных (увеличении объёма выборок) гипотезу снова рекомендуется проверять. Термины для запоминания ♦ Статистическая гипотеза; нулевая гипотеза; альтернативная гипотеза; критическая область; правосторонняя критическая область; левосторонняя критическая область; двухсторонняя критическая область; ошибка первого рода; ошибка второго рода; статистический критерий; критерий квантилей; критерий χ2-Пирсона; критерий ω2. Список контрольных вопросов 1. 2. 3. 4. 5. 6. 7. Что называется статистической гипотезой? Что такое альтернативная или конкурирующая гипотеза? Что называется статистическим критерием? Дайте определение ошибок первого и второго рода. Что такое критическая область? Поясните, чем отличается односторонняя и двухсторонняя критические области? Какие законы распределения можно применить для построения критической области в случае проверки гипотезы о математических ожиданиях? 8. Какой закон распределения применяется для построения критической области в случае проверки гипотезы о дисперсиях? 9. Поясните, какая гипотеза проверяется с помощью критерия квантилей? 10. Какой критерий можно применить при проверке гипотезы о медиане? 11. Какова основная идея критерия χ2-Пирсона проверки гипотез о законах распределения? 12. В чём принципиальная разница между критерием χ2-Пирсона и критерием ω2? Вопрос для обсуждения В каких ситуациях возможна проверка конкретной гипотезы статистическими методами? 124 Дисперсионный анализ ТЕМА 8. Дисперсионный анализ Студент должен освоить: • понятие фактора, уровней фактора, плана эксперимента, освоение схем однофакторного, двухфакторного анализа, трёхфакторного анализа (план «латинский квадрат»); приобрести навыки: • проведения дисперсионного анализа по имеющимся исходным данным. 125 Теория вероятностей и математическая статистика Постановка задачи дисперсионного анализа. Однофакторный дисперсионный анализ. Двухфакторный дисперсионный анализ. Трёхфакторный дисперсионный анализ. План «латинский квадрат». Краткое содержание 8.1. Постановка задачи дисперсионного анализа В дисперсионном анализе устанавливается факт зависимости или независимости исследуемой случайной величины от одного или нескольких факторов. Сами факторы могут быть как количественными, так и качественными. Можно, например, поставить вопрос, зависит ли количество дорожно-транспортных происшествий (ДТП) от цвета автомобилей? Здесь фактор – цвет автомобиля – является качественным. Можно поставить другой вопрос: зависит ли количество ДТП от возраста водителя? Здесь фактор – возраст водителя – является количественным. В результате дисперсионного анализа может быть принято одно из двух решений: или «да», или «нет». Анализ можно проводить как по каждому фактору отдельно, так и по двум или нескольким факторам одновременно. В первом случае анализ называют однофакторным дисперсионным анализом, во втором – двухфакторным или многофакторным. Общую постановку задачи дисперсионного анализа рассмотрим для случая, когда имеется три фактора. Пусть X – некоторая случайная величина, на которую могут влиять факторы A, B и C. Требуется выяснить, какие из этих факторов являются существенными в смысле влияния на величину X и какие – несущественными. Для ответа на этот вопрос все факторы квантуются в определённом смысле или, как принято говорить, разбиваются на уровни. Например, для фактора A – «цвет» – уровнями являются различные цвета: уровень A1 – «красный», A2 – «синий», A3 – «зелёный» и т.д. Уровнями фактора B – «возраст» – могут быть различные непересекающиеся интервалы, например, уровень B1 – возраст от 20 до 30 лет, уровень B2 – от 30 до 40 и т.д. Пусть фактор A имеет уровни A1, A2 A3, …, An, фактор B – уровни B1, B2, B3, …, Вn, фактор C – уровни C1, C2, C3, …, Сn. Делаются измерения величины X при различных комбинациях уровней факторов, например, при комбинациях (A1, B1, C1), (A2, B1, C1), (A1, B1, C2), (A3, B2, C1) и т.д. Схема выбора комбинаций уровней факторов, при которых следует делать измерения, называется планом эксперимента. Если перебираются все возможные комбинации уровней факторов, то план эксперимента называют полным факторным планом. Предположим, что каждый фактор имеет по s уровней. Тогда число различных комбинаций уровней факторов будет равно s3. Это число может оказаться большим, что приводит к большому объёму выборки. Чтобы сократить требуемый объём выборки, применяют другие планы эксперимента. Классическим примером такого плана является план «латинский квадрат», который применяется для трёхфакторного анализа. Смысл этого плана состоит в том, что для измерений отбираются только такие комбинации уровней факторов, среди которых комбинации с одинаковыми парами уровней встречаются только один раз. Такой план позволяет сократить минимальное число измерений с s3 до s2. Измерения, сделанные при комбинации уровней факторов (Ai, Bj, Ck), будем обозначать через xijkr, где r – номер измерения при данной комбинации. В дисперсионном анализе предполагается, что все измерения являются статистически независимыми и распределёнными по нормальному закону с одной и той же дисперсией σ2. Предполагается также, что xijkr = mijk + ξijkr, 126 Дисперсионный анализ где mijk – математическое ожидание величины X при комбинации уровней (Ai, Bj, Ck); ξijkr – нормально распределённая случайная величина с нулевым математическим ожиданием и дисперсией σ2. Требуется проверить гипотезу H0 о том, что все математические ожидания одинаковы, т. е. mijk = m для всех значений i, j, k. Эта гипотеза эквивалентна предположению, что ни один из факторов не влияет на величину X. Альтернативной или конкурирующей гипотезой H1 является предположение, что хотя бы один фактор влияет на величину X. Принимая решение H0, мы отвергаем влияние на X одновременно всех факторов. Принимая решение H1, мы признаём, что на величину X оказывает существенное влияние хотя бы один фактор. Сделать вывод более детально можно только после дополнительного анализа на отсутствие взаимодействия между факторами. Если такое взаимодействие имеет место, то может оказаться, что каждый фактор индивидуально не влияет на величину X, но за счёт их взаимодействия влияние факторов на X в совокупности будет существенным. Если взаимодействия между факторами нет, то решение о влиянии на величину X можно принимать по каждому фактору независимо. 8.2. Однофакторный дисперсионный анализ Пусть проверяется гипотеза H0 о том, что фактор A не влияет на величину X. Предположим, что фактор A имеет k уровней: A1, A2, …, Ak. На каждом уровне фактора сделаем по n измерений. Получим совокупность измерений xij, i = 1, 2, …, k, j = 1, 2, …, n. Обозначим через mi математическое ожидание величины X при i-м уровне фактора A. Общее математическое ожидание величины X обозначим через m. На основе экспериментальных данных требуется проверить гипотезу H0 о равенстве всех математических ожиданий: H0: m1 = m2 = … = mk = m. (8.1) Для проверки гипотезы вычисляются оценки математических ожиданий на всех уровнях фактора и оценка общего математического ожидания: 1 n 1 k n 1 k * m*i = ∑ x ij , i = 1 , 2 , ..., k ; m* = (8.2) ∑ ∑ x ij = ∑ mi . n j =1 kn i =1 j =1 k i =1 Зависимость исследуемой величины от фактора A может обнаружиться при сравнении оценок математических ожиданий mi* (для всех i) с оценкой общего математического ожидания m*. Однако такое сравнение в дисперсионном анализе делается не непосредственно, а с помощью эмпирических дисперсий. Именно поэтому такой анализ называется дисперсионным. Опуская коэффициент 1/(kn), который фигурирует в оценке дисперсии величины X, рассмотрим сумму квадратов отклонений измеренных значений этой величины от общего эмпирического математического ожидания: kn ⋅ D x* = kn ⋅ k n 1 k n ⋅ ∑∑ [ xij − m ∗ ] 2 = Q = ∑∑ [ xij − m ∗ ] 2 . kn i =1 j =1 i =1 j =1 Идея дисперсионного анализа состоит в том, что эта сумма разбивается на две компоненты, одна из которых обусловлена влиянием фактора A, другая – всеми другими, неконтролируемыми, факторами. Проведём такое разбиение: k n k n Q = ∑∑ [ xij − m * ] 2 = ∑∑ [( xij − mi* ) + (mi* − m * )]2 = i =1 j =1 k n i =1 j =1 k n k n = ∑∑ [ xij − mi* ] 2 + ∑∑ 2 ⋅ ( xij − mi* ) ⋅ (mi* − m * ) + ∑∑ [mi* − m * ] 2 . i =1 j =1 i =1 j =1 i =1 j =1 127 Теория вероятностей и математическая статистика Учитывая, что второе слагаемое равно нулю (в силу независимости измерений величины X), получим: Q = Q1 + Q2 , (8.3) где Q = k n k k n ∑∑ [ xij − m* ]2 , Q1 = n∑ [mi* − m* ]2 , Q2 = ∑∑ [ xij − mi* ]2 . Здесь в сумме Q1 провеi =1 j =1 i =1 i =1 j =1 дено суммирование по индексу j. Компонента Q1 характеризует отклонение средних значений величины X на разных уровнях фактора от общего среднего значения, т.е. характеризует влияние фактора A на рассматриваемую величину. Величина Q1 называется рассеиванием по фактору. Компонента Q2 указывает на рассеяние случайной величины внутри уровней фактора, т. е. эта компонента связана с влиянием на величину X некоторых других факторов. Величина Q2 называется остаточным рассеиванием. Сравнивая эти две компоненты, можно сделать определённые выводы относительно того, существенно ли влияние фактора A. Очевидно, что сравнение указанных компонент должно проводиться на основе некоторого критерия. Так как величина X по условию имеет нормальное распределение с дисперсией σ2, то величина Q/σ2 будет иметь распределение χ2 с (nk – 1) степенью свободы. С другой стороны, все величины mi* (i = 1, 2, …, k) также будут распределены по нормальному закону с одинаковой дисперсией σ2/n. Предположим теперь, что гипотеза H0 верна. Тогда величина Q1/σ2 будет распределена по закону χ2 с (k – 1) степенью свободы. Опираясь на свойства распределения χ2, можно сделать вывод, что отношение Q2/σ2 также распределено по закону χ2 с числом степеней свободы, равным разности (nk – 1) – – (k – 1) = k(n – 1). Следовательно, отношение F, определяемое формулой F= Q1 /(k − 1) , Q2 /[k (n − 1)] (8. 4) будет иметь F-распределение (Фишера – Снедекора) со степенями свободы k – 1 и k(n – 1). Далее проверка гипотезы проводится обычным образом. Задаётся уровень значимости α (вероятность ошибки первого рода) и по таблицам F-распределения решается уравнение P{F ≥ Fα } = α . (8.5) Из этого уравнения находится критическое значение Fα, которое является нижней границей критической области значений F. Правило принятия решения следующее: если F – вычисленное значение по формуле (8.4), то при F < Fα гипотеза H0 принимается, а при F ≥ Fα гипотеза отвергается. Смысл этого правила очевиден. Если фактор A не оказывает существенного влияния на X, т.е. гипотеза H0 истинна, то величина Q1 должна быть относительно малой по отношению к величине Q2. Если же отношение F оказывается большим, то влияние фактора A следует признать существенным. При «ручных» вычислениях удобнее пользоваться следующими формулами: k n k Q = ∑∑ xij2 − n ⋅ k ⋅ m *2 , Q1 = n(∑ mi*2 − k ⋅ m *2 ), Q2 = Q − Q1 . i =1 j =1 (8.6) i =1 Сами вычисления обычно проводят в таблицах. Один из вариантов такой таблицы приводится в примере 8.1. Пример 8.1. Исследуется зависимость процентного содержания брака (величина X) среди изделий, изготовленных за единицу времени, от температуры окружающей среды (фактор A). Был произведён подсчёт количества бракованных изделий для пяти интервалов времени при трёх различных температурах окружающей среды. Результаты измерений представлены в следующей таблице. 128 Дисперсионный анализ Процент брака при повышенной температуре 2,5 3,3 2,4 3,0 2,6 Процент брака при нормативной температуре 2,4 3,2 2,2 2,7 2,3 Процент брака при пониженной температуре 2,6 3,4 3,0 3, 1 2,8 Методом дисперсионного анализа проверить гипотезу о влиянии температуры среды на процентное содержание брака среди изготовленных изделий. Пусть уровень фактора A1 соответствует повышенной температуре, A2 – нормативной температуре, A3 – пониженной температуре. Все вычисления проведём по формулам (8.3) в одной таблице. xij Ai mi* xij2 mi*2 A1 2,5 3,3 2,4 3,0 2,6 2,76 6,25 10,89 5,76 9,0 6,76 7,6176 A2 2,4 3,2 2,2 2,7 2,3 2,56 5,76 10,24 4,84 7,29 5,29 6,5536 A3 2,6 3,4 3,0 3,1 2,8 2,98 6,76 11,56 9,0 9,61 7,84 8,8804 8,3 18,77 32,69 19,6 25,9 19,89 23,052 ∑ В последней строке таблицы записаны суммы элементов столбцов. Таким образом, 8,3 ≈ 2,7667, m *2 ≈ 7,6546, Q = 18,77 + 32,69 + 19,6 + 25,9 + 19,89 − 3 ⋅ 5 ⋅ 7,6546 ≈ 2,03, 3 0,439 / 2 Q1 = 5(23,052 − 3 ⋅ 7,6546) ≈ 0,439, Q2 = 2,03 − 0,439 = 1,591, F = ≈ 1,65. 1,591 / 12 m*= По таблице F-распределения при степенях свободы k1 = 2 и k2 = 12 и уровне значимости α = 0,05 находим критическое значение Fα = 3,88. Так как вычисленное значение F = 1,65 меньше критического значения Fα, то принимается гипотеза H0. Результаты анализа показывают, что влияние температурного режима на процентное содержание брака в готовой продукции не является существенным. 8.3. Двухфакторный дисперсионный анализ Двухфакторный анализ проводится аналогично. По каждому фактору вычисляется своё отношение F и находится своё критическое значение Fα. Отличием схемы двухфакторного анализа от однофакторного является то, что в двухфакторном анализе появляется необходимость проверки гипотезы об отсутствии взаимодействия между факторами. Пусть проверяется гипотеза о влиянии факторов A и B на величину X. Предположим, что фактор A имеет k уровней, а фактор B – n уровней. Измерение величины X на iом уровне фактора A и на j-ом уровне фактора B будем обозначать xijr, где r – номер измерения на данной комбинации уровней. Отбросим временно третий индекс, считая, что на каждой комбинации уровней факторов сделано по одному измерению. Введём обозначения: 1 n 1 k m*i+ = ∑ x ij , i = 1 , 2 ,..., k ; m*+ j = ∑ x ij , n j =1 k i =1 (8.7) n k 1 j = 1 , 2 ,..., n ; m* = x , i = 1 , 2 , ..., k . ∑ ∑ ij nk j =1i =1 129 Теория вероятностей и математическая статистика Здесь m*i + есть эмпирическое математическое ожидание величины X на i-ом уровне фактора A, m*+ j – на j-ом уровне фактора, m* – общее эмпирическое математическое ожидание величины. Пусть mi + , m + j, m – соответствующие истинные (неизвестные) математические ожидания величины X . Тогда основная гипотеза H0 заключается в равенстве всех истинных математических ожиданий: H 0 : m1+ = m2+ = ... = mk + = m+1 = m+ 2 = ... = m+ n = m. Для проверки этой гипотезы сумма квадратов отклонений измерений от общего эмпирического математического ожидания разбивается на три компоненты: k n k Q = Q1 + Q2 + Q3 , где Q = ∑∑ [ xij − m* ]2 , Q1 = n ⋅ ∑[mi*+ − m* ]2 , i =1 j =1 n k i =1 n Q2 = k ⋅ ∑[m − m ] , Q3 = ∑∑[ xij − m − m + m ] . i =1 * +j * 2 i =1 j =1 * i+ * +j (8.8) * 2 Компонента Q1 характеризует влияние фактора A на рассматриваемую величину. Величина Q1 называется рассеиванием по фактору A. Компонента Q2 характеризует влияние фактора B на рассматриваемую величину и называется рассеиванием по фактору B. Компонента Q3 указывает на рассеяние случайной величины внутри комбинаций уровней факторов, т. е. эта компонента связана с влиянием на величину X некоторых других факторов. Величина Q3 называется остаточным рассеиванием. Так как величина X по условию имеет нормальное распределение с дисперсией σ2, то величина Q/σ2 будет иметь распределение χ2 с (nk – 1) степенью свободы. Все величины m*i + (i = 1, 2, …, k) также будут распределены по нормальному закону с одинаковой дисперсией σ2/n, а величины m*+ j (j = 1, 2, …, n) – по нормальному закону с дисперсией σ2/k. Предположим теперь, что гипотеза H0 верна. Тогда величина Q1/σ2 будет распределена по закону с χ2 (k – 1) степенью свободы, а величина Q2/σ2 будет распределена по закону с χ2 (n – 1) степенью свободы. Опираясь на свойства распределения χ2, можно сделать вывод, что отношение Q3/σ2 также распределено по закону χ2 с числом степеней свободы, равным разности (nk – 1) – (k – 1) – (n – 1) = nk – k – n + 1 = (k – 1)(n – 1). Следовательно, отношение F1, определяемое формулой F1 = Q1 /(k − 1) Q ⋅ (n − 1) = 1 , Q3 /[(k − 1)(n − 1)] Q3 (8.9) будет иметь F-распределение (Фишера – Снедекора) со степенями свободы k – 1 и (k – 1)– (n – 1), а отношение F2, определяемое формулой F2 = Q2 /(n − 1) Q ⋅ (k − 1) , = 2 Q3 /[(k − 1)(n − 1)] Q3 (8.10) будет иметь F-распределение со степенями свободы n – 1 и (k – 1)(n – 1). Далее задаётся уровень значимости α и по таблицам F-распределения дважды решается уравнение P{F ≥ Fα } = α . По степеням свободы k – 1 и (k – 1)(n – 1) определяется критическое значение Fα1, а по степеням свободы n – 1 и (k – 1)(n – 1) – критическое значение Fα2. Правило принятия решения следующее: если F1 < Fα1 и F2 < Fα2 то гипотеза H0 принимается. Это означает, что оба фактора не оказывают существенного влияния (при заданном уровне значимости) на исследуемую величину. В случае, когда взаимодействие между факторами отсутствует, решение можно принимать по каждому фактору индивидуально. Если F1 ≥ Fα1 и F2 < Fα2, то фактор A влияет, а фактор B не влияет на величину X. При F1 < Fα1 и F2 ≥ Fα2, напротив, фактор A не влияет, а фактор B влияет на величину X. Наконец, если 130 Дисперсионный анализ F1 ≥ Fα1 и F2 ≥ Fα2, то нужно признать влияние на X обоих факторов. Не следует забывать, что эти выводы имеют вероятностный характер, так как имеют место вероятности ошибок первого и второго рода. При «ручных» вычислениях удобнее пользоваться следующими формулами: k n Q = ∑∑ xij2 − n ⋅ k ⋅ m *2 , i =1 j =1 n Q2 = k (∑ m+*2j − n ⋅ m *2 ), i =1 k Q1 = n(∑ mi*+2 − k ⋅ m *2 ), i =1 (8.11) Q3 = Q − Q1 −Q2 . Для проверки гипотезы об отсутствии взаимодействия между факторами необходимо иметь по нескольку измерений на каждой комбинации уровней факторов. Предположим, что на каждой комбинации уровней факторов сделано по t измерений. Тогда рассматривается обычная задача двухфакторного анализа, в которой вместо xij берутся величины xij + : 1 t x ij + = ∑ x ijr , i = 1 , 2 ,..., k ; j = 1 , 2 ,..., n. t r =1 Гипотеза об отсутствии взаимодействия проверяется следующим образом. Вычисляется дополнительное отношение F3: F3 = где Q4 = k n t ∑∑∑ ( x i =1 j =1 r =1 ijr Q3 /[(k − 1)(n − 1)] , Q4 /[ kn ⋅ (t − 1)] − xij + ) 2 . Отношение F3 будет иметь F-распределение со степенями свободы (k – 1)(n – 1) и kn(t – 1). Как обычно, по уровню значимости α и данным степеням свободы определяется критическое значение Fα3. Если F3 < Fα3, то взаимодействие между факторами не является существенным. Это означает, что решение о влиянии факторов можно принимать индивидуально по каждому фактору. Если F3 ≥ Fα3, то взаимодействие между факторами признаётся существенным. В таком случае нужно провести однофакторный анализ по каждому фактору отдельно, затем учесть, что в совокупности эти факторы также оказывают влияние на исследуемую величину. 8.4. Трёхфакторный дисперсионный анализ. План «латинский квадрат» Рассмотренную схему проведения дисперсионного анализа можно применять и для большего числа факторов. Однако с ростом числа факторов резко повышается требуемый объём измерений случайной величины. В связи с этим иногда отказываются от полного факторного плана и применяют тот план эксперимента, который позволяет сократить число измерений. Рассмотрим одним из таких планов – план «латинский квадрат», применяемый в трёхфакторном анализе. Имеется случайная величина X, на которую, возможно, влияют три фактора A, B и C. Пусть каждый фактор имеет n уровней. Тогда для реализации полного факторного плана потребуется не менее чем n3 измерений. Идея плана «латинский квадрат» состоит в следующем. Измерения делаются по такой схеме, в которой каждая пара уровней раз131 Теория вероятностей и математическая статистика личных факторов встречается только один раз. Представим таблицей такую схему для n = 3:  A1 B1C1  схема измерений  A2 B1C 2 A BC  3 1 3 A1 B3C 3   C1   A2 B3 C1  , матрица CK =  C 2 C A3 B3 C 2   3 A1 B2 C 2 A2 B2 C 3 A3 B2 C1 C3   C1  . C 2  C2 C3 C1 Здесь любая пара уровней встречается только один раз. Строки таблицы соответствуют уровням фактора A, столбцы – уровням фактора B. Для удобства чтения таблицы измерений можно рядом записать ключевую матрицу СK для уровней фактора С. Такой план эксперимента позволяет сократить число измерений с n3 до n2 (с 27 до 9 при n = 3). Измерения величины X индексируются двумя индексами: по факторам A и B. Принадлежность измерения одному из уровней фактора C определяется по матрице CK:  x11   x 21 x  31 x12 x 22 x32 x13   x 23  . x33  Эмпирические математические ожидания находятся по формулам: mi*+ = 1 n ∑ xij , n j =1 m+* j = 1 n ∑ xij , n i =1 mt* = 1 ∑ xij , n t m* = 1 n2 n n ∑∑ x i =1 j =1 ij . (8.12) Здесь m*I + – эмпирическое математическое ожидание на i-ом уровне фактора A, m*+ * * j – то же на j-ом уровне фактора B, m t – на t-ом уровне фактора C, m – общее эмпирическое математическое ожидание. Все индексы изменяются от 1 до n. Далее процедура анализа аналогична схеме двухфакторного анализа. Приведём соответствующие формулы: n n n Q = Q1 + Q2 + Q3 + Q4 , где Q = ∑∑ [ xij − m * ] 2 , Q1 = n ⋅ ∑ [mi*+ − m * ] 2 , i =1 j =1 n n i =1 n n Q2 = n ⋅ ∑ [m − m ] , Q3 = n ⋅ ∑ [m − m ] , Q4 = ∑∑ [ xij − m − m − m + 2m ] . j =1 * +j * 2 t =1 * t * 2 i =1 j =1 * i+ * +j * t (8.13) * 2 После вычисления этих сумм находятся три отношения: F1 = Q1 ⋅ (n − 2) , Q4 F2 = Q 2 ⋅ ( n − 2) , Q4 F3 = Q3 ⋅ (n − 2) . Q4 (8.14) Число степеней свободы одинаково для Q1, Q2, Q3, и равно (n – 1). У суммы Q4 имеется (n – 1)(n – 2) степеней свободы. Таким образом, критическое значение Fα находится по таблицам F-распределения для (n – 1) и (n – 1)(n – 2) степеней свободы при заданном уровне значимости α, как решение уравнения (8.5). Решение принимается точно так же, как в двухфакторном анализе. Если выполняются неравенства F1 < Fα, F2 < Fα, F3 < Fα, то гипотеза H0 принимается. Это значит, что влияние всех трёх факторов на исследуемую величину признаётся не существенным. Если хотя бы одно из указанных неравенств не выполняется, то для принятия решения по каждому фактору индивидуально необходима полная уверенность в том, что взаимодействия между факторами нет. Если такой уверенности нет, то придётся дополнительно проверять гипотезу об отсутствии взаимодействия между факторами. Эта процедура аналогична той, которая была рассмотрена в схеме двухфакторного анализа. 132 Дисперсионный анализ Термины для запоминания ♦ Дисперсионный анализ; однофакторный дисперсионный анализ; двухфакторный и многофакторный дисперсионный анализ; план эксперимента; полный факторный план; план «латинский квадрат»; рассеивание по фактору; остаточное рассеивание. Список контрольных вопросов Какую задачу решает дисперсионный анализ? Как понимать термины «однофакторный анализ» и «многофакторный анализ»? Что такое «план эксперимента» в дисперсионном анализе? В чём заключается идея полного факторного плана и плана «латинский квадрат»? Какой критерий проверки гипотезы используется в дисперсионном анализе? Как сравниваются математические ожидания исследуемой величины на разных уровнях факторов? 7. Что называется рассеиванием по фактору? 8. Что называется остаточным рассеиванием? 9. Объясните правило принятия решения в однофакторном дисперсионном анализе. 10. Объясните правило принятия решения в двухфакторном дисперсионном анализе. 11. Как проверить гипотезу об отсутствии взаимодействия между факторами? 12. На что указывает ключевая матрица в плане «латинский квадрат» дисперсионного анализа? 1. 2. 3. 4. 5. 6. Вопрос для обсуждения Предположим, что вас попросили выяснить с помощью статистических методов, влияет ли цвет автомобилей на количество автомобильных аварий. Как бы вы решали эту задачу? 133 Теория вероятностей и математическая статистика 134 Регрессионный анализ ТЕМА 9. Регрессионный анализ Студент должен освоить: • методику построения функций, аппроксимирующих статистические зависимости между величинами, и схем проведения регрессионного анализа; приобрести навыки: • проведения регрессионного анализа: линейного, нелинейного, одномерного, многомерного. 135 Теория вероятностей и математическая статистика Постановка задачи регрессионного анализа. Линейный и нелинейный одномерный регрессионный анализ. Многомерный линейный регрессионный анализ. Краткое содержание 9.1. Постановка и схема решения задачи регрессионного анализа Задача регрессионного анализа – это задача об аппроксимации, т.е. приближённой замене, статистической связи между величинами функциональной связью. В регрессионный анализ входят и сопутствующие задачи, связанные с оценкой точности аппроксимации, её достоверности, а также задачи по выявлению тех переменных, которые существенным образом влияют на исследуемую случайную величину. Рассмотрим общую постановку задачи регрессионного анализа. Пусть на величину Z могут (предположительно) влиять величины X, Y, …, T. Имеются и другие величины (или факторы), влияющие на величину Z, которые не являются контролируемыми. В связи с этим точное вычисление (прогнозирование) значений величины Z по известным значениям величин X, Y, …, T оказывается невозможным. В регрессионном анализе предполагается, что для возможных значений указанных величин выполняется соотношение z = ϕ(x, y, …, t) + ξ, (9.1) где ϕ(x, y, …, t) – неизвестная функция, а ξ – случайная компонента, обусловленная неучтёнными факторами и независящая от переменных x, y, …, t. Предполагается, что случайная компонента ξ имеет нормальное распределение с нулевым математическим ожиданием и дисперсией σξ2. Приближённое определение функции ϕ(x, y, …, t) по экспериментальным данным и является основной задачей регрессионного анализа. Заметим, что аргументы искомой функции могут быть либо случайными, либо не случайными величинами. Здесь существенно то, что неконтролируемая компонента является случайной величиной. Эта особенность отличает задачу регрессионного анализа от других задач подобного типа, например, от задачи интерполяции. В п. 3.6 уже говорилось о том, что лучшей функцией для прогнозирования значений одной случайной величины по значениям другой величины является регрессия. Это положение справедливо и для случая, когда у зависимой переменной есть не один, а несколько аргументов. Действительно, если бы была известна условная плотность распределения f(z | x, y, …, t), то можно было бы определить условное математическое ожидание величины Z по отношению к величинам X, Y, …, T: m z ( x, y, ..., t ) = M {Z | X , Y , ..., T } = ∞ ∫ z ⋅ f ( z | x, y, ..., t )dz . −∞ Эта функция была бы наилучшей в смысле минимума среднего квадрата отклонения истинных значений величины z от прогнозируемых. На практике получить условный закон распределения вероятностей невозможно, поскольку исследователь располагает только измерениями случайных величин, не имея никакой дополнительной информации. В связи с этим, функция ϕ(x, y, …, t) может быть установлена только приближённо. Эту функцию называют аппроксимирующей функцией или прогнозирующей функцией. Задача регрессионного анализа условно разбивается на два этапа. На первом этапе выбирается структура аппроксимирующей функции с точностью до неизвестных параметров. Этот выбор делается на основе некоторых известных физических, химических, экономических (и т.п.) свойств рассматриваемого процесса или на основе иных соображе136 Регрессионный анализ ний. В частности, если изучается зависимость между двумя величинами, т.е. ищется аппроксимирующая функция z = ϕ(x), то можно нанести экспериментальные точки (xi, yi), i = 1, 2, …, n, на координатную плоскость и по характеру расположения этих точек сделать предположения о структуре аппроксимирующей функции. При полном отсутствии информации о структуре аппроксимирующей функции в качестве такой функции выбирают многочлен от её аргументов. Степень многочлена может быть уточнена при дальнейшем исследовании. На втором этапе определяют неизвестные коэффициенты аппроксимирующей функции из условия минимума среднего квадрата ошибки прогнозирования. Делается это следующим образом. Пусть имеется n независимых измерений соответствующих значений величин Z, X, Y, …, T: z 1 x 1 y 1 ... t 1 z2 x2 y2 ... t 2 ... ... ... ... ... z n x n y n ... t n Тогда для каждого zi, i = 1, 2, …, n, можно записать: zi = ϕ(xi, yi, …, ti, a, b, …, h) + ξi, (9.2) где ϕ(xi, yi, …, ti, a, b, …, h) – функция, структура которой была выбрана на первом этапе с точностью до неизвестных коэффициентов a, b, …, h. Неконтролируемая компонента ξi представляет собой ошибку аппроксимации. Таким образом, средний квадрат ошибки аппроксимации будет равен: 1 n 2 1 n 1 ξ i = ∑ [ z i − ϕ( x i , y i ,..., t i )] 2 = ⋅ S . ∑ n i =1 n i =1 n (9.3) Коэффициент 1/n не влияет на процесс минимизации. Поэтому обычно минимизируют сумму S. Необходимым условием экстремума функции нескольких переменных является равенство нулю частных производных по этим переменным. Легко видеть, что величина S имеет минимум и не имеет максимума. Поэтому для определения точки экстремума (минимума) достаточно решить систему уравнений: n  ∂S ∂ϕ = 0,  = −2 [ z i − ϕ( x i , y i , ..., t i , a , b , ..., h )] ⋅ ∂a i =1  ∂a n  ∂S ∂ϕ  = −2 [ z i − ϕ( x i , y i , ..., t i , a , b , ..., h )] ⋅ = 0, (9.4)  ∂b ∂b i =1 − − − − − − − − − − − − − − − − − − − − − − − − − − −  ∂S n  = −2 [ z i − ϕ( x i , y i , ..., t i , a , b , ..., h )] ⋅ ∂ϕ = 0. ∂h i =1  ∂h ∑ ∑ ∑ Пусть значения a*, b*, …, h* есть решение данной системы уравнений. Тогда функция ~ z = ϕ ( x, y, ..., t , a * , b * , ..., h * ) (9.5) будет наилучшей аппроксимирующей функцией в смысле минимума среднего квадрата ошибки прогнозирования (наилучшей для выбранной структуры). Точность аппроксимации определяется остаточной дисперсией. Смысл остаточной дисперсии рассмотрен в п. 3.6. Если в качестве функции ϕ(x, y, …, t) выбрать условное математическое ожидание mz(x, y, …, t), то дисперсия величины Z будет равна (9.6) Dz = Dϕ + Dξ, где Dϕ – дисперсия контролируемой компоненты ϕ(x, y, …, t) из (9.1); Dξ – дисперсия неконтролируемой компоненты ξ. При прогнозировании значений z по формуле (9.5) неопределённость, связанная со случайным характером первой компоненты в (9.1), снимается, а неоп137 Теория вероятностей и математическая статистика ределённость, обусловленная случайным характером неконтролируемой компоненты ξ, остаётся. Поэтому дисперсию Dξ называют остаточной дисперсией. Точно определить эту дисперсию невозможно, поскольку неизвестно условное математическое ожидание mz(x, y, …, t). Для аппроксимирующей функции (9.5) остаточная дисперсия определяется формулой: * Dост = 1 n ∑ [ zi − ~z i ]2 . n − k i =1 (9.7) В этой формуле число k является числом оценённых параметров аппроксимирующей функции. Эти параметры были оценены на основе одной и той же выборки измерений. Поэтому число независимых слагаемых в сумме (9.7) будет равно n – k, а не n, как в (9.3). Предположим, что получена некоторая аппроксимирующая функция типа (9.5). Тогда для этой функции можно записать равенство: Dz* = Dϕ* + D*ост. При этом D*ост не будет минимальной, так как аппроксимирующая функция является всего лишь приближённым выражением регрессии. Тем не менее, можно ввести некоторый коэффициент связи, аналогичный корреляционному отношению, который характеризует силу связи между величиной Z и всеми аргументами аппроксимирующей функции в совокупности: R = 2 Dϕ* D z* = 1− * Dост . D z* (9.8) Если аппроксимирующая функция имеет всего один аргумент, например X, то величина R2 будет являться оценкой корреляционного отношения η 2z / x . Если, кроме того, имеет место только линейная связь, то величина R2 будет оценкой квадрата коэффициента корреляции rzx2 . Если аргументов несколько, а статистическая связь только линейная, то R называют обобщённым коэффициентом корреляции. Рассмотрим подробнее случай, когда аппроксимируется зависимость величины Z всего от одной случайной величины X. Выберем структуру аппроксимирующей функции в виде многочлена степени q: (9.9) z = aqxq + aq–1xq–1 + … + a1x + a0. Тогда система уравнений (9.4) запишется следующим образом: n  ∂S 2 [ z i − ( a 0 + a 1 x i + a 2 x i2 + ... + a q x iq )] ⋅ x iq = 0 , = −  a ∂ q i =1  n  ∂S  = −2 [ z i − ( a 0 + a 1 x i + a 2 x i2 + ... + a q x iq )] ⋅ x iq −1 = 0 ,  ∂a q −1 i =1  − − − − − − −−−−−−−−−−−−−−−−−−−−−−−−−  n S ∂  = −2 [ z i − ( a 0 + a 1 x i + a 2 x i2 + ... + a q x iq )] = 0.  ∂a 0 i =1 ∑ ∑ ∑ Преобразуя эту систему, получим: n n n n n  q +1 q 2q 2 q −1 a x a x ... a x a x z i x iq , + + + + =  q q −1 1 i i i i i =1 i =1 i =1 i =1  in=1 n n n n   a q x i2 q −1 + a q −1 x i2 q − 2 + ...+ a 1 x iq + a 0 x iq −1 = z i x iq −1 , (9.10)  i =1 i =1 i =1 i =1 i =1 − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − − −  n n n n  aq x iq + a q −1 x iq −1 + ... + a 1 x i + a 0 n = zi .  i =1 i =1 i =1 i =1 Особенностью данной системы является то, что её матрица коэффициентов симметрична относительно своей главной диагонали. Кроме того, элементы матрицы могут значительно различаться между собой. Это приводит к неустойчивости процесса реше- ∑ ∑ ∑ ∑ ∑ ∑ ∑ 138 ∑ ∑ ∑ ∑ ∑ ∑ ∑ Регрессионный анализ ния системы, т.е. малые отклонения в значениях коэффициентов могут привести к большим отклонениям в самом решении системы. В целях избежания этого эффекта рекомендуется вычислять коэффициенты системы с достаточно большой точностью. Если поделить все уравнения системы на объём выборки n, то окажется, что матрица системы полностью будет состоять из эмпирических моментов случайной величины X, а правые части системы будут представлять эмпирические смешанные моменты случайных величин X и Z. Таким образом, коэффициенты аппроксимирующей функции определяются эмпирическими моментами рассматриваемых случайных величин. 9.2. Одномерный линейный регрессионный анализ При q = 1 получаем линейную аппроксимирующую функцию z = a1x + a0. Для удобства будем использовать другое обозначение: z = ax + b. В таком случае n n i =1 i =1 S = ∑ ξ i2 = ∑ [ z i − axi − b] 2 . Коэффициенты a и b определяются системой уравнений: n n  n 2 a x + b x = xi z i ∑ ∑ i  ∑ i i =1 i =1 i =1  n n a ∑ xi + bn = ∑ z i .  i =1 i =1 (9.11) Решая систему по правилу Крамера, получим следующие оценки для неизвестных параметров аппроксимирующей функции: a* = n n n i =1 i =1 i =1 n∑ xi z i − ∑ xi ∑ z i  n  n ∑ xi2 −  ∑ xi  i =1  i =1  n 2 , b* = n 1 n   ∑ z i − a * ∑ xi . n  i =1 i =1  (9.12) Таким образом, аппроксимирующая функция и остаточная дисперсия определяются формулами: n 1 ~ z = a * x + b *, D ост = [zi − ~ zi ]2 . . (9.13) n − 2 i=1 ∑ В соответствии с (9.12), b* = m *z − a * m *x , где m *z и m *x есть эмпирические математические ожидания величин Z и X. Учитывая это, можно сразу задать структуру аппроксимирующей функции в виде: z = a ⋅ ( x − m *x ) + m *z . Проводя оптимизацию по параметру a, получим: * K zx* * σz a* = * = rzx ⋅ * , Dx σx b* = m *z − a1* m *x . (9.14) Следовательно, σ* ~ z = m *z + rzx* ⋅ *z ( x − m *x ). σx (9.15) * и rzx* есть соответственно эмпирические ковариационВ формулах (9.14) и (9.15) K zx ный момент и коэффициент корреляции для величин X и Z: K zx* = 1 n {xi − m *x ){z i − m *z ), ∑ n i =1 rzx* = K zx* , σ *z σ *x (9.16) 139 Теория вероятностей и математическая статистика где σ *я = D z* и σ *x = D x* – эмпирические средние квадратические отклонения. Для эмпирического ковариационного момента справедливо следующее соотношение: K zx* = 1 n  1 n  1 n  xi z i −  ∑ xi  ∑ z i  . ∑ n i =1  n i =1  n i =1  (9.17) Эта формула эквивалентна формуле (3.23) для теоретических моментов. Можно найти коэффициенты аппроксимирующей функцию z = ax + b исходя непосредственно из теории случайных величин. Для этого нужно минимизировать математическое ожидание квадрата отклонения случайной величины Z от функции aX + b: М {[ Z − aX − b] 2 } = М {[( Z − m z ) − a( X − m x ) − (b − m z − am x ] 2 } → min . a ,b Возводя в квадрат и пользуясь свойствами математического ожидания, получим: σ 2z − 2aK xz + a 2 σ 2x + (b − m z − am x ) 2 → min . Отсюда следует, что a ,b a = rxz σz σ σ , b = m z − rxz z m x , т.е. z = m z + rxz z ( x − m x ). σx σx σx Формула совпадёт с формулой (9.15), если в ней заменить теоретические моменты эмпирическими. Если известно, что величины X и Z имеют нормальное распределение, то найденная аппроксимирующая функция по структуре будет точно совпадать с теоретической регрессией. Теоретическая регрессия повторяет структуру формулы (9.15), но вместо эмпирических характеристик содержит теоретические характеристики. Это совпадение связано с тем, что, согласно законам преобразования случайных величин, две нормально распределённые величины могут иметь только линейную связь. Никаких других связей между ними быть не может. В окружающем мире широко распространено нормальное распределение (согласно центральной предельной теореме). Поэтому и линейный регрессионный анализ имеет широкое применение. Построение доверительного интервала для коэффициентов связи r* и a* в общем случае является трудной задачей. Если величины X и Z имеют нормальное распределение или достаточно близкое к нормальному распределению, то r* будет распределено нормально с математическим ожиданием r и дисперсией σr2 ≈ (1 – r*2)2/n. Величина T= r * −r (r * −r ) n = при больших n будет центрированной и нормированной норσr 1 − r *2 мально распределённой случайной величиной. Рассмотрим уравнение P{| T | < εγ} = γ. Очевидно, что P{| T | < εγ} = 2Ф(εγ}. Решая уравнение Ф(εγ} = γ/2 по таблицам нормального распределения при заданной доверительной вероятности γ, найдём εγ. Получим доверительный интервал: r * −ε γ 1 − r *2 1 − r *2 < r < r * +ε γ σr σr (9.18) с вероятностью γ. Из этого интервала легко получается доверительный интервал для a*: a * −ε γ 1 − r *2 σ *z 1 − r *2 σ *z ⋅ * < a < a * +ε γ ⋅ * . σr σr σx σx При малых значениях n нужно пользоваться распределением Стьюдента. 140 (9.19) Регрессионный анализ Пример 9.1. При исследовании зависимости между случайными величинами X и Y была получена следующая таблица измерений соответствующих значений этих величин: xi: 0,3 0,4 0,5 0,5 0,6 0,7 0,8 0,9 0,9 1,0 1,1 1,4 yi: 0,2 0,8 1,2 1,1 1,8 2,5 3,1 3,4 3,8 4,1 4,4 5,9 Вычислить ковариационный момент и коэффициент корреляции. Аппроксимировать статистическую зависимость между этими величинами линейной функцией y = ax + b. Все вычисления удобно проводить в специальной таблице. В левой части таблицы вычисляются все необходимые суммы (последняя строка таблицы) для определения коэффициентов аппроксимирующей функции. Найдём сначала эмпирические математи- ческие ожидания: m*x = 9,1 ≈ 0,758, 12 m*y = 32,3 ≈ 2,691 . 12 Пользуясь формулами (9.12), вычислим коэффициенты аппроксимирующей функции: a* = 12 ⋅ 30,52 − 9,1 ⋅ 32,3 ≈ 5,34, 12 ⋅ 8,03 − 9,12 b* = 2,691 − 5,34 ⋅ 0,758 ≈ −1,36 . Таким образом, аппроксимирующая функция имеет вид: ~ y = 5,34 x − 1,36 . i 1 2 3 4 5 6 7 8 9 10 11 12 Σ xi yi xi yi xi2 yi2 ~ yi yi − ~ yi ( yi − ~ yi ) 2 0,3 0,4 0,5 0,5 0,6 0,7 0,8 0,9 0,9 1,0 1,1 1,4 9,1 0,2 0,8 1,2 1,1 1,8 2,5 3,1 3,4 3,8 4,1 4,4 5,9 32,3 0,06 0,32 0,60 0,55 1,08 1,75 2,48 3,06 3,42 4,10 4,84 8,26 30,52 0,09 0,16 0,25 0,25 0,36 0,49 0,64 0,81 0,81 1, 00 1,21 1,96 8,03 0,04 0,64 1,44 1,21 3,24 6,25 9,61 11,56 14,44 16,81 19,36 34,81 119,41 0,242 0,776 1,310 1,310 1,844 2,378 2,912 3,446 3,446 3,980 4,514 6,116 32,274 –0,042 0,024 –0,110 –0,210 –0,044 0,122 0,188 –0,046 0,354 0,120 –0,114 –0,216 –0, 026 0,0018 0,0006 0,0121 0,0441 0,0019 0,0149 0,0353 0,0021 0,1253 0,0144 0,0130 0,0467 0,3122 Во второй части таблицы вычисляется остаточная дисперсия по формуле (9.13) с учётом того, что были оценены два параметра (a и b): 1 ⋅ 0 ,3122 = 0 ,03122 . 12 − 2 Таким образом, средняя квадратическая ошибка аппроксимации составит величину Dост = σ ост = Dост = 0,03122 = 0,177 . Вычислим ковариационный момент по формуле (9.17): K xy* = 1 ⋅ 30,52 − 0,758 ⋅ 2,691 ≈ 0,494 . 12 Для определения коэффициента корреляции необходимо вычислить оценки дисперсий величин X и Y: 1 Dx* = ⋅ 8,03 − 0 ,758 2 ≈ 0 ,094 , σ *x = 0 ,094 ≈ 0 ,307. 12 1 * Dy = ⋅ 119 ,41 − 2 ,691 2 = 2 ,71, σ *y = 2 ,71 ≈ 1,646. 12 141 Теория вероятностей и математическая статистика Следовательно, r * xy = K xy* σ σ * x = * x 0,494 ≈ 0,978 . 0,307 ⋅1,646 Полученный коэффициент корреляции очень высок. Этим объясняется малая величина средней квадратической ошибки аппроксимации. 9.3. Многомерный линейный регрессионный анализ Рассмотрим случай, когда случайная величина Z зависит от нескольких случайных величин Xi, i = 1, 2, …, k, причём зависимость предполагается линейной. Тогда будем иметь следующую структуру аппроксимирующей функции: k y = b + ∑ ai x i . (9.20) i =1 Коэффициенты ai и b этой функции нужно оценить. Пусть имеется n групп соответствующих измерений yj и xij. Здесь i – номер переменной, j – номер измерения, j = 1, 2, …, n. Коэффициенты определяются из условия минимума суммы квадратов отклонений истинных значений величины Y от прогнозируемых: n k r ( y − b − , a = (a1 , a 2 ,..., a k ). r ∑ j ∑ ai xij ) 2 = min j =1 Проводя минимизацию по b, получим: b = m *y − m *xi = (9.21) a ,b i =1 k ∑a m i =1 i * xi , где m *y = 1 n ∑ yj , n j =1 n 1 ∑ xij . Подставим найденное b в выражение (9.21): n j =1 n k r * [( y − m ) − r , a = ( a1 , a 2 , ..., a k ). ∑ j y ∑ ai ( xij − m *xi )]2 = min j =1 a i =1 Приравнивая частные производные по коэффициентам к нулю, получим систему уравнений: k  n * [( y m ) a i ( x ij − m xi* )]( x 1 j − m x* 1 ) = 0 , − −  j y i =1  j =1 k  n  [( y j − m y* ) − a i ( x ij − m xi* )]( x 2 j − m x* 2 ) = 0 ,  j =1 i =1 − − − − − − − − − − − − − − − − − − − − − − − − − −  n k *  [( y − m * ) − a i ( x ij − m xi* )]( x kj − m xk ) = 0. j y  j =1 i =1  ∑ ∑ ∑ ∑ ∑ ∑ Минимизация сводится к решению этой системы k уравнений с k неизвестными. Введём для краткости записи эмпирические коэффициенты ковариации: 142 1 n * ( x ij − m xi* )( x sj − m xs ), i , s = 1, 2 , ..., k ; n j =1 1 n * = ( y j − m y* )( x sj − m xs ), s = 1, 2 , ..., k. n j =1 K si = ∑ K ys ∑ Регрессионный анализ Получим следующую запись системы:  K 11 a 1 + K 12 a 2 + K 13 a 3 + ... + K 1 k a k = K y 1 ,  K a + K a + K a + ... + K a = K , y2 22 2 23 3 2k k  21 1 − − − − − − − − − − − − − − − − − − − − − − − −   K k 1 a 1 + K k 2 a 2 + K k 3 a 3 + ... + K kk a k = K yk .  (9.22) Решая её, найдём коэффициенты ai*. Аппроксимирующая функция запишется: ~ y = m y* + k ∑ a (x i =1 * i i − m xi* ). (9.23) Можно теперь оценить остаточную дисперсию: n k 1 * Dост = [( y j − m y* − a i* ( x ij − m xi* )]2 . n − к − 1 j =1 i =1 ∑ ∑ (9.24) Систему уравнений (9.22) в принципе можно решить любым способом (матричным способом, по формулам Крамера, методом Гаусса или Жордана – Гаусса). Однако нужно принять все способы сохранения точности решения. Матрица коэффициентов системы является симметрической (так как Kis = Ksi). Кроме того, коэффициенты могут значительно различаться по абсолютной величине. Эти обстоятельства часто приводят к неустойчивости решений системы. Для упрощения структуры аппроксимирующей функции рекомендуется провести подробный анализ корреляционной матрицы с целью выявления тех аргументов, которые наиболее существенно влияют на величину функции: 1  *  r21  r*  31  ...  *  rk1 r*  y1 r12* 1 r32* ... rk*2 ry*2 r13* r23* 1 ... rk*3 ry*3 ... ... ... ... ... ... r1*y   r2*y  K *ys r3*y  K is* , ris = * * , riy = * * . ...  σi σ s σ yσs *  rky  1  r1*k r2*k r3*k ... 1 ryk* Если найдутся две переменные, для которых ris* ≈ 1, то одну из этих переменных можно не учитывать. Если найдётся переменная, для которой riy* ≈ 0, то эту переменную также можно не учитывать. Рассмотрим подробнее случай двух аргументов. Пусть аппроксимирующая функция имеет вид: y = b + axx + azz. Имеется n групп измерений (xj, zj, yj), j = 1, 2, …, n. Тогда b = m*y − ax m*x − a z m*z , где m*y = 1 n 1 n 1 n * * ∑ y j , mx = ∑ x j , mz = ∑ x j . Имеем систему: n j =1 n j =1 n j =1 * * K 11 ax + K 12 az = K 1* y  * * * . K 21 ax + K 22 az = K 2 y Решая систему по правилу Крамера, находим: a = * x * K 1*y K 22 − K 2* y K 12* * * K 11* K 22 − K 21 K 12* , a = * z * K 2* y K 11* − K 1*y K 21 * * K 11* K 22 − K 21 K 12* . (9.25) 143 Теория вероятностей и математическая статистика Здесь коэффициенты выражены через центральные моменты второго порядка, т.е. коэффициенты ковариаций и дисперсии (Kii = σi2 – дисперсия i-ой величины). Можно выразить коэффициенты через коэффициенты корреляции, пользуясь тем, что Kis = risσiσs: * * rxz σ y* rxz*2 − ryz* rxz* σ y* rxz*2 − ryx * (9.26) a*x = * ⋅ , a . = ⋅ z *2 * *2 σ y 1 − rxz σ z 1 − rxz Заметим, что если отсутствует зависимость между аргументами функции, т.е. rxz* ≈ 0, то каждый коэффициент по структуре совпадает с соответствующим коэффициентом одномерной линейной регрессии. Остаточная дисперсия оценивается формулой 1 n * (9.27) Dост = [( y j − m y* − a x* ( x j − m x* ) − a z* ( z j − m z* )]2 . n − 3 j =1 ∑ Отметим, что в случае двух аргументов обобщённый коэффициент корреляции можно вычислить по формуле *2 *2 * * * rxy + rzy − 2rxy rzy rxz 2 R = . (9.28) 1 − rxz* 2 9.4. Одномерный нелинейный регрессионный анализ В соответствии с общими положениями, при нелинейном анализе можно применять любые нелинейные функции, имея в виду структуру (9.2). Если для выбора аппроксимирующей функции нет никакой дополнительной информации, то в качестве такой функции берут многочлены. Полагая в (9.9) q = 2, q = 3 и т.д., можно рассмотреть случай квадратичной аппроксимирующей функции, кубической и т.д. Например, для аппроксимирующей функции вида y = ax2 + bx + c (q = 2) неизвестные коэффициенты определяются следующей системой уравнений: a n x 4 + b n x 3 + c n x 2 = n y x 2 ∑ i ∑ i ∑ i i i  i∑ =1 i=1 i=1 i=1  n n n n  3 2 (9.29) a ∑ xi + b ∑ xi + c ∑ xi = ∑ yixi . i=1 i=1 i=1 i=1  n n  n 2 a x b x cn yi + + = ∑ ∑ ∑ i i  i = 1 i=1 i=1 После определения оценок неизвестных коэффициентов (a*, b*, c*) остаточная дисперсия находится по общей формуле Dост = 1 n ∑ [ yi − ~yi ]2 , где n − 3 i =1 ~ y i = a * xi2 + b * xi + c * . Оценка корреляционного отношения определяется по формуле D . η *y2/ x = 1 − ост D y* (9.30) (9.31) Пример 9.2. При исследовании зависимости между случайными величинами X и Y была получена следующая таблица измерений соответствующих значений этих величин: xi: 1,3 1,5 1,5 1,8 1,9 2,0 2,1 2,4 2,4 2,5 yi: 0,2 0,8 1,2 1,1 1,8 3,2 2,5 3,1 3,4 3,8 Аппроксимировать статистическую связь между Y и X многочленом второго порядка. 144 Регрессионный анализ Вносим данные в таблицу, в которой вычисляем все необходимые суммы, которые фигурируют в системе уравнений (9.29): x 1,3 1,5 1,5 1,8 1,9 2 2,1 2,4 24 2,5 19,40 y 4,1 6,2 8,1 9,3 11,4 12,2 13,7 14,8 16,2 18,4 114,4 x2 1,69 2,25 2,25 3,24 3,61 4 4,41 5,76 5,76 6,25 39,22 x3 2,197 3,375 3,375 5,832 6,859 8 9,261 13,824 13,824 15,625 82,172 x4 2,8561 5,0625 5,0625 10,4976 13,0321 16 19,4481 33,1776 33,1776 39,0625 177,3766 xy 5,33 9,3 12,15 16,74 21,66 24,4 28,77 35,52 38,88 46 238,75 yx2 6,929 13,95 18,225 30,132 41,154 48,8 60,417 85,248 93,312 115 513,167 y2 16,81 38,44 65,61 86,49 129,96 148,84 187,69 219,04 262,44 338,56 1493,88 (y–y*)2 0,2134 0,3249 1,7689 0,5213 0,0961 0,0025 0,2480 2,2801 0,0121 1,1449 6,6122 В последней строке таблицы приводятся суммы элементов столбцов. Таким образом, получаем систему:  177 ,38 a + 82 ,17 b + 39 ,22 c = 513 ,17  .  82 ,17 a + 39 ,22 b + 19 , 4 c = 238 ,75  39 ,22 a + 19 ,4 b + 10 c = 114 ,4  y = −0 ,4 x 2 + 12 ,16 x − 10 ,57 . Решая систему, находим: a = –0,4; b = 12,16; c = –10,57; ~ В последнем столбце таблицы вычислена сумма квадратов отклонений прогнозируемых значений от истинных значений Y. Остаточная дисперсия равна n 1 1 [y i − ~ Dост = y i ]2 = ⋅ 6 ,612 ≈ 0 ,945 . Оценка дисперсии Y: n − 3 i =1 10 − 3 1493,9 114 ,4 2 Dy* = −( ) ≈ 18,5 . Оценка корреляционного отношения: 10 10 D 0 ,945 η *y2/ x = 1 − ост =1− ≈ 0 ,949. Такое высокое корреляционного отношения говорит о * 18,5 Dy ∑ сильной зависимости между величинами. Если выбирается структура аппроксимирующей функции в виде y = aϕ(x) + b, где ϕ(x) – любая известная нелинейная функция, то рекомендуется сделать замену z = ϕ(x) и рассматривать задачу линейного одномерного регрессионного анализа с аппроксимирующей функцией y = az + b. Приведём примеры таких замен. 1. y = ax2 + b – параболическая аппроксимация. Замена z = x2. a + b – гиперболическая аппроксимация. Замена z = x–1. x 3. y = ae x + b – аппроксимация показательной функцией. Замена z = еx. 2. y = Можно привести примеры и более сложных аппроксимирующих функций, которые путём одной или нескольких замен переменных сводятся к линейным функциям. Такие замены обычно рекомендуются, хотя общий объём вычислений при таких заменах практически не уменьшается. Заметим, что здесь в краткой форме изложены только основные положения регрессионного анализа. Для более подробного знакомства с регрессионным анализом нужно смотреть специальную литературу, посвящённую этому вопросу. 145 Теория вероятностей и математическая статистика Термины для запоминания ♦ Регрессионный анализ; аппроксимация; аппроксимирующая функция; прогнозирующая функция; ошибка аппроксимации; остаточная дисперсия; обобщённый коэффициент корреляции. Список контрольных вопросов 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. Какую задачу решает дисперсионный анализ? Что называется аппроксимирующей или прогнозирующей функцией? Какая функция теоретически является наилучшей для прогнозирования в смысле минимума среднего квадрата ошибки прогнозирования? Дайте словесную формулировку задачи регрессионного анализа (постановка задачи). Как классифицируются задачи регрессионного анализа? Что минимизируется в регрессионном анализе и по каким параметрам? Как выбирается структура аппроксимирующей функции в регрессионном анализе? Что такое остаточная дисперсия, что она определяет? Что называют «обобщённым коэффициентом корреляции»? Как определяются оценки корреляционного момента и коэффициента корреляции по экспериментальным данным? В каком случае можно ограничиться получением линейной аппроксимирующей функции при одномерном регрессионном анализе? От каких параметров зависит линейная аппроксимирующая функция в одномерном регрессионном анализе? Как сократить число аргументов аппроксимирующей функции в многомерном линейном регрессионном анализе? Какими особенностями обладает матрица коэффициентов системы уравнений, определяющей параметры аппроксимирующей функции? В каких случаях задачу нелинейного одномерного регрессионного анализа можно свести к задаче линейного одномерного анализа? Вопрос для обсуждения Прибыль торгового предприятия зависит от многих факторов. Попробуйте перечислить основные факторы и проанализируйте, какие из них имеют взаимные статистические связи. 146 Применение ЭВМ ТЕМА 10. Применение ЭВМ Студент должен освоить: • ознакомление с пакетами прикладных программ; приобрести навыки: • применения пакетов прикладных программ для решения задач статистического анализа. 147 Теория вероятностей и математическая статистика Решение вероятностных задач в среде Microsoft Excel. Средства решения статистических задач в пакете MathCAD. Специализированные пакеты программ. Краткое содержание 10.1. Общие замечания Для решения задач теории вероятностей и математической статистики можно использовать любые пакеты программ, предназначенные для решения математических задач широкого класса. В настоящее время существует много пакетов программ, в которых предусмотрено решение вероятностных задач и задач математической статистики. Имеется много и специальных пакетов программ, ориентированных именно на решение статистических задач. Выбор пакета должен определяться квалификацией специалиста в данной области. Специалисту, слабо знакомому с методами теории вероятностей и математической статистики, нецелесообразно выбирать сложный, универсального плана, пакет программ. Освоение сложного пакета является не всегда простым делом. Кроме того, недостаточно компетентный человек в вопросах статистики не сможет адекватно реагировать на запросы программ, не понимая сути этих вопросов. В таком случае применение компьютера даст только отрицательный результат. В связи с этим изучающим данный курс рекомендуется начинать с простых (в освоении) пакетов универсального характера. Одним из доступных и достаточно простых для освоения пакетов является MathCAD. В этом пакете имеется широкий набор операторов и функций, которые позволяют решать многие задачи теории вероятностей и математической статистики. В среде Excel Microsoft Office также имеются аналогичные функции. Возможности этих пакетов примерно равные, различие заключается, прежде всего, в форме представления информации. В первом пакете программ информация представляется в более естественной форме, привычной по курсу высшей математики. Во втором пакете информация размещается в электронных таблицах. Рассмотрим методику решения задачи линейного программирования в программной среде MathCAD (версии 8 и выше) и в среде Excel Microsoft Office. Эти пакеты программ являются наиболее доступными для рядового пользователя ЭВМ. 10.2. Средства решения статистических задач в пакете MathCAD Пакет MathCAD предназначен специально для решения математических задач. Он имеет три встроенных редактора: текстовой редактор, графический редактор и редактор математических формул. Это дополняется достаточно мощными средствами реализации процессов вычислений. В связи с этим пакет удобен как для решения задач, так и для оформления документов, содержащих математические формулы и процессы вычислений. Изменение значений параметров вначале документа приводит к пересчёту всех формул, содержащих эти параметры, по всему документу. Это свойство пакета удобно при анализе влияния параметров формулы на результат решения поставленной задачи. Перечислим кратко некоторые из основных функций, касающиеся обработки экспериментальных данных. Все эти функции следует искать в меню «Функции» в разделах «Статистика» и «Регрессия». 1. mean(X) – среднее арифметическое измерений, содержащихся в векторе X (оценка математического ожидания). 148 Применение ЭВМ 2. var(X) – смещённая оценка дисперсии (D*), Var(X) – несмещённая оценка дисперсии (S2). 3. line(X, Y) – линейная регрессия вида y = b + ax. Векторы X и Y представляют соответствующие измерения величин X и Y. Результат выдаётся в виде вектора, первая компонента которого содержит оценку b, а вторая – оценку a. 4. cvar(X, Y) – ковариационный момент. 5. korr(X, Y) – коэффициент корреляции. 6. stderr(X, Y) – остаточная дисперсия после применения линейной регрессии. Рассмотрим пример обработки двух массивов измерений случайных величин X и Y, поставив задачу оценить математические ожидания и дисперсии этих величин и найти линейную аппроксимацию статистической связи между величинами в виде y = b + ax. Ниже представлена полная распечатка решения данной задами. Исходные данные задаём в виде векторов-столбцов. Вычислим сначала оценки математических ожиданий и оценки дисперсий. 1    2 X : =  3  mean( X ) = 3    4  var( X ) = 2  5  Var ( X ) = 2,5    − 1   1 Y : =  4  mean(Y ) = 4 .    7  var(Y ) = 13,6  9  Var (Y ) = 17   Определим коэффициент линейной регрессии, ковариационный момент, коэффициент корреляции и остаточную дисперсию.  − 3 ,8   line( X , Y ) =  corr( X , Y ) = 0 ,997 c var(X , Y ) = 5,2  2 ,6  stderr( X , Y ) = 0 ,365 Таким образом, mx* = 3, my* = 4, Dx* = 2, Dy* = 13,6, Sx2 = 2,5, Sy2 = 17. Линия линейной регрессии: y = 2,6x – 3,8. Остаточная дисперсия при такой аппроксимации равна Dост = = 0,365. Заметим, что этот пример носит чисто иллюстративный характер. Поэтому объём выборки взят очень малым. Из этих же соображений измерения взяты с заведомо большим коэффициентом корреляции. В пакете имеются и много других функции для статистических вычислений. В пакете представлен большой набор законов распределения вероятностей, позволяющий решать и чисто вероятностные задачи. Читателю предлагается разобраться с ними самостоятельно. Отметим также, что размерность векторов в данном пакете программ ограничена. 10.3. Решение статистических задач в среде Microsoft Excel Процесс решения задач в среде Excel менее привлекателен, поскольку он не позволяет записывать эти задачи в их обычной форме. Перечислим основные функции, которые можно использовать при решении задач теории вероятностей и математической статистики. 1. СРЗНАЧ(Х) – среднее арифметическое измерений, содержащихся в массиве X (оценка математического ожидания) 2. ДИСПР(X) – смещённая оценка дисперсии (D*), ДИСП(X) – несмещённая оценка дисперсии (S2). 149 Теория вероятностей и математическая статистика 3. СТАНДОТКЛОН(Х) – оценка среднего квадратического отклонения (S). 4. СТЬЮДРАСПОБР(1 – α, r) – критическое значение, найденное по распределению Стьюдента для построения доверительного интервала. Здесь α – доверительная вероятность, r – число степеней свободы. 5. МОДА(Х) – оценка моды случайной величины. 6. МЕДИАНА(Х) – оценка медианы случайной величины. 7. ЭКСЦЕСС(Х) – оценка эксцесса случайной величины. 8. СКОС(Х) – оценка асимметрии распределения случайной величины. 9. ЛИНЕЙН(Y, X) – линейная регрессия вида y = b + ax. Массивы X и Y представляют соответствующие измерения величин X и Y. Результат выдаётся в виде вектора, первая компонента которого содержит оценку b, а вторая – оценку a. 10. КОВАР(X, Y) – ковариационный момент. 11. КОРРЕЛ (X, Y) – коэффициент корреляции. 12. СТОШYX(X, Y) – корень квадратный из остаточной дисперсии после применения линейной регрессии. Массивы можно задавать простым перечислением чисел, или с помощью адресов ячеек, в которых находятся числа, или с помощью задания диапазонов адресов. Рассмотрим пример обработки двух массивов объёма n = 30 измерений случайных величин X и Y, поставив задачу оценить математические ожидания, дисперсии, моду, медиану, асимметрию и эксцесс этих величин и найти линейную аппроксимацию статистической связи между величинами в виде y = b + ax. Построим также доверительный интервал для математических ожиданий с коэффициентом доверия 0,95, пользуясь распределением Стьюдента. Ниже представлена полная распечатка решения данной задами. Массив Х представлен диапазоном адресов ячеек B2 : G6, а массив Y – диапазоном адресов B21 : G25. X: 2,3 3,8 4,8 2,4 2,1 Исходный массив данных 3,9 5,4 2,8 2,7 2,9 3,4 3,5 2,8 5,3 2,7 3,9 4,4 4,3 3,6 4,5 Оценка математического ожидания Оценка дисперсии Оценка несмещённой дисперсии: Среднее квадратическое отклонение Критическое значение Левая граница доверительного интервала Правая граница доверительного интервала Мода распределения Медиана распределения Асимметрия Эксцесс 150 5,1 2,9 3,5 3,6 3,7 3,3 3,6 3,4 4,1 3,2 3,5967 0,7283 0,7534 0,868 2,0452 3,2725 3,9208 3,6 3,55 0,4102 –0,34 Применение ЭВМ Вторая таблица Y: 4,1 5,8 7,2 4,6 3,8 Исходный массив данных 6,2 8,4 3,8 3,7 4,7 5,4 5,5 4,2 6,3 4,6 5,1 5,9 6,1 5,6 6,5 7,1 3,9 4,5 4,6 7,1 Оценка математического ожидания: Оценка дисперсии: Оценка несмещённой дисперсии: Среднее квадратическое отклонение Критическое значение Левая граница доверительного интервала Правая граница доверительного интервала Мода распределения Медиана распределения Асимметрия Эксцесс Ковариационный момент Коэффициент корреляции Параметры линейной регрессии 1,20626 3,9 6,6 5,4 6,1 4,2 5,3633 1,4637 1,5284 1,2305 2,0452 4,9039 5,8228 4,6 5,4 0,4864 –0,4261 0,8785 0,8509 1,02483 Все вычисления проведены с помощью перечисленных выше функций, кроме вычисления границ доверительного интервала. Для вычисления границ в соответствующие ячейки вводились формулы: m* − tα ⋅ S / n – для левой границы интервала и m * + t α ⋅ S / n – для правой границы интервала. Значения m*, tα, S взяты из предыдущих вычислений. Таким образом, получена следующая аппроксимирующая функция: y = 1,206x + + 1,025. Получены также доверительные интервалы: mx∈(3,273; 3,921) с вероятностью 0,95; my∈(4,904; 5,823) с вероятностью 0,95. Сделаем одно очень важное замечание. Если применяется функция, результатом которой является матрица (в рассмотренном примере это функция ЛИНЕЙН, которая выдаёт два параметра), то формулу функции необходимо ввести в ячейки как формулу массива. Для этого нужно выполнить следующие действия. Нужно ввести формулу в ячейку, в которой будет размещаться первый элемент матрицы – результата. Затем следует выделить все ячейки, в которых будет размещена матрица – результат, начиная с той, в которой уже введена формула. Далее следует нажать клавишу F2, а затем – клавиши CTRL + SHIFT + ENTER. Если формула не будет введена как формула массива, то будет выведено лишь одно значение в ту ячейку, в которую была введена формула. Специальные пакеты программ, созданные для решения больших статистических задач, следует изучать и применять после освоения тех простых средств решения статистических задач, которые имеются в рассмотренных пакетах. 151 Теория вероятностей и математическая статистика Практикум 1. Методика выполнения задач Все предлагаемые задачи разделены на две группы. Задачи первой группы предназначены для решения во время аудиторных практических занятий. Задачи этой группы могут использоваться студентами для самостоятельной тренировки. Однако предлагать их к обязательному выполнению не рекомендуется. Задачи второй группы предназначены для выполнения студентами в качестве самостоятельной работы. Эти задачи предлагаются студентам в виде некоторого типового расчёта, рассчитанного на весь семестр. Вариант следует выбирать по номеру студента в списке студентов группы. Последовательность и время выполнения заданий должны точно соответствовать календарному плану. Выполнение типового расчёта обязательно для всех студентов, в том числе студентов заочного обучения. Работа студентов над типовым расчётом должна начинаться с первых занятий по дисциплине «Теория вероятностей и математическая статистика». Прежде чем выполнять конкретное задание, необходимо тщательно разобраться с теоретическим материалом, акцентируя внимание на постановку задачи в общем виде. Не следует запоминать формулы, если не понятен их смысл. В первую очередь нужно осмыслить те условия, при которых эти формулы возникают. После освоения теоретического материала необходимо разобрать примеры, решённые на лекционных и практических занятиях, и сравнить их с тем заданием, которое предстоит выполнить. Само задание выполняется с подробным описанием всех этапов решения. Начинать решение нужно с описания обозначений тех событий, которые фигурируют в задаче. Например, «Пусть А – событие, состоящее в том, что будет одно попадание в цель при одном выстреле» и т.п. В конце решения следует записать ответы к задаче. Следует помнить, что решение заданий типового расчёта не является самоцелью. Это лишь средство освоения материала изучаемой дисциплины. Подробное описание этапов решения задачи, мотивация применения тех или иных формул с познавательной точки зрения имеет большее значение, чем сами вычисления и ответ задачи. Таким образом, описание этапов решения задачи является определённым показателем уровня освоения материала студентом. Рассмотренный в конце практикума пример выполнения типового расчёта может, в определённой мере, помочь выполнению студентом своего задания. Однако этот пример нельзя интерпретировать как некий шаблон, который справедлив в любом случае. Большинство заданий являются индивидуальными не только по содержанию, но и по логической схеме. Таким образом, в разных вариантах одного (по номеру) задания могут встретиться разные формулы. Некоторые задачи допускают различные подходы к решению, приводящие к правильному результату. В таком случае можно выбрать любой из них, если только в формулировке задания нет специальных оговорок по этому вопросу. Часть представленных здесь задач составлена непосредственно автором. Другая часть задач взята из различных источников, список которых прилагается в конце практикума. 152 Практикум 2. Задачи для аудиторной и самостоятельной работы Тема 1. Случайные события 1.1. Сколько трёхзначных чисел можно составить из цифр 1, 2, 3, 4, 5, 6? 1.2. Сколько трёхзначных чисел можно составить из цифр 1, 2, 3, 4, 5, 6, если эти числа не должны иметь повторяющихся цифр? 1.3. Сколько существует двузначных чисел, у которых обе цифры чётные? 1.4. Сколькими способами можно выбрать трёх студентов из 8? 1.5. Сколькими способами можно выбрать председателя, секретаря и казначея жилищного кооператива, если кооператив состоит из 12 членов? 1.6. Сколькими способами можно разместить 5 покупателей в очереди в кассу? 1.7. Сколько слов можно составить путём перестановки букв в слове «кроссворд» (под «словом» понимается любая комбинация букв)? 1.8. Группа туристов из 12 человек разбивается на три равные по численности подгруппы. Сколько существует вариантов такого разделения (без учёта перестановок подгрупп)? 1.9. Чему равно выражение ( A + B )( A + C )( A + C ) ? 1.10. Упростите выражение: C ( B + C )( A + B )( B + C ) . 1.11. Три стрелка одновременно делают по одному выстрелу по мишени. Событие Ak – попадание в мишень k-м стрелком (k = 1, 2 , 3), событие B – имело место только одно попадание, событие C – попаданий было не менее одного. Выразить события B и C через события Ak. 1.12. Монета бросается 3 раза. Ak – событие, состоящее в том, что герб появится при k-м броске (k = 1, 2, 3), B – событие, состоящее в том, что герб появится 2 раза. Выразить событие B через события Ak. 1.13. В коробке находится 5 деталей, из которых 2 детали имеют скрытые дефекты. Наугад берётся деталь. Какова вероятность того, что эта деталь имеет скрытый дефект? 1.14. В условиях предыдущей задачи было наугад взято из коробки две детали. Какова вероятность того, что только одна из них имеет скрытый дефект? 1.15. На столе лежит 15 экзаменационных билетов с номерами 1, 2, ..., 15. Преподаватель наугад берёт 2 билета. Какова вероятность того, что они из первых четырёх? 1.16. Из отрезка [–2; 2] наудачу взяты два числа. Какова вероятность того, что их сумма больше единицы, а модуль разности меньше единицы? 1.17. Исходя из условий задачи 1.8 найти вероятность того, что туристы K и M попадут в одну подгруппу. 1.18. Бросаются три игральные кости. Определить вероятность того, что сумма выпавших очков будет равна 14. 1.19. Вероятность преодолеть планку на данной высоте для прыгуна в высоту равна 0,8. Какова вероятность того, что спортсмен возьмёт эту высоту, если он имеет право на три попытки, причём очередная попытка делается только тогда, когда предыдущие попытки были неудачными? 1.20. Исходя из условий задачи 1.11 найти вероятности событий B и C, если известно, что P(A1) = 0,5, P(A2) = 0,7, P(A3) = 0,6. 1.21. Двое поочерёдно бросают монету. Выигрывает тот, кто первым в результате получит орла. Какова вероятность того, что игра закончится не позднее чем после второго бросания монеты вторым игроком? 1.22. В тире имеется 5 ружей, вероятность попадания из которых равна 0,5, три ружья с вероятностью попадания 0,7 и два ружья с вероятностью попадания 0,8. Определить 153 Теория вероятностей и математическая статистика вероятность попадания в мишень при одном выстреле, если стрелок берёт одно из ружей наудачу. 1.23. В продажу поступают телевизоры трех заводов. Продукция первого завода содержит 10% телевизоров со скрытым дефектом, второго – 8% и третьего – 6%. Приобретённый телевизор оказался без дефектов. Какова вероятность того, что этот телевизор был изготовлен на первом заводе, если в магазин поступило 40% телевизоров с первого завода, 25% – со второго и 35% – с третьего? 1.24. Известно, что 95% выпускаемой продукции удовлетворяет стандарту. Упрощенная схема контроля признаёт пригодной стандартную продукцию с вероятностью 0,9 и нестандартную – с вероятностью 0,08. Определить вероятность того, что изделие, прошедшее упрощённый контроль, удовлетворяет стандарту. 1.25. Батарея дала 6 выстрелов по военному объекту, вероятность попадания в который равна 0,3. Найти: а) наивероятнейшее число попаданий и его вероятность; б) вероятность разрушения объекта, если для его разрушения требуется не менее 2 попаданий. 1.26. Круг разделён на три равные части. Какова вероятность того, что из 6 точек, брошенных наудачу в круг, три попадут в одну часть круга, две – во вторую, одна – в третью? 1.27. Станок-автомат штампует детали. Вероятность того, что изготовленная деталь окажется бракованной, равна 0,02. Пользуясь формулой Пуассона, найти вероятность того, что среди 100 деталей бракованных окажется не менее 2 и не более 4. 1.28. Тестовый билет содержит 5 вопросов. На каждый вопрос предлагается два варианта ответа, из которых один является правильным. Для получения зачёта нужно правильно ответить не менее чем на три вопроса. Какова вероятность того, что некто, выбирая ответы наудачу, может получить зачёт? 1.29. Доля изделий первого сорта в продукции завода составляет 70%. Какова вероятность того, что из отобранных 400 изделий окажется от 270 до 300 изделий первого сорта? 1.30. Вероятность отказа прибора при испытании равна 0,2. Сколько таких приборов нужно испытать, чтобы с вероятностью, не меньшей чем 0,99, получить хотя бы один отказ? Тема 2. Случайные величины 2.1. Игральная кость бросается два раза. Пусть X – суммарное число выпавших очков. Составить закон распределения вероятностей случайной величины X. 2.2. Среди десяти деталей имеется четыре бракованных. Из всей партии случайным образом взято три детали. Составить закон распределения числа бракованных деталей среди взятых. 2.3. Вероятность попадания в цель при каждом выстреле равна 0,6. Стрельба ведётся до первого попадания в цель. Составить закон распределения случайной величины X – числа сделанных выстрелов. 2.4. В дополнение к условиям задачи 2.3 предполагается, что имеется всего три патрона. Определить и представить графически функцию распределения вероятностей случайной величины X числа сделанных выстрелов до первого попадания. 2.5. Функция распределения вероятностей непрерывной случайной величины X определяется формулой: если x ≤ 0 , 0 , F( x ) = ax 3 , если 0 < x ≤ 3, если x > 3. 1, 154 Практикум Определить коэффициент a и плотность распределения вероятностей f(x). Найти вероятность того, что величина X примет значение из интервала (1; 2). 2.6. Задана плотность распределения вероятностей непрерывной случайной величины X: если 0 < x ≤ π, a ⋅ sin x, f ( x) =  0, если x ≤ 0 или x > π. Определить коэффициент a и функцию распределения вероятностей величины X. Найти вероятность того, что величина X примет значение из интервала (π/3; π/2). 2.7. Плотность распределения случайной величины X задана формулой f ( x) = 1 , −∞ < x < ∞ π(1 + x 2 ) (закон Коши). Определить вероятность того, что случайная величина примет значение из интервала (–1; 1). 2.8. Показать, что математическое ожидание дискретной случайной величины, распределённой по закону Пуассона с параметром λ, равно самому параметру λ. 2.9. Вычислить математическое ожидание и дисперсию дискретной случайной величины X, заданной таблично: xk pk –1 0,1 0,15 1 0,35 2 0,2 4 0,1 6 0,05 8 0,05 2.10. Вычислить математическое ожидание и дисперсию непрерывной случайной величины X, если 4 x ⋅ e −2 x , если x ≥ 0, f ( x) =  0, если x < 0. 2.11. Вычислить коэффициент вариации для случайной величины, определённой в задаче 2.6. 2.12. Определить все квартили случайной величины X, распределённой по экспоненциальному закону: f(x) = 3e–3x, x > 0. Найти вероятное отклонение случайной величины. 2.13. Вычислить математическое ожидание, дисперсию, скошенность и эксцесс непрерывной случайной величины X, распределённой равномерно в интервале [1; 5]. 2.14. Вычислить первые три центральных момента случайной величины, определённой в задаче 2.8. 2.15. Непрерывная случайная величина X подчинена закону распределения с плотностью f(x) = 0,5 ⋅ e–|x|, –∞ < x < ∞. Определить математическое ожидание, дисперсию, скошенность и эксцесс этой случайной величины. 2.16. Определить производящую функцию начальных моментов дискретной случайной величины X, распределённой по геометрическому закону: P{X = k} = pqk–1, 0 < p < 1, q = 1 – p, k = 1, 2, 3, … . С помощью производящей функции найти математическое ожидание и дисперсию этой величины. 2.17. Определить производящую функцию начальных моментов случайной вели- чины X, распределённой по закону Пуассона: P{ X = k} = λk k! ⋅ e −λ , λ > 0, k = 0, 1, 2, ... . С помощью производящей функции найти математическое ожидание и дисперсию X. 2.18. Интервал времени безотказной работы технической системы распределён по экспоненциальному закону с параметром λ = 0,1 (час–1). Определить вероятность того, что 155 Теория вероятностей и математическая статистика отказ произойдет не ранее чем через 5 часов безотказной работы. Вычислить вероятность того, что отказ произойдет между 5-ю и 6-ю часами после начала работы системы. 2.19. Нормально распределённая случайная величина X имеет математическое ожидание mx = 2 и дисперсию Dx = 4. Определить вероятность того, что эта случайная величина примет значение из интервала (1; 3). 2.20. По цели, имеющей вид полосы (автострада), ширина которой равна 16 метров, ведётся стрельба в направлении, перпендикулярном автостраде. Прицеливание ведётся по средней линии автострады. Среднее квадратическое отклонение в направлении стрельбы равно σx = 6м. Имеется систематическая ошибка в направлении стрельбы – недолёт 3 метра, которая при наводке не учитывается. Определить вероятность того, что при трёх выстрелах произойдёт только два попадания в автостраду. Тема 3. Многомерные случайные величины 3.1. Двухмерная случайная величина (X,Y) с одинаковой вероятностью может принимать значения: (2; 1), (2; 2), (3; 2), (3; 3), (3; 4), (4; 5). Найти вероятность того, что точка (X; Y) окажется в области D, если область D определена неравенствами x ≤ 3 и y > 2. 3.2. Закон распределения дискретной двухмерной случайной величины (X,Y) представлен следующей таблицей: yj –2 –1 1 2 1 0,04 0,04 0,03 0,03 0,01 3 0,04 0,07 0,06 0,05 0,03 5 0,05 0,08 0,09 0,08 0,05 7 0,03 0,04 0,04 0,06 0,08 xi Определить одномерные законы распределения случайных величин X и Y. 3.3. Функция распределения двухмерной случайной величины (X, Y) имеет следующий вид: F ( x, y ) = 1 − e − ax − e − by + e − ax −by , x ≥ 0, y ≥ 0, (a > 0, b > 0). Определить одномерные функции распределения и одномерные плотности распределения вероятностей величин X, Y. 3.4. Двухмерная случайная величина (X, Y) имеет плотность распределения вероятностей f ( x, y ) = A . π (16 + x )(25 + y 2 ) 2 2 Требуется определить величину A и найти функцию распределения вероятностей F(x, y). 3.5. Определить вероятность попадания точки с координатами (X; Y) в область, определяемую неравенствами 1 ≤ x ≤ 2, 1 ≤ y ≤ 2, если двухмерная функция распределения вероятностей имеет вид: −x −2 y  + a − x − 2 y , если x ≥ 0, y ≥ 0, a > 1, F ( x, y ) = 1 − a − a 0, если x < 0 или y < 0. 2 156 2 2 2 Практикум 3.6. По двухмерной плотности распределения f(x, y), определённой в задаче 3.4, найти одномерную плотность fX(x). 3.7. Исходя из условий задачи 3.2 определить условный закон распределения P{Y = = yj | X = 3}. Являются ли величины X и Y статистически зависимыми? 3.8. Двухмерная случайная величина (X, Y) распределена равномерно в треугольнике, ограниченном прямыми x = 0, y = 0, x + y = 1. Вычислить математические ожидания mx и my, дисперсии σx и σy, ковариационный момент Kxy и коэффициент корреляции rxy. 3.9. Для двухмерной случайной величины, заданной в примере 3.2, вычислить математические ожидания mx и my, дисперсии σx и σy, ковариационный момент Kxy и коэффициент корреляции rxy. 3.10. Для двухмерной случайной величины, определённой в примере 3.8, вычислить условное математическое ожидание my(x) и условную дисперсию σy2(x). 3.11. Определить в точке (2, 2) плотность распределения двухмерной нормально 1 0   . распределённой случайной величины (X, Y), если известно, что mx = my = 0 и K =   0 2 3.12. Координаты (X; Y) случайной точки A на плоскости подчинены нормальному закону  1  x 2 y 2   1 exp−  2 + 2   . f ( x, y ) = 2πab b    2  a Определить вероятность того, что точка A окажется внутри эллипса с центром в начале координат с полуосями 3a/2 и 3b/2, совпадающими с осями координат. 3.13. Плотность распределения вероятностей двухмерной случайной величины (X, Y) задана в виде f ( x, y ) = k ⋅ exp{−4 x 2 − 6 xy − 9 y 2 } . Определить постоянную k, коэффициент корреляции rxy и условные законы распределения вероятностей f(x | y) и f(y | x). Тема 4. Функциональные преобразования случайных величин 4.1. Дискретная случайная величина X, заданной таблично: xk pk –2 0,1 –1 0,15 0,3 1 0,2 2 0,1 6 0,1 8 0,05 Найти распределение вероятностей величины Y = X2. 4.2. Случайная величина X распределена равномерно в интервале [a; b]. Определить закон распределения величины Y = eX. 4.3. Случайная величина X распределена нормально с математическим ожиданием mx и дисперсией σx2. Определить закон распределения величины Y = eX. 4.4. Определить закон распределения случайной величины Y = lnX, если величина X распределена по экспоненциальному закону с параметром λ. 4.5. Найти плотность распределения вероятностей для площади S квадрата, если его сторона X является случайной величиной, распределённой равномерно в интервале [0; 1]. 4.6. Найти закон распределения суммы Z двух независимых случайных величин X и Y, каждая из которых имеет равномерное распределение на интервале (0; 1). 157 Теория вероятностей и математическая статистика 4.7. Случайные независимые величины X и Y распределены по одному и тому же показательному закону с параметром λ. Найти закон распределения величин U = 2X и V = X + Y и их математические ожидания. 4.8. Найти закон распределения произведения двух независимых случайных величин X и Y, каждая из которых имеет равномерное распределение на интервале (0; 1). 4.9. Случайные величины X и Y распределены по показательному закону с параметром λ. Найти закон распределения величины Z = Y/X. 4.10. Решить задачу 4.9 при условии, что параметры распределений являются различными и равны соответственно λx и λy. 4.11. Известны математическое ожидание и дисперсия случайной величины X: mx = 2, Dx = 3. Найти математическое ожидание и дисперсию случайной величины Y = 3x – 5. 4.12. Случайная величина X распределена равномерно в интервале [0; 2]. Найти математическое ожидание величины Y = – X2 + 3X – 2. 4.13. Случайная величина X распределена равномерно в интервале [0; 1]. Найти дисперсию случайной величины Y = 2X2. 4.14. Двухмерная случайная величина (X, Y) имеет следующие характеристики: mx = 2, my = 0, Dx = 1, Dy = 2, Kxy = –1. Определить математическое ожидание и дисперсию случайной величины Z = X – 2Y. 4.15. Случайные величины X и Y имеют математические ожидания mx = –1, my = 1 и дисперсии Dx = 4 и Dy = 9. Найти математическое ожидание случайной величины Z = = 3XY + 5, если известен коэффициент корреляции rxy = 0,5. Тема 5. Закон больших чисел 5.1. С помощью неравенства Чебышева оценить вероятность того, что случайная величина X примет значение из интервала (3; 5), симметричного относительно математического ожидания величины X. Известно, что дисперсия X равна 0,36. 5.2. Оценить длину d интервала, в который может попасть измеренное значение случайной величины X с вероятностью не меньшей чем 0,9, если среднее квадратическое значение случайной величины равно 0,5. Считать, что указанный интервал является симметричным относительно математического ожидания исследуемой величины. 5.3. В дополнение к условию задачи 5.2 известно, что mx = 2. Указать интервал, в который попадёт измеренное значение величины X с вероятностью не меньшей чем 0,9. 5.4. Среднее квадратическое отклонение каждой из 2500 независимых случайных величин не превосходит 3. Оценить вероятность того, что абсолютная величина отклонения среднего арифметического случайных величин от среднего арифметического их математических ожиданий не превзойдёт 0,3. 5.5. Вероятность появления события A в одном опыте равна 0,4. Можно ли с вероятностью большей 0,97 утверждать, что число k появлений события A в 1000 независимых испытаний будет в пределах от 300 до 500? 5.6. Сколько нужно провести последовательных независимых испытаний, чтобы с вероятностью не меньшей чем 0,95 можно было утверждать, что относительная частота появления события A отклонится от истинной вероятности события менее чем на 0,08? Тема 6. Статистическая обработка экспериментальных данных. Оценка параметров 6.1. Задана выборка случайной величины X: 0,5; 0,8; 1,2; 1,4; 1,6; 1,7; 1,8; 2,0; 2,2; 2,5. Построить график эмпирической функции распределения вероятностей F * (x). 158 Практикум 6.2. Задан интервальный вариационный ряд (в первой строке – границы интервалов, во второй строке – число точек, попавших в данный интервал): 0,4÷0,8 2 0,8÷1,2 5 1,2÷1,6 8 1,6÷2,0 14 2,0÷2,4 16 2,4÷2,8 10 2,8÷3,2 8 3,2÷3,6 7 Построить полигон и гистограмму распределения. 6.3. Задан сгруппированный вариационный ряд (в первой строке – возможные значения случайной величины, появившиеся в выборке, во второй строке – число таких значений в выборке): 0,2 5 0,4 7 0,8 12 0,9 15 1,0 20 1,1 18 1,2 13 1,3 5 1,5 3 1,8 2 Вычислить эмпирические характеристики: математическое ожидание, дисперсию и несмещённую дисперсию. 6.4. По интервальному вариационному ряду, заданному в задаче 6.2, определить эмпирические числовые характеристики: математическое ожидание, смещённую и несмещённую дисперсии. 6.5. При исследовании эффективности работы системы массового обслуживания были зафиксированы интервалы времени обслуживания 60 заявок: 0,5 0,6 1,4 0,8 1,0 1,8 0,2 0,4 0,1 0,3 1,1 0,9 0,7 0,2 1,2 0,1 0,6 0,4 0,8 1,2 0,3 1,7 0,2 1,6 0,5 0,2 0,1 1,5 1,0 0,9 1,3 0,4 1,6 0,3 0,1 0,6 1,5 0,1 0,5 0,8 1,1 0,7 1,1 0,6 0,5 0,7 0,4 1,4 0,6 0,5 1,3 0,3 1,2 0,2 1,0 0,1 0,8 0,4 0,6 0,1 Вычислить эмпирические характеристики времени обслуживания заявки: математическое ожидание, дисперсию, асимметрию и эксцесс. 6.6. Известно, что средние квадратические отклонения измеренного значения от истинного для четырёх дальномеров равны соответственно 0,5; 0,8; 1,0 и 1,2. Измерения до цели этими дальномерами показали соответственно следующие результаты: 12,6; 13,2; 11,8 и 12,2. Оценить среднее расстояние до цели по этим данным. 6.7. Найти оценку наибольшего правдоподобия математического ожидания случайной величины, распределённой по закону Пуассона. 6.8. Построить доверительный интервал с доверительной вероятностью γ = 0,95 для неизвестного математического ожидания случайной величины X, если известно, что она имеет нормальное распределение с дисперсией σ2 = 9, а оценка математического ожидания по выборке объёма n = 100 равна m* = 4,6. 6.9. Построить доверительный интервал с доверительной вероятностью γ = 0,9 для неизвестного математического ожидания случайной величины X по вариационному ряду, представленному в задаче 6.2. 6.10. По выборке, представленной в задаче 6.3, построить доверительный интервал для дисперсии с доверительной вероятностью γ = 0,95. 6.11. Для оценки вероятности осуществления некоторого события A было произведено 50 последовательных независимых испытаний. В этих испытаниях событие A осуществилось 40 раз. Построить доверительный интервал для неизвестной вероятности события с доверительной вероятностью γ = 0,9. Воспользоваться тремя способами построения доверительного интервала. 159 Теория вероятностей и математическая статистика Тема 7. Проверка статистических гипотез 7.1. Даны две выборки: X: 0,5 0,6 1,4 0,8 1,0 1,8 0,2 0,4 0,1 0,3 1,1 0,9 0,7 0,2 1,2; Y: 0,7 0,4 1,4 0,6 0,5 1,3 0,3 1,2 0,2 1,0. По этим выборкам проверить гипотезу о том, что величины X и Y имеют одинаковые математические ожидания, если известны дисперсии величин: σx2 = 0,2, σy2 = 0,25. Уровень значимости принять равным α = 0,05. 7.2. Даны две выборки: X: 2,5 3,6 2,4 2,8 4,0 3,9 3,2 2,4 3,1 2,3 4,1 2,9; Y: 2,7 3,1 2,1 2,5 4,2 3,9 3,3 2,2 3,6 2,4. По этим выборкам проверить гипотезу о том, что величины X и Y имеют одинаковые математические ожидания, если дисперсии величин одинаковы: σx2 = σy2 = σ2. Уровень значимости принять равным α = 0,05. 7.3. По данным примера 7.2 проверить гипотезу о равенстве дисперсий величин X и Y . Построить одностороннюю критическую область с уровнем значимости α = 0,05. 7.4. Дана выборка случайной величины X: 2,5 2,8 3,6 3,7 2,4 4,5 2,8 4,3 4,0 3,9 3,2 2,4 3,1 2,3 4,1 2,9. С помощью критерия квантилей проверить гипотезу о том, что медианой этого распределения является Medx = 3. Уровень значимости принять равным α = 0,05. 7.5. По вариационному ряду, представленному ниже, проверить гипотезу о том, что исследуемая случайная величина имеет экспоненциальное распределение. Уровень значимости принять равным α = 0,05. 0÷4 4÷8 8÷12 12÷16 16÷20 20÷24 24÷28 28÷32 28 20 16 13 8 5 6 4 В первой строке представлены границы интервалов, во второй – число точек, попавших в данный интервал. 7.6. По вариационному ряду, представленному ниже, проверить гипотезу о том, что исследуемая случайная величина имеет нормальное распределение. Уровень значимости принять равным α = 0,05. 0÷2 5 2÷4 7 4÷6 10 6÷8 18 8÷10 16 10÷12 12 12÷14 8 14÷16 4 В первой строке представлены границы интервалов, во второй строке – число точек, попавших в данный интервал. Тема 8. Дисперсионный анализ 8.1. Сделано по 5 измерений случайной величины X на каждом из четырёх уровней фактора A. Полученные результаты представлены в следующей таблице: Уровни фактора A1 A2 A3 A4 160 1 28 34 30 36 2 32 36 29 35 Номер измерения 3 36 38 31 34 4 34 32 30 36 5 32 35 33 38 Практикум Методом дисперсионного анализа проверить гипотезу о том, что фактор A не влияет на математическое ожидание величины X. Уровень значимости принять равным α = 0,05. 8.2. Фактор A имеет 4 уровня, фактор B – 5 уровней. Сделано по одному измерению случайной величины X на каждой комбинации уровней факторов. Полученные результаты представлены в следующей таблице: Уровни фактора A A1 A2 A3 A4 B1 38 44 32 31 B2 32 41 33 36 Уровни фактора B B3 46 45 40 38 B4 44 42 37 36 B5 35 33 33 34 Методом дисперсионного анализа проверить гипотезу о том, что факторы A и B не влияют на математическое ожидание величины X. Предполагать, что взаимодействия между факторами нет. Уровень значимости принять равным α = 0,05. 8.3. Проверить гипотезу о влиянии факторов A, B, и C на исследуемую величину X, если все факторы имеют по четыре уровня, а измерения сделаны по плану эксперимента «латинский квадрат». Результаты измерений представлены в следующей таблице: Уровни Уровни фактора B фактора A B2 B3 B1 A1 5,5 4,4 6,1 A2 5,1 5,1 5,3 A3 5,8 4,3 5,8 A4 5,0 4,8 5,4 Предполагать, что взаимодействия между факторами нет. принять равным α = 0,05. B4 5,8 6,3 5,9 6,6 Уровень значимости Тема 9. Регрессионный анализ 9.1. В результате эксперимента получена следующая таблица соответствующих значений случайных величин X и Y: X: 1,5 1,7 1,4 2,2 2,7 2,1 2,0 1,8 2,8 3,0 1,2 1,3 1,8 1,9 2,9; Y: 2,2 2,5 2,1 2,4 4,9 3,2 3,0 2,6 5,2 6,0 2,0 2,1 2,7 2,8 5,6. Аппроксимировать статистическую зависимость величины Y от X функцией Y = ax + b. Вычислить остаточную дисперсию, найти оценку коэффициента корреляции. 9.2. По данным, представленным в примере 9.1, аппроксимировать статистическую зависимость величины Y от X функцией Y = ax2 + bx + c. Вычислить остаточную дисперсию, найти оценку корреляционного отношения. Сравнить полученные результаты с результатами примера 9.1. 9.3. По данным, представленным ниже, аппроксимировать статистическую зависимость величины Y от X и Z функцией y = ax + bz + c. Вычислить остаточную дисперсию, найти оценку обобщённого коэффициента корреляции. X: 1,1 1,1 1,2 1,2 1,3 1,4 1,6 1,8 2,1 2,2 2,2 2,4 2,5 2,6 2,8; Z: 1,3 1,4 1,5 1,9 1,4 1,3 2,1 1,5 1,8 1,6 2,1 2,2 2,1 2,5 2,9; Y: 0,1 0,5 0,8 1,8 1,2 1,7 3,6 2,1 3,6 3,5 4,7 5,4 5,3 6,7 8,8. 161 Теория вероятностей и математическая статистика 3. Задания для типовых расчётов Тема 1. Случайные события Задание 1. Выполнить действия, указанные в задаче, пользуясь операциями над событиями и их свойствами. 1. Доказать тождество: ( B + C )( B + C )( B + C ) = BC . 2. Монета бросается до первого появления герба. Ak – событие, состоящее в том, что герб появится при k-ом броске, B – событие, состоящее в том, что до первого появления герба придётся сделать не менее 3 бросков. Выразить B через события Ak. 3. Сделано 3 выстрела по мишени. Событие Ak – попадание при k-том выстреле, событие B – две пули попали в мишень. Выразить событие B через события Ak. 4. Упростить выражение: A( B + C )( A + B )( A + C ) . 5. Брошены две игральные кости. Событие Ai – на 1-ой кости выпало i очков, событие Bk – на 2-ой кости выпало k очков (i, k = 1, 2, …, 6), событие C – сумма выпавших очков равна 10. Выразить событие C через события Ai и Bk. 6. Четверо студентов сдают экзамен по математике. Событие Ak – k-й студент успешно сдаёт экзамен, событие B – только три студента смогли успешно сдать экзамен. Выразить событие B через события Ak. 7. Известно, что события A и B несовместны. Чему равно в таком случае выражение ( A + B)( A + C )( A + C ) ? 8. Три детали случайным образом размещаются по трём ящикам. Событие Aik – i-я деталь попадает в k-й ящик, событие B – 3-ий ящик после размещения деталей оказывается пустым. Выразить событие B через события Aik. 9. Известно, что события A, B и C составляют полную группу событий. Чему в таком случае равно выражение A + AB + AC + BC + BA + CA ? 10. Упростить выражение: ( A + B )( A + B )( A + B ) . 11. В коробке находятся красные, синие и жёлтые шары. Из ящика наудачу извлекается 3 шара. Пусть Ak, Bk и Ck – события, состоящие в том, что k-й извлечённый шар имеет соответсвенно красный, синий и жёлтый цвет, а событие D – в числе извлечённых шаров только один красный. Выразить событие D через события Ak, Bk и Ck (k = 1, 2, 3). 12. Известно, что A ⊂ B. Чему в таком случае равно выражение (AC + A)(BC + A)(C + B)? 13. Шахматист играет в шахматы со своим партнёром 4 партии. Событие Ak – он выигрывает k-ую партию, событие B – всего он выиграет 2 партии. Выразить событие B через события Ak (k = 1, 2, 3, 4). 14. Доказать тождество: ( B + A)( B + A )( B + A) = AB . 15. В составе установки 2 блока одного типа и 3-го блока второго типа. Событие Ai – исправен i-й блок 1-го типа (i = 1, 2), Bk – исправен k-тый блок второго типа (k = 1, 2, 3), событие D – установка работоспосоьна. Выразить событие D через Ai и Bk, если установка работоспособна в случае исправности хотя бы одного блока первого типа и хотя бы двух – второго типа. 16. Упростить выражение: C ( B + C )( A + B )( B + C ) . 17. Монета бросается 4 раза. Ak – событие, состоящее в том, что герб появится при k-том броске, B – событие, состоящее в том, что герб появится 3 раза. Выразить событие B через события Ak. 162 Практикум 18. Известно, что события A и B несовместны. Чему равно в таком случае выражение ( A + B )( A + C )( A + C ) ? 19. Брошены две игральные кости. Событие Ai – на 1-й кости выпало i очков, событие Bk – на 2-й кости выпало k очков (i, k = 1, 2, …, 6), событие C – произведение выпавших очков равно 12. Выразить событие C через события Ai и Bk. 20. В коробке находятся красные, синие и жёлтые шары. Из ящика наудачу извлекается 3 шара. Пусть Ak, Bk и Ck – события, состоящие в том, что k-й извлечённый шар имеет соответсвенно красный, синий и жёлтый цвет, а событие D – в числе извлечённых шаров только один синий. Выразить событие D через события Ak, Bk и Ck (k = 1, 2, 3). 21. Известно, что события A, B и C составляют полную группу событий. Чему в таком случае равно выражение B + AB + AC + BC + AB + CB ? 22. Шахматист играет в шахматы со своим партнёром 3 партии. Событие Ak – он выигрывает k-ю партию, событие B – всего он выиграет одну партию. Выразить событие B через события Ak (k = 1, 2, 3, 4). 23. Известно, что A ⊂ B. Чему в таком случае равно выражение (AB + B)(AC + B)(A + C)? 24. Трое студентов сдают экзамен по математике. Событие Ak – k-й студент успешно сдаёт экзамен, событие B – только один студент смог успешно сдать экзамен. Выразить событие B через события Ak. 25. Чему равно выражение ( B + C )( B + C )( B + C ) . Задание 2. Вычислить вероятности событий, указанных в тексте. 1. За круглым столом сидят 5 мужчин и 5 женщин. Какова вероятность того, что два лица одинакового пола не сидят рядом, если места занимались случайно? 2. На столе лежат 20 экзаменационных билетов с номерами 1, 2, ..., 20. Преподаватель берёт 3 любых билета. Какова вероятность того, что они из первых четырёх? 3. Имеется 6 отрезков, длины которых равны соответственно 2, 4, 6, 8, 10, 12 единицам. Найти вероятность того, что с помощью взятых наугад трёх отрезков можно построить треугольник. 4. Пять студентов из группы изучают английский язык, шесть студентов – немецкий и семь студентов – французский язык. Случайным образом выбрано четыре студента. Какова вероятность того, что двое из них изучают английский язык, один изучает французский и один – немецкий? 5. На семи карточках написаны цифры от 1 до 7. Наудачу извлекаются две карточки. Какова вероятность того, что сумма цифр на этих карточках будет чётной? 6. В мастерскую для ремонта поступило 10 телевизоров, из которых 3 нуждаются в общем ремонте. Мастер наугад берёт первые 5 штук. Какова вероятность того, что два из них нуждаются в общем ремонте? 7. Бросаются две игральные кости. Найти вероятность того, что выпадет одинаковое число очков на обеих костях, и вероятность того, что на обеих костях выпадет чётное число очков. 8. Из полной колоды карт (52 карты) вынимается наугад три карты. Найти вероятность того, что этими картами будут тройка, семёрка и туз. 9. Телефонный номер состоит из пяти цифр. Найти вероятность того, что номер телефона случайно выбранного абонента не содержит одинаковых цифр. 10. В шахматном турнире участвуют 20 человек, которые разбиваются на две группы по 10 человек. Определить вероятность того, что четыре наиболее сильных игрока разделятся между группами поровну. 163 Теория вероятностей и математическая статистика 11. Четырёхтомное сочинение расположено на полке в случайном порядке. Найти вероятность того, что тома стоят в должном порядке справа налево или слева направо. 12. Какова вероятность того, что четырехзначный номер случайно взятого автомобиля в большом городе имеет все цифры разные и вероятность того, что он имеет все цифры одинаковые? 13. Полная колода карт (52 карты) делится пополам. Найти вероятность того, что число чёрных и красных карт в обеих пачках будет одинаковым. 14. На полке лежат 15 учебников, из них 7 – по математике. Студент наудачу берёт 3 учебника. Какова вероятность того, что взятые учебники – учебники по математике? 15. Игральная кость бросается два раза. Какова вероятность того, что сумма выпавших очков будет не менее 7 и не более 10? 16. В урне 2 белых и 4 чёрных шара. Из урны парами последовательно извлекают все шары. Какова вероятность того, что в последней паре оба шара будут чёрными? 17. Студент знает 15 из 20 вопросов учебной программы. На экзамене предлагается ответить на 3 вопроса, которые выбираются случайным образом. Какова вероятность того, что студент сможет ответить на предложенные вопросы? 18. Отрезок прямой, длина которого равна 2, делится случайным образом на 3 части. Найти вероятность того, что из полученных частей можно построить треугольник. 19. Спортивная команда состоит из 20 спортсменов, из которых 5 боксёров, 7 штангистов и 8 борцов. Для беседы с журналистом было выбрано случайным образом 3 спортсмена. Определить вероятность того, что выбранные спортсмены представляют различные дисциплины спорта. 20. На восьми карточках написаны цифры от 1 до 8. Наудачу извлекаются две карточки. Какова вероятность того, что сумма цифр, написанных на этих карточках, будет не менее 12? 21. Бросаются две игральные кости. Найти вероятность того, что сумма выпавших очков будет не более чем 10. 22. Каждая из цифр 1, 3, 5, 6 и 8 написана на одной из пяти карточек. Карточки перемешивают и раскладывают в ряд. Какова вероятность того, что полученное пятизначное число будет делиться на 4? 23. Наугад выбирается двухзначное число. Определить вероятность того, что сумма цифр этого числа является простым числом. 24. Из полного набора домино (28 штук) наудачу выбирают 7 костей. Какова вероятность того, что среди них окажется три кости с шестью очками? 25. Группа, состоящая из 8 человек, занимает места за круглым столом в случайном порядке. Какова вероятность того, что при этом два определенных лица окажутся сидящими рядом? Задание 3. Вычислить вероятности событий, указанных в тексте. 1. В первом ящике находятся шары с номерами от 1 до 5, а во втором – с номерами от 6 до 10. Из каждого ящика вынули по одному шару. Какова вероятность того, что сумма номеров вынутых шаров равна 11? 2. В случайный момент времени X∈[0, T] появляется радиосигнал длительностью t1. В случайный момент времени Y∈[0, T] включается приемник на время t2 < t1. Найти вероятность обнаружения сигнала, если приемник настраивается мгновенно. 3. Две игральные кости бросаются один раз. Найти вероятность того, что сумма выпавших очков является простым числом. 164 Практикум 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. Время прихода двух пароходов независимо равновозможное в течение данных суток. Определить вероятность того, что одному из пароходов придется ожидать освобождения причала, если время стоянки первого парохода – 4 часа, а второго – 2 часа. Даны две концентрические окружности радиусов r1 = 2 и r2 = 1. На большей окружности наудачу ставятся две точки А и В. Какова вероятность того, что отрезок АВ не пересечет малую окружность? В первом ящике находятся шары с номерами от 1 до 5, а во втором – с номерами от 6 до 10. Из каждого ящика вынули по одному шару. Какова вероятность того, что произведение номеров вынутых шаров будет не меньше 20? Найти вероятность того, что при случайном размещении 3 шаров по 3 ящикам один ящик окажется пустым. Из отрезка [–1, 2] наудачу взяты два числа. Какова вероятность того, что их сумма больше единицы, а модуль разности меньше единицы? Два лица условились встретиться в определённом месте между 12 и 13 часами. Пришедший первым ждёт второго в течении 15 минут, после чего уходит. Определить вероятность того, что встреча состоится, если каждый может прибыть на место встречи в любой момент в течении указанного часа, а моменты времени их прихода независимы. Бросаются три игральные кости. Определить вероятность того, что сумма выпавших очков будет равна 12. На отрезке длиной d наудачу выбраны две точки. Какова вероятность того, что расстояние между ними будет меньше 0,5d? Два игрока по очереди бросают игральную кость, каждый по одному разу. Выигравшим считается тот, кто получит большее число очков. Найти вероятность выигрыша первого игрока. Из отрезка [0, 2] наудачу взяты два числа. Какова вероятность того, что их сумма меньше 3, а модуль разности больше единицы? На отрезке длиной 2d наудачу выбраны две точки. Какова вероятность того, что расстояние между ними будет больше d? Зенитная батарея, состоящая из 4 орудий, производит залп по группе, состоящей из 4 самолётов. Каждое орудие выбирает себе цель наудачу независимо от остальных. Какова вероятность того, что все орудия выстрелят по разным самолётам? Код кодового замка состоит из трёх цифр. Некто, не зная кода, стал наудачу пробовать различные комбинации из трёх цифр. На каждую попытку он тратит по 20 секунд. Какова вероятность того, что замок будет открыт за один час? На плоскости начерчены параллельные прямые, находящиеся на расстоянии 2d друг от друга. На плоскость наудачу бросается монета радиуса r < d. Найти вероятность того, что монета не пересечёт ни одной прямой. В группе из 20 студентов 5 являются отличниками, 9 – хорошистами и 6 студентов учатся удовлетворительно. Комиссия по проверке качества подготовки студентов наудачу выбирает четырёх студентов из этой группы. Какова вероятность того, что среди выбранных окажется один отличник, два хорошиста и один студент, обучающийся на оценку удовлетворительно? Точка взята наудачу внутри круга радиуса R. Найти вероятность того, что эта точка окажется внутри вписанного в круг правильного треугольника. На отрезке AB длиной d поставлены наудачу две точки L и M . Найти вероятность того, что точка L окажется ближе к точке A, чем к точке M. 165 Теория вероятностей и математическая статистика 21. Колода карт (36 карт) делится пополам. Найти вероятность того, что в одной пачке чёрных карт будет в 2 раза больше, чем красных. 22. Точка взята наудачу внутри круга радиуса R. Найти вероятность того, что эта точка окажется внутри вписанного в круг квадрата. 23. Из колоды карт (36 карт) вынимается наудачу три карты. Определить вероятность того, что вынутыми картами будут дама, семёрка и туз. 24. На бесконечную шахматную доску со стороной квадрата d бросается наудачу монета радиуса r, 2r < d. Найти вероятность того, что монета целиком попадёт внутрь одного квадрата. 25. Найти вероятность того, что дни рождения 12 человек приходятся на разные месяцы года (предполагается, что день рождения каждого человека с равными вероятностями может приходиться на любой месяц года). Задание 4. Вычислить вероятности событий, пользуясь формулами сложения и (или) умножения вероятностей. 1. Три стрелка одновременно делают по одному выстрелу по мишени. Какова вероятность того, что мишень будет поражена только одной пулей, если вероятность попадания в мишень для первого стрелка равна 0,8, для второго – 0,7, для третьего – 0,6? 2. В классе учатся 10 мальчиков и 8 девочек. По жребию выбирают 5 учеников этого класса. Какова вероятность того, что среди них окажется не менее трёх девочек? 3. Из сосуда, содержащего 2 белых и 4 чёрных шара, двое поочерёдно извлекают шар (без возвращения). Найти вероятность того, что каждый из участников вынет первым белый шар. 4. В урне 4 белых и 6 чёрных шаров. Из урны наугад извлекают 4 шара. Какова вероятность того, что среди них будет хотя бы два чёрных шара? 5. Двое поочерёдно бросают монету. Выигрывает тот, который первым в результате получит орла. Какова вероятность того, что игра закончится не позднее чем после второго бросания монеты вторым игроком? 6. Вероятности попадания в цель при стрельбе из трёх орудий соответственно равны: 0,8; 0,7; 0,9. Вычислить вероятность двух попаданий при одном залпе из всех орудий. 7. Среди 100 лотерейных билетов есть 5 выигрышных. Найти вероятность того, что среди трёх наудачу выбранных билетов будет не менее двух выигрышных. 8. Чтобы получить положительную оценку на экзамене студент должен ответить по меньшей мере на три вопроса из предложенных пяти. Какова вероятность того, что студент успешно выдержит экзамен, если он знает 20 из 30 вопросов программы? 9. В ящике 12 деталей, среди которых 8 окрашенных. Сборщик наудачу извлекает 4 детали. Найти вероятность того, что хотя бы две детали из взятых будут окрашенными. 10. Автобусный маршрут обслуживается тремя автобусами. Вероятности возникновения неисправностей автобусов на маршруте в течении смены равны соответственно: 0,2; 0,1; 0,08. Определить вероятность того, что в течении смены неисправность возникнет только у одного автобуса. 11. Три баскетболиста производят по одному броску мяча. Вероятность попадания мяча в корзину для первого, второго и третьего баскетболиста равны соответственно 0,9, 0,8 и 0,7. Найти вероятность того, что удачными будут только два броска. 12. Студент знает 20 из 25 вопросов программы. Зачет считается сданным, если студент ответит не менее чем на три из четырех поставленных в билете вопросов. Взглянув на первый вопрос билета, студент обнаружил, что он его знает. Какова вероятность того, что студент сдаст зачет? 166 Практикум 13. Радист трижды вызывает корреспондента. Вероятность того, что будет принят первый вызов, равна 0,2, второй – 0,3, третий вызов – 0,4. По условиям приёма, события, состоящие в том, что данный вызов будет услышан, независимы. Найти вероятность того, что корреспондент вообще услышит вызов. 14. В ящике 12 деталей, среди которых 8 высшего качества. Сборщик последовательно наудачу извлекает из ящика по одной детали до первого появления детали высшего качества. Найти вероятность того, что будет произведено не более трёх извлечений. 15. В ящике имеются 10 монет по 20 копеек, 5 монет по 15 коп. И 2 монеты по 10 коп. Наугад берётся 6 монет. Какова вероятность того, что в сумме они составят не более одного рубля? 16. В двух урнах находятся шары, причём в первой урне 5 белых шаров, 11 чёрных и 8 красных, а во второй соответственно 10, 8 и 6. Из обеих урн наудачу извлекается по одному шару. Какова вероятность того, что оба шара одного цвета? 17. Вероятность улучшить свой предыдущий результат с одной попытки для данного спортсмена равна p. Определить вероятность того, что на соревнованиях спортсмен улучшит свой результат, если разрешается делать две попытки. 18. Два стрелка поочерёдно стреляют по мишени до первого попадания. Вероятность попадания для первого стрелка равна 0,2, а для второго – 0,3. Найти вероятность того, что всего будет сделано 2 или 3 выстрела. 19. В лотерее выпущено 100 билетов, из которых 20 – выигрышные. Куплено 5 билетов. Какова вероятность того, что среди купленных билетов не менее двух являются выигрышными? 20. Жюри состоит из трех судей. Первый и второй судьи принимают правильное решение независимо друг от друга с вероятностью 0,8, а третий судья для решения бросает монету. Окончательное решение жюри принимает по большинству голосов. Какова вероятность того, что жюри примет правильное решение? 21. Пять студентов из группы изучают английский язык, шесть студентов – немецкий и семь студентов – французский язык. Случайным образом выбрано три студента. Какова вероятность того, что два из них изучают один и тот же иностранный язык? 22. Вероятность попадания в цель для первого орудия равна 0,3, для второго – 0,4, для третьего – 0,6. Для разрушения цели требуется хотя бы 2 попадания. Какова вероятность того, что при одном залпе из всех орудий цель будет разрушена? 23. Три стрелка одновременно делают по одному выстрелу по мишени. Какова вероятность того, что мишень будет поражена не менее чем двумя пулями, если вероятность попадания в мишень для первого стрелка равна 0,5, для второго – 0,6, для третьего – 0,8? 24. Два стрелка поочерёдно стреляют по мишени до первого попадания. Вероятность попадания для первого стрелка равна 0,3, а для второго – 0,4. Найти вероятность того, мишень будет поражена первым стрелком. 25. Двое поочерёдно бросают монету. Выигрывает тот, который первым в результате получит орла. Какова вероятность того, что выиграет игрок, бросающий монету первым? Задание 5. Вычислить вероятности событий, пользуясь формулой полной вероятности и (или) формулой Байеса. 1. На заводе 30% деталей производится цехом №1, 45% – цехом №2 и 25% – цехом №3. Вероятность изготовления бракованной детали для 1-ого цеха равна 0,05, для 2-го – 0,01, для 3-го – 0,04. Наугад выбранная из общего потока деталь оказалась бракованной. Определить вероятность того, что эта деталь была изготовлена 1-м цехом. 167 Теория вероятностей и математическая статистика 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 168 Трое охотников одновременно выстрелили по медведю, который был убит одной пулей. Определить вероятность того, что медведь был убит первым охотником, если вероятности попадания для охотников равны соответственно 0,4, 0,35 и 0,3. В урне находится два белых и четыре чёрных шара. Из урны извлекают два шара, цвет которых остаётся неизвестным, и откладывают их в сторону, после чего вынимают третий шар. Определить вероятность того, что этот шар белый. Известно, что 5% всех мужчин и 0,25% всех женщин – дальтоники. На обследование прибыло одинаковое число мужчин и женщин. Наудачу выбранное лицо оказалось дальтоником. Какова вероятность того, что это мужчина? В продажу поступают телевизоры трех заводов. Продукция первого завода содержит 20% телевизоров со скрытым дефектом, второго – 10% и третьего – 5%. Какова вероятность приобрести исправный телевизор, если в магазин поступило 30% телевизоров с первого завода, 20% – со второго и 50% – с третьего? Два цеха штампуют однотипные детали. Первый цех дает α% брака, а второй – β%. Для контроля отобрано n1 деталей из первого цеха и n2 из второго. Эти n1 + n2 деталей смешаны в одну партию, и из нее наудачу извлекают одну деталь. Какова вероятность того, что она бракованная? В ящике лежит 20 теннисных мячей, в том числе 15 новых. Для игры наудачу выбираются два мяча и после игры возвращаются обратно. Затем для второй игры также наудачу извлекаются еще два мяча. Какова вероятность того, что вторая игра будет проводиться новыми мячами? В тире имеется 5 ружей, вероятность попадания из которых равна 0,5, три ружья с вероятностью попадания 0,7 и два ружья с вероятностью попадания 0,8. Определить вероятность попадания в мишень при одном выстреле, если стреляющий берёт одно из ружей наудачу. Для контроля продукции из трёх партий деталей взята для испытания одна деталь. Как велика вероятность обнаружения бракованной продукции, если в первой партии 2/3 деталей бракованные, во второй – 1/3, а в третьей – все детали доброкачественные? Из полного набора костей домино наугад берутся две кости. Определить вероятность того, что вторую кость можно приставить к первой. На двух станках обрабатываются однотипные детали. Вероятность брака для 1-го станка составляет 0,03, для второго – 0,02. Обработанные детали поступают на общий конвейер. Наудачу взятая с конвейера деталь оказалась без брака. Определить вероятность того, что эта деталь была обработана на 1-м станке. В первой урне находится 6 белых и 4 чёрных шаров, а во второй – 5 белых и 4 чёрных. Из первой урны во вторую переложили один шар, после чего из второй урны извлекли один шар, оказавшийся белым. Какова вероятность того, что из первой урны во вторую был переложен белый шар? Группа из 15 спортсменов стрелков включает 3 мастера спорта, 6 кандидатов в мастера и 6 перворазрядников. Вероятности поражения мишени для спортсменов равны соответственно 0,9, 0,8 и 0,7. Наудачу выбранный стрелок сделал выстрел и поразил мишень. Какова вероятность того, этот стрелок является мастером спорта? Три стрелка произвели залп, причём две пули поразили мишень. Найти вероятность того, что третий стрелок попал в цель, если вероятности попадания в мишень первым, вторым и третьим стрелками равны соответственно 0,6, 0,5, 0,4. Вероятность попадания в цель при одном выстреле равна 0,4. Вероятность поражения цели при одном попадании равна 0,1, при двух попаданиях – 0,3, при трёх попада- Практикум 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. ниях – 0,6. Произведено три выстрела, в результате которых цель была поражена. Каково наиболее вероятное число попаданий? В партии из 5 изделий количество бракованных изделий может быть любым с одинаковой вероятностью. Из партии взято одно изделие, оказавшееся бракованным. Какое предположение о количестве бракованных изделий наиболее вероятно, если принять во внимание результат этого опыта? В первой урне находится 6 белых и 4 чёрных шаров, а во второй – 4 белых и 6 чёрных. Из каждой урны наудачу извлекли по одному шару, а затем из этих двух шаров наудачу взят один шар. Найти вероятность того, что взят белый шар. На сборку поступают детали с двух автоматов. Первый даёт в среднем 0,2% брака, второй – 0,1%. Найти вероятность попадания на сборку бракованной детали, если с первого автомата поступило 2000 деталей, а со второго – 3000. В трёх одинаковых коробках находится по 10 деталей, включая бракованные. В первой коробке – 2 детали бракованные, во второй – 3, в третьей – 1. Некто выбирает наугад одну из коробок и наудачу берёт из нее деталь. Какова вероятность того, что эта деталь окажется бракованной? В сосуд, содержащий 5 шаров, опущен белый шар. Какова вероятность, действуя наудачу, вынуть белый шар из этого сосуда? Все предположения о первоначальном составе шаров считаются одинаково возможными. Радиолампа может принадлежать к одной из трёх партий с вероятностями 0,2, 0,3 и 0,5. Вероятности того, что лампа проработает заданное число часов для этих партий, равны соответственно 0,7, 0,8 и 0,9. Определить вероятность того, что лампа проработает заданное число часов. Определить вероятность того, что 100 лампочек, взятых наудачу из 1000, окажутся исправными, если известно, что число испорченных лампочек на 1000 штук может быть равным от 0 до 5 с одинаковой вероятностью. В продажу поступают телевизоры трех заводов. Продукция первого завода содержит 10% телевизоров со скрытым дефектом, второго – 8% и третьего – 5%. Приобретённый телевизор оказался без дефектов. Какова вероятность того, что этот телевизор был изготовлен на первом заводе, если в магазин поступило 30% телевизоров с первого завода, 20% – со второго и 50% – с третьего? В тире имеется 5 ружей, вероятность попадания из которых равна 0,5, три ружья с вероятностью попадания 0,7 и два ружья с вероятностью попадания 0,8. Сделан выстрел из наудачу взятого ружья, при этом зафиксировано попадание в цель. Определить вероятность того, что это ружьё принадлежало первой группе. Известно, что 95% выпускаемой продукции удовлетворяет стандарту. Упрощенная схема контроля признаёт пригодной стандартную продукцию с вероятностью 0,9 и нестандартную – с вероятностью 0,08. Определить вероятность того, что изделие, прошедшее упрощённый контроль, удовлетворяет стандарту. Задание 6. Вычислить вероятности событий, пользуясь формулой Бернулли, следствиями из неё, или её асимптотическими приближениями. 1. Вероятность отказа прибора при испытании равна 0,2. Сколько таких приборов нужно испытать, чтобы с вероятностью 0,99 получить хотя бы один отказ? 2. Вероятность изготовления детали отличного качества равна 0,8. Какова вероятность того, что среди 10 деталей не менее 9 отличного качества? 169 Теория вероятностей и математическая статистика 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 170 Если в среднем левши составляют 1%, какова вероятность того, что среди 200 человек окажется четверо левшей? Какова вероятность среди 200 человек обнаружить не менее 4 левшей? В некотором семействе 8 детей. Вероятность рождения мальчика или девочки равна 0,5. Найти вероятность того, что а) имеется 4 мальчика и 4 девочки; б) число мальчиков заключено между 2 и 6 (включительно). Вероятность хотя бы одного появления события при четырёх независимых испытаниях равна 0,59. Какова вероятность появления события при одном опыте, если при каждом опыте эта вероятность одинакова? Батарея дала 14 выстрелов по военному объекту, вероятность попадания в который равна 0,2. Найти а) наивероятнейшее число попаданий и его вероятность: б) вероятность разрушения объекта, если для его разрушения требуется не менее 4 попаданий. В некотором обществе имеется 1% дальтоников. Каков должен быть объём случайной выборки (с возвращением), чтобы вероятность встретить в ней хотя бы одного дальтоника была не менее 0,95? Игральная кость бросается 6 раз. Найти вероятность того, что хотя бы два раза появится число очков, кратное трём. Вероятность попадания в цель равна 0,2. Сбрасывается одиночно 7 бомб. Найти вероятность того, что будет а) не менее 6 попаданий; б) не менее 2 попаданий. На отрезок [0, 10] наудачу брошено 5 точек. Найти вероятность того, что две точки попадут в отрезок [0, 2], одна – в [2, 3], две – в [3, 10]. Вероятность попадания в цель при каждом выстреле равна 0,001. Найти вероятность попадания в цель двумя и более выстрелами, если сделано 5000 выстрелов. В круг вписан квадрат. Какова вероятность того, что из 8 точек, брошенных наудачу в круг, три попадут в квадрат, две – в один сегмент, три – в оставшиеся три сегмента? Станок-автомат штампует детали. Вероятность того, что изготовленная деталь окажется бракованной, равна 0,02. Найти вероятность того, что среди 100 деталей бракованных окажется не менее 2 и не более 4. Игральная кость бросается 12000 раз. Найти вероятность того, что число выпадений одного очка будет заключено между 1900 и 2150. Система радиолокационных станций ведёт наблюдение за группой объектов, состоящей из 10 единиц. Каждый из объектов может быть (независимо от других) потерян с вероятностью 0,1. Найти вероятность того, что не менее двух объектов будет потеряно. Прибор состоит из 8 однотипных элементов, но может работать при наличии в исправном состоянии не менее 6 из них. Каждый из элементов за время t работы прибора выходит из строя независимо от других с вероятностью 0,2. Найти вероятность того, что прибор откажет за время t. Вероятность выигрыша по одному лотерейному билету равна 0,005. Найти вероятность того, что, имея 100 билетов, можно выиграть хотя бы по двум из них. Тестовый билет содержит 5 вопросов. На каждый вопрос предлагается два варианта ответа, из которых один является правильным. Для получения зачёта нужно правильно ответить не менее чем на три вопроса. Какова вероятность того, что некто, выбирая ответы наудачу, может получить зачёт? Вероятность хотя бы одного выигрыша по 5 лотерейным билетам равна 0,1. Какова вероятность выигрыша по одному билету, если предполагать, что для всех билетов эта вероятность одинакова? Практикум 20. Доля изделий первого сорта в продукции завода составляет 70%. Какова вероятность того, что из отобранных 400 изделий окажется от 270 до 300 изделий первого сорта? 21. Сколько нужно взять случайных цифр, чтобы вероятность появления среди них цифры, кратной трём, была бы не менее 0,9? 22. Вероятность появления события в одном опыте равна 0,6. Какова вероятность того, что это событие появится в большинстве из 60 опытов? 23. Вероятность изготовления детали отличного качества равна 0,9. Какова вероятность того, что среди 8 деталей не более 6 отличного качества? 24. Батарея дала 10 выстрелов по военному объекту, вероятность попадания в который равна 0,3. Найти а) наивероятнейшее число попаданий и его вероятность; б) вероятность разрушения объекта, если для его разрушения требуется не менее 3 попаданий. 25. Шахматист играет в шахматы со своим партнёром 4 партии. Вероятность выиграть партию равна для этого шахматиста 0,4. Найти вероятность того, что он выиграет не более 2 и не менее 3 партий. Тема 2. Случайные величины Задание 7. Задан закон распределения дискретной случайной величины X. Найти математическое ожидание, дисперсию, cреднее квадратическое отклонение. Построить график функции распределения вероятностей случайной величины X. 1. x p 10 0,6 10,1 0,1 10,3 0,1 10,6 0,1 11 0,1 2. x p 10,1 0,5 10,2 0,2 10,4 0,1 10,7 0,1 11,1 0,1 3. x p 10,3 0,4 20,3 0,3 20,7 0,1 21,3 0,1 22,1 0,1 4. x p 10,6 0,3 20,6 0,3 21 0,2 21,6 0,1 22,4 0,1 5. x p 11 0,2 21 0,2 21,4 0,3 22 0,2 22,8 0,1 6. x p 11,5 0,1 21,5 0,1 21,9 0,3 22,5 0,4 23,3 0,1 7. x p 12,1 0,1 22,1 0,3 22,5 0,4 23,1 0,1 23,9 0,1 8. x p 12,8 0,1 22,8 0,2 23,2 0,4 23,8 0,2 24,6 0,1 171 Теория вероятностей и математическая статистика 172 9. x p 13,6 0,3 23,6 0,3 24 0,2 24,6 0,1 25,4 0,1 10. x p 14,5 0,3 24,5 0,4 24,9 0,1 25,5 0,1 26,3 0,1 11. x p 15,5 0,2 25,5 0,4 25,9 0,2 26,5 0,1 27,3 0,1 12. x p 16,6 0,1 26,6 0,5 27 0,1 27,6 0,2 28,4 0,1 13. x p 17,8 0,3 27,8 0,2 28,2 0,2 28,8 0,2 29,6 0,1 14. x p 19,1 0,2 29,1 0,1 29,5 0,1 30,1 0,1 30,9 0,5 15. x p 20,5 0,1 30,5 0,3 30,9 0,3 31,5 0,2 32,3 0,1 16. x p 20,4 0,1 30,4 0,2 30,8 0,2 31,4 0,3 32,2 0,2 17. x p 20,2 0,2 30,2 0,1 30,6 0,4 31,2 0,2 32 0,1 18. x p 19,9 0,3 29,9 0,3 30,3 0,2 30,9 0,1 31,7 0,1 19. x p 19,5 0,1 29,5 0,1 29,9 0,3 30,5 0,4 31,3 0,1 20. x p 19 0,2 29 0,3 29,4 0,2 30 0,2 30,8 0,1 21. x p 18,4 0,1 28,4 0,2 28,8 0,2 29,4 0,4 30,2 0,1 22. x p 17,7 0,2 27,7 0,3 28,1 0,2 28,7 0,2 29,5 0,1 23. x p 16,9 0,1 26,9 0,1 27,3 0,2 27,9 0,4 28,7 0,2 Практикум 24. x p 16 0,3 26 0,3 26,4 0,2 27 0,1 27,8 0,1 25. x p 15 0,2 25 0,1 25,4 0,1 26 0,3 26,8 0,3 Задание 8. Непрерывная случайная величина Х задана функцией распределения (задачи 1–14) или плотностью распределения вероятностей (задачи 15–25). Требуется: а) найти плотность распределения (1–14) или функцию распределения вероятностей (15–25); б) найти математическое ожидание, дисперсию, среднее квадратическое отклонение, скошенность и эксцесс распределения; вероятность того, что случайная величина отклонится от своего математического ожидания не более, чем на одну четвёртую длины всего интервала возможных значений этой величины; в) построить графики функций распределения и плотности распределения вероятностей. 0 при х ≤ 0,  x 2 при 0 < x ≤ 2, 1. F ( x) =  4 1 при х > 2. 3  0 при х ≤ 4 ,  3 3 2. F ( x) = 4 − при < x ≤ 1, x 4  1 при х > 1.   2  0 при х ≤ 3 ,  2 2 3. F ( x) = 3 − при < х ≤ 2, 3 x  1 при х > 2.   0 при x ≤ 0,  5. F ( x) = e x − 1 при 0 < x ≤ ln 2, 1 при x > 2.  0 при x ≤ 0,  π 4. F ( x) = 2 sin x при 0 < x ≤ , 6  π 1 при x > . 6  π  0 при x ≤ 4 ,  π π 7. F ( x) = − cos 2 x при < x ≤ , 4 2  π 1 при x > .  2 0 при x ≤ 0,  x 3 при 0 < x ≤ 2, 9. F ( x) =  8  1 при x > 2.  0 при x ≤ 0,  x π при 0 < x ≤ , 8. F ( x) = 2 sin 2 3  π 1 при x > .  3 0 при x ≤ 0,  x 3 при 0 < x ≤ 3, 10. F ( x) =  27  1 при x > 3. 0 при x ≤ 0,  12. F ( x) = 3 x при 0 < x ≤ 1, 1 при x > 1.  0  11. F ( x) = ln x 1 при x ≤ 1, при 1 < x ≤ e, при x > e. 0 при x ≤ 0,  6. F ( x) =  x при 0 < x ≤ 1, 1 при x > 1.  173 Теория вероятностей и математическая статистика 13. 15. 17. 19. 21. 0 при x ≤ 0,  x 2 F ( x) =  при 0 < x ≤ 4, 16  1 при x > 4. π   0 при x ≤ 0 и x > 4 , f ( x) =  π  2 cos 2 x при 0 < x ≤ . 4   0 при x ≤ 0 и x > 3,  f ( x) =  x 2 при 0 < x ≤ 3.  9  0 при x ≤ 0 и x > 1,  f ( x) =  4 3  3 x при 0 < x ≤ 1. 3   0 при x ≤ 4 и x > 1, f ( x) =  6 4 3  3 − 2 при < x ≤ 1. 4 x x  0 при x ≤ 0 и x > 1,  23. f ( x) =  1 при 0 < x ≤ 1.  33 x 2 0 при x ≤ 2,  x 14. F ( x) = ln при 2 < x ≤ 2e, 2  1 при x > 2e. 0  16. f ( x) =  3 при x ≤ 0 и x > 1,  2 x 0  18. f ( x) =  2 при 0 < x ≤ 1. при x ≤ 1 и x > e ,  x при 1 < x ≤ e .  0 при x ≤ 0 и x > 3,  x 20. f ( x) =  2  1− при 0 < x ≤ 3.  3  3  π   0 при x ≤ 0 и x > 3 , 22. f ( x) =  π x  cos при 0 < x ≤ . 2 3  1   0 при x ≤ 0 и x > 4 , 24. f ( x) =  1 1  при 0 < x ≤ .  x 4  0 при x ≤ 0 и x > 4,  25. f ( x) =  3 x 2 при 0 < x ≤ 4.  64 Тема 3. Многомерные случайные величины Задание 9. Закон распределения дискретной двухмерной случайной величины (X,Y) представлен таблицей. Определить одномерные законы распределения случайных величин X и Y. Найти условные плотности распределения вероятностей величин. Вычислить математические ожидания mx и my, дисперсии σx и σy, ковариационный момент Kxy и коэффициент корреляции rxy. yj y1 y2 y3 y4 y5 xi x1 0,04 0,04 0,03 0,03 0,01 x2 0,04 0,07 0,06 0,05 0,03 x3 0,05 0,08 0,09 0,08 0,05 x4 0,03 0,04 0,04 0,06 0,08 Возможные значения случайных величин выбрать по номеру варианта. 174 Практикум 1. X = (1; 2; 3; 8), Y = (9; 11; 13; 16; 18) 2. X = (–2; –1; 1; 3), Y = (6; 8; 12; 14; 16) 3. X = (–1; 2; 4; 6), Y = (5; 7; 9; 11; 14) 4. X = (2; 3; 5; 8), Y = (7; 9; 10; 11; 13) 5. X = (–3; –2; 2; 7), Y = (8; 10; 12; 14; 16) 6. X = (–2; –1; 2; 4), Y = (3; 5; 10; 12; 15) 7. X = (1; 4; 7; 8), Y = (4; 7; 9; 10; 11) 8. X = (–3; –1; 1; 4), Y = (6; 7; 10; 12; 14) 9. X = (–1; 1; 3; 6), Y = (3; 5; 8; 10; 12) 10. X = (–4; –2; 2; 4), Y = (5; 7; 9; 11; 13) 11. X = (1; 3; 5; 7), Y = (2; 4; 10; 12; 14) 12. X = (–4; –3; 1; 2), Y = (6; 9; 10; 12; 15) 13. X = (–2; 2; 4; 6), Y = (9; 10; 12; 14; 15) 14. X = (–5; –3; 1; 3), Y = (5; 8; 11; 14; 15) 15. X = (1; 2; 4; 5), Y = (7; 8; 9; 12; 13) 16. X = (–3; –1; 3; 5), Y = (3; 6; 8; 10; 12) 17. X = (1; 4; 5; 6), Y = (2; 5; 8; 11; 15) 18. X = (–4; –1; 1; 2), Y = (1; 4; 7; 12; 15) 19. X = (2; 3; 4; 6), Y = (7; 10; 11; 12; 14) 20. X = (–1; 1; 4; 5), Y = (6; 7; 10; 14; 16) 21. X = (1; 2; 3; 5), Y = (4; 8; 9; 11; 12) 22. X = (2; 3; 5; 7), Y = (3; 6; 8; 10; 12) 23. X = (2; 3; 5; 8), Y = (7; 9; 10; 11; 13) 24. X = (–2; –1; 3; 5), Y = (1; 3; 5; 8; 12) 25. X = (–1; 2; 4; 6), Y = (4; 6; 8; 11; 14) Задание 10. Двухмерная случайная величина (X,Y) распределена равномерно в треугольнике, ограниченном прямыми x = 0, y = 0, ax + by = c. Найти одномерные плотности распределения вероятностей и условные плотности распределения. Вычислить математические ожидания mx и my, дисперсии σx и σy, ковариационный момент Kxy и коэффициент корреляции rxy. Коэффициенты a, b, c выбрать по номеру варианта. 1. a = 1; b = 2; c = 4 2. a = 2; b = 1; c = 4 3. a = 1; b = 3; c = 6 4. a = 3; b = 1; c = 6 5. a = 1; b = 4; c = 8 6. a = 4; b = 1; c = 8 7. a = 2; b = 3; c = 6 8. a = 3; b = 2; c = 6 9. a = 3; b = 4; c = 12 10. a = 4; b = 3; c = 12 11. a = 1; b = 5; c = 5 12. a = 5; b = 1; c = 2 13. a = 2; b = 5; c = 10 14. a = 5; b = 2; c = 10 15. a = 1; b = 1; c = 4 16. a = 1; b = 1; c = 3 17. a = 1; b = 2; c = 8 18. a = 2; b = 1; c = 8 19. a = 1; b = 2; c = 6 20. a = 2; b = 1; c = 6 21. a = 1; b = 1; c = 2 22. a = 1; b = 6; c = 6 23. a = 6; b = 1; c = 6 24. a = 3; b = 5; c = 15 25. a = 5; b = 3; c = 15 Тема 4. Функциональные преобразования случайных величин Задание 11. Дискретная величина X задана таблично: xi pi –4 0,02 –3 0,03 –2 0,05 –1 0,1 0,2 1 0,3 2 0,15 3 0,1 4 0,05 5 0,05 Записать в виде таблицы закон распределения заданной функции. Найти математическое ожидание функции. Функцию выбрать по номеру варианта. 1. Y = 0,5X2 2. Y = 2X2–40 3. Y = 2X–10 4. Y = X2–20 5. Y = X + 10 X 6. Y = 2 7. Y = (X + 2)2 8. Y = 2X – 3–50 9. Y = (X + 1)2–30 10. Y = X – 2 + 10 11. Y = 2–X 12. Y = 2(X – 1)2–30 13. Y = 2X + 2–4 14. Y = (X + 3)2–50 15. Y = X – 3 + 3 16. Y = 0,5(X + 2)2 17. Y = 2X – 1 18. Y = 2X + 1 19. Y = 20 – X2 20. Y = 10 – X X–1 2 21. Y = 30 – 2X 22. Y = 4 – 2X + 2 23. Y = 2X–10 24. Y = 2 25. Y = 2X–2. 175 Теория вероятностей и математическая статистика Задание 12. Математические ожидания и дисперсии статистически независимых величин X и Y равны mx, Dx и my, Dy. Вычислить математическое ожидание и дисперсию функции Z = 2XY – 9. Исходные данные выбрать по номеру варианта. 1. mx = 5, Dx = 2; my = 1, Dy = 5 2. mx = 3, Dx = 4; my = 2, Dy = 6 3. mx = –2, Dx = 3; my = 7, Dy = 8 4. mx = –5, Dx = 5; my = 3, Dy = 4 5. mx = –2, Dx = 9; my = 1, Dy = 4 6. mx = 1, Dx = 8; my = –1, Dy = 3 7. mx = 9, Dx = 5; my = –1, Dy = 6 8. mx = 4, Dx = 4; my = 3, Dy = 9 9. mx = –3, Dx = 8; my = 6, Dy = 12 10. mx = 8, Dx = 3; my = 3, Dy = 7 11. mx = 6, Dx = 12; my = 4, Dy = 5 12. mx = –6, Dx = 10; my = 2, Dy = 4 13. mx = 3, Dx = 2; my = 4, Dy = 15 14. mx = 1, Dx = 4; my = 3, Dy = 7 15. mx = –2, Dx = 5; my = 6, Dy = 9 16. mx = 4, Dx = 6; my = 5, Dy = 4 17. mx = 6, Dx = 8; my = 9, Dy = 6 18. mx = 3, Dx = 12; my = –1, Dy = 5 19. mx = 1, Dx = 2; my = 4, Dy = 9 20. mx = 3, Dx = 6; my = 3, Dy = 9 21. mx = –2, Dx = 4; my = 7, Dy = 6 22. mx = –6, Dx = 7; my = 2, Dy = 5 23. mx = 2, Dx = 8; my = 1, Dy = 6 24. mx = 4, Dx = 8; my = –2, Dy = 4 25. mx = 7, Dx = 2; my = 5, Dy = 6 Тема 5. Закон больших чисел Задание 13. Дисперсия случайной величины X равна σ2. С помощью неравенства Чебышева оценить вероятность того, что случайная величина отклонится от своего математического ожидания не более чем на величину ε. Параметры выбрать по номеру варианта. 1. σ2 = 1,5; ε = 2 2. σ2 = 1,4; ε = 2 3. σ2 = 1,1; ε = 1,5 4. σ2 = 1,2; ε = 1,8 5. σ2 = 1; ε = 1,8 6. σ2 = 1,2; ε = 1,8 7. σ2 = 1,3; ε = 2,2 8. σ2 = 2,5; ε = 3 9. σ2 = 1,8; ε = 2,4 10. σ2 = 1,6; ε = 3 11. σ2 = 1,5; ε = 2,2 12. σ2 = 1,4; ε = 1,8 13. σ2 = 2; ε = 3 14. σ2 = 1,7; ε = 2,1 15. σ2 = 3; ε = 2 16. σ2 = 2; ε = 2,3 17. σ2 = 1,8; ε = 3 18. σ2 = 1,6; ε = 2,1 19. σ2 = 2; ε = 2,5 20. σ2 = 2; ε = 2,8 21. σ2 = 1,8; ε = 2,3 22. σ2 = 2; ε = 2 23. σ2 = 1,3; ε = 2,2 24. σ2 = 1,3; ε = 2 25. σ2 = 2; ε = 2,4 Задание 14. Для случайной величины из задания 13 оценивается математическое ожидание. Сколько нужно сделать измерений, чтобы с вероятностью, не меньшей 0,95, среднее арифметическое этих измерений отклонилось от истинного математического ожидания не более чем на величину ε? Задание 15. Для оценки процента дефектных деталей обследуются на наличие дкфектов n деталей. С помощью неравенства Чебышева оценить вероятность того, что доля дефектных деталей k/n отклонится от истинной вероятности дефектной детали не более чем на величину ε. Параметры n и ε выбрать по номеру варианта. 1. n = 64; ε = 0,08 2. n = 49; ε = 0,09 3. n = 64; ε = 0,1 4. n = 36; ε = 0,1 5. n = 25; ε = 0,2 6. n = 49; ε = 0,1 7. n = 36; ε = 0,12 8. n = 25; ε = 0,13 9. n = 64; ε = 0,11 10. n = 49; ε = 0,11 11. n = 36; ε = 0,13 12. n = 25; ε = 0,14 13. n = 64; ε = 0,12 14. n = 49; ε = 0,12 15. n = 36; ε = 0,14 16. n = 25; ε = 0,15 17. n = 64; ε = 0,13 18. n = 49; ε = 0,13 19. n = 36; ε = 0,15 20. n = 64; ε = 0,14 21. n = 49; ε = 0,14 22. n = 49; ε = 0,15 23. n = 64; ε = 0,15 24. n = 64; ε = 0,16 25. n = 64; ε = 0,17 176 Практикум Тема 6. Стаистическая обработка экспериментальных данных. Оценка параметров Задание 16. По данной выборке случайной величины X вычислить все основные эмпирические характеристики: математическое ожидание mx*, дисперсию D*, несмещённую дисперсию S2, среднее квадратическое отклонение σx*, построить доверительный интервал для математического ожидания, построить доверительный интервал для дисперсии (доверительную вероятность положить равной 0,95). 1. 1,6 0,7 4,5 1,2 1,5 4,1 1,6 0,5 2,4 0,2 1,5 0,3 2,6 0,3 9,6 1,4 4,9 0,7 4,0 2,8 3,2 3,3 0,3 0,6 1,0 3,4 0,7 1,4 0,1 4,6 7,3 0,8 0,0 0,6 2,5 1,1 2,8 0,5 2,1 0,9 0,3 4,2 2,7 0,4 2,2 3,7 0,3 1,2 0,8 0,1 0,9 0,2 3,2 0,4 4,9 0,1 8,0 1,2 0,1 0,8 2. 1,4 2,0 1,3 0,6 0,6 3,3 2,1 3,6 3,6 3,6 3,7 3,4 3,6 0,6 6,4 0,7 3,4 7,0 1,0 3,7 3,7 1,2 3,7 1,6 3,7 0,7 3,7 1,1 3,6 2,1 0,9 1,3 5,8 3,0 2,2 2,2 0,6 7,5 2,4 3,7 8,3 1,2 3,4 3,5 0,6 5,1 1,3 2,3 5,6 5,7 5,7 3,2 3,8 4,5 1,4 2,7 3,4 3,0 1,2 1,4 3. 0,1 0,7 4,5 4,9 1,2 1,5 0,6 0,2 0,5 0,2 0,1 1,5 2,4 0,3 1,6 1,8 2,6 0,7 1,5 0,5 4,9 3,3 7,6 2,1 3,2 3,4 4,2 0,9 1,0 4,6 0,3 1,4 0,1 0,6 0,7 0,2 0,0 0,5 7,3 1,1 2,8 4,2 2,5 0,4 0,3 3,7 2,1 5,2 2,2 0,1 2,7 0,5 0,8 0,4 0,3 1,7 3,2 1,2 0,9 1,2 4. 0,0 0,3 0,8 1,2 0,4 1,0 1,9 2,3 1,5 0,1 0,0 0,3 0,7 2,5 0,5 1,1 2,9 1,2 1,5 2,0 0,3 3,5 2,1 0,2 2,1 5,2 3,0 1,3 0,6 1,3 2,3 0,4 0,2 1,0 1,0 0,1 0,3 3,3 2,3 6,2 7,4 2,5 1,5 4,4 0,2 9,6 2,2 1,4 0,1 1,6 1,4 0,9 1,3 0,5 0,3 1,7 1,5 3,1 0,9 0,5 5. 0,2 2,6 1,1 0,2 0,1 1,0 2,6 2,0 1,7 0,8 1,5 1,1 0,8 4,3 2,6 0,8 4,9 1,1 0,4 1,7 0,2 0,9 0,5 3,9 2,5 2,7 0,5 1,8 0,3 0,9 0,2 2,9 2,4 5,8 2,6 0,4 0,2 1,9 1,3 2,3 1,9 0,3 0,4 3,5 0,5 2,6 0,0 0,7 1,6 1,0 2,3 4,1 1,8 0,0 0,3 1,5 0,2 1,2 1,2 0,3 6. 1,8 0,3 0,4 0,3 0,4 2,4 0,0 0,3 1,5 0,9 2,2 0,8 1,7 0,0 0,3 0,1 0,2 1,1 1,1 0,1 2,4 1,0 0,2 3,6 1,0 2,5 1,9 3,0 0,7 1,4 1,0 0,3 4,0 2,5 0,8 0,7 1,1 0,2 1,6 1,3 0,9 0,5 0,8 0,8 2,5 0,4 1,1 1,2 0,8 0,2 1,3 2,6 5,4 2,4 0,9 1,3 1,8 1,2 1,6 1,1 7. 0,1 5,9 5,1 0,1 6,5 0,5 3,3 3,1 0,7 3,2 2,9 2,9 0,2 0,9 1,5 0,2 1,6 0,1 2,8 3,2 2,5 3,1 3,1 1,1 7,0 3,0 3,2 0,6 0,7 2,9 0,4 0,8 4,6 3,2 1,7 1,7 5,2 3,3 1,9 3,0 4,0 3,1 2,9 1,8 2,5 5,3 0,8 2,7 0,8 0,1 5,5 2,2 1,6 7,8 0,9 0,9 3,2 0,2 0,7 5,1 8. 3,3 0,5 0,7 0,5 0,8 4,6 0,0 0,5 2,9 1,7 4,1 1,5 3,2 0,1 0,6 0,3 0,3 2,1 2,0 0,2 4,5 1,9 0,3 6,7 1,8 4,6 3,5 5,6 1,4 2,7 2,0 0,6 7,5 4,6 1,4 1,3 2,0 0,3 3,0 2,5 1,6 0,9 1,4 1,5 4,7 0,8 2,2 2,3 1,5 0,4 2,5 4,8 9,8 4,5 1,8 2,5 3,4 2,3 3,0 2,1 9. 4,1 5,5 1,8 3,0 1,5 3,5 6,1 1,5 3,1 4,6 2,2 1,5 1,8 6,0 5,5 3,4 1,7 2,1 3,4 4,2 1,2 1,4 3,5 5,0 2,9 1,3 2,3 3,5 1,9 1,2 1,2 7,0 3,3 4,7 1,2 6,4 1,6 2,9 1,3 5,0 3,5 3,4 2,5 3,5 2,8 3,5 1,8 2,8 2,3 2,3 7,8 7,3 2,1 5,1 5,6 2,7 2,2 3,2 3,5 3,5 177 Теория вероятностей и математическая статистика 10. 2,9 0,5 0,6 0,5 0,7 4,1 0,0 0,4 2,5 1,5 3,6 1,4 2,8 0,1 0,5 0,2 0,3 1,9 1,8 0,2 4,0 1,7 0,3 6,0 1,6 4,1 3,1 5,0 1,2 2,4 1,7 0,6 6,6 4,1 1,3 1,2 1,8 0,3 2,6 2,2 1,4 0,8 1,3 1,3 4,2 0,7 1,9 2,0 1,4 0,3 2,2 4,3 9,0 4,0 1,6 2,2 3,0 2,0 2,6 1,9 11. 5,1 6,5 2,8 4,0 2,5 4,5 7,1 2,5 4,1 5,6 3,2 2,5 2,8 7,0 6,5 4,4 2,7 3,1 4,4 5,2 2,2 2,4 4,5 6,0 3,9 2,3 3,3 4,5 2,9 2,2 2,2 8,0 4,3 5,7 2,2 7,4 2,6 3,9 2,3 6,0 4,5 4,4 3,5 4,5 3,8 4,5 2,8 3,8 3,3 3,3 8,8 8,3 3,1 6,1 6,6 3,7 3,2 4,2 4,5 4,5 12. 5,5 7,3 2,5 4,0 2,0 4,7 2,1 2,0 4,2 6,2 3,0 1,9 2,4 8,0 7,4 4,6 2,2 2,8 4,5 5,7 1,6 1,9 4,7 4,6 3,9 1,8 3,1 9,3 2,6 1,6 1,6 8,5 4,4 6,2 1,6 6,7 2,1 3,9 1,7 4,7 4,7 4,6 3,3 3,7 3,8 4,7 2,4 9,8 3,1 3,0 9,6 3,6 2,8 6,8 7,5 4,7 2,9 4,3 4,7 2,9 13. 2,5 0,4 0,6 0,4 0,6 3,5 0,0 0,4 2,2 1,3 3,2 1,2 2,5 0,1 0,5 0,2 0,3 1,6 1,5 0,2 3,5 1,5 0,2 5,2 1,4 3,6 2,7 4,3 1,1 2,1 1,5 0,5 5,7 3,6 1,1 1,0 1,5 0,2 2,3 1,9 1,2 0,7 1,1 1,2 3,6 0,6 1,7 1,8 1,2 0,3 1,9 3,7 7,8 3,5 1,3 1,9 2,6 1,8 2,3 1,6 14. 6,1 7,5 3,8 5,0 3,5 5,5 8,1 3,5 5,1 6,6 4,2 3,5 3,8 8,0 7,5 5,4 3,7 4,1 5,4 6,2 3,2 3,4 5,5 7,0 4,9 3,3 4,3 5,5 3,9 3,2 3,2 9,0 5,3 6,7 3,2 8,4 3,6 4,9 3,3 7,0 5,5 5,4 4,5 5,5 4,8 5,5 3,8 4,8 4,3 4,3 9,8 9,3 4,1 7,1 7,6 4,7 4,2 5,2 5,5 5,5 15. 2,1 0,3 0,5 0,3 0,5 2,9 0,0 0,3 1,8 1,1 2,6 1,0 2,0 0,0 0,4 0,2 0,2 1,3 1,3 0,2 2,9 1,2 0,2 4,3 1,2 2,9 2,2 3,6 0,9 1,7 1,2 0,4 4,7 2,9 0,9 0,8 1,3 0,2 1,9 1,6 1,0 0,6 0,9 1,0 3,0 0,5 1,4 1,4 1,0 0,2 1,6 3,1 6,5 2,9 1,1 1,6 2,1 1,5 1,9 1,3 16. 5,9 7,0 4,1 5,0 3,8 5,4 7,5 3,8 5,1 6,3 4,4 3,8 4,0 7,4 7,0 5,3 3,9 4,3 5,3 6,0 3,6 3,7 5,4 5,4 4,9 3,7 4,4 8,2 4,1 3,6 3,6 7,7 5,3 6,3 3,6 6,6 3,9 4,9 3,6 5,4 5,4 5,3 4,6 4,8 4,9 5,4 4,1 8,5 4,5 4,4 8,8 4,7 4,3 6,7 7,1 5,4 4,4 5,2 5,4 5,9 17. 6,3 7,8 3,7 5,0 3,3 5,6 8,5 3,3 5,1 6,8 4,1 3,2 3,7 8,4 7,9 5,5 3,5 4,0 5,4 6,4 3,0 3,2 5,6 7,3 4,9 3,1 4,2 5,5 3,8 2,9 3,0 9,5 5,4 6,9 3,0 8,8 3,4 4,9 3,0 7,3 5,6 5,5 4,4 5,6 4,8 5,6 3,7 4,8 4,2 4,2 9,7 9,9 4,0 7,4 7,9 4,6 4,1 5,3 5,6 5,6 18. 4,1 4,9 2,4 2,8 4,2 5,7 1,9 2,1 3,0 4,2 3,6 2,0 1,9 7,7 2,6 1,9 2,0 7,1 4,0 5,4 2,1 5,7 2,3 3,6 3,2 4,2 4,2 4,1 2,5 3,5 3,5 4,2 8,5 7,8 3,0 3,0 6,3 3,4 2,8 5,8 4,2 4,2 2,9 3,9 3,7 4,8 6,2 2,5 2,2 2,2 4,2 6,8 2,3 3,8 5,3 2,9 4,1 2,5 6,7 6,2 19. 2,4 0,4 0,5 0,4 0,6 3,3 0,0 0,4 2,0 1,2 2,9 1,1 2,3 0,0 0,4 0,2 0,2 1,5 1,4 0,2 3,2 1,4 0,2 4,8 1,3 3,3 2,5 4,0 1,0 1,9 1,4 0,5 5,3 3,3 1,0 0,9 1,4 0,2 2,1 1,8 1,1 0,7 1,0 1,1 3,4 0,6 1,5 1,6 1,1 0,3 1,8 3,4 7,3 3,2 1,3 1,8 2,4 1,6 2,1 1,5 20. 3,8 5,2 1,8 6,9 2,1 3,4 1,9 5,5 4,0 3,9 2,9 4,0 3,3 4,0 2,3 3,3 2,8 2,8 8,3 7,8 2,6 5,6 6,1 3,4 2,7 3,7 4,3 3,8 6,0 2,5 3,5 4,6 4,1 6,6 2,0 1,9 5,1 2,7 2,1 3,6 6,5 6,0 3,9 2,3 2,6 3,9 4,7 2,2 1,9 4,0 5,5 1,7 1,8 2,8 3,9 3,4 1,7 1,7 7,5 2,4 178 Практикум 21. 7,2 4,0 2,9 4,8 9,0 8,4 5,6 4,1 4,8 5,5 6,7 3,8 2,9 5,7 5,6 3,9 2,8 4,1 6,5 8,3 2,6 2,6 3,0 5,7 7,2 2,6 5,2 9,6 4,9 2,7 3,4 8,8 5,6 4,3 3,2 7,7 5,7 3,4 2,6 5,7 4,0 9,8 4,9 4,7 5,8 8,5 3,6 9,8 5,3 5,7 5,4 4,6 3,5 5,0 3,1 5,7 3,1 3,0 5,7 3,9 22. 1,6 0,3 0,4 0,3 0,4 2,2 0,0 0,2 1,4 0,8 2,0 0,7 1,6 0,0 0,3 0,1 0,2 1,0 1,0 0,1 2,2 0,9 0,1 3,3 0,9 2,3 1,7 2,7 0,7 1,3 1,0 0,3 3,6 2,3 0,7 0,6 1,0 0,1 1,5 1,2 0,8 0,5 0,7 0,7 2,3 0,4 1,1 1,1 0,7 0,2 1,2 2,4 5,0 2,2 0,9 1,2 1,6 1,1 1,5 1,0 23. 5,8 7,2 3,1 6,8 3,2 5,2 5,1 4,9 4,8 5,1 5,9 3,5 3,5 5,2 6,7 7,8 3,4 4,1 6,3 3,9 2,9 2,9 7,7 7,2 4,6 2,8 3,8 5,2 3,6 3,0 3,1 8,7 5,0 4,2 3,0 8,1 3,3 3,5 2,9 6,7 5,2 9,5 6,4 5,2 4,5 7,3 4,6 4,5 4,0 5,2 5,1 9,0 3,8 4,7 5,2 4,4 3,9 3,2 4,0 5,3 24. 5,3 3,4 3,3 4,0 6,4 6,0 3,4 2,8 3,3 4,9 6,0 3,0 2,7 2,8 4,4 4,3 3,0 4,1 4,3 5,0 2,6 3,0 4,4 4,5 5,3 2,9 3,4 7,2 3,9 2,6 2,7 6,7 4,3 3,9 2,6 5,6 4,4 3,1 2,5 4,4 3,4 4,3 3,6 3,8 5,7 2,9 3,1 7,5 4,2 4,4 7,8 3,7 3,1 3,9 6,1 4,6 6,5 3,5 4,4 4,9 25. 5,8 7,3 3,2 4,5 2,8 5,1 8,0 2,8 4,6 6,3 3,6 2,7 3,2 8,1 7,4 5,0 3,0 3,5 4,9 5,9 2,5 2,7 5,1 6,8 4,4 2,6 3,7 5,0 3,5 2,4 2,5 9,0 4,9 6,4 3,0 8,3 2,9 4,4 2,3 6,8 5,1 5,0 3,9 5,1 4,3 5,1 3,2 4,3 3,7 3,7 9,2 9,4 3,5 6,9 7,4 4,1 3,6 4,8 5,1 5,2 Задание 17. Для оценки вероятности появления дефектов были обследованы детали, выпускаемые некоторой производственной линией. Среди них было обнаружено k дефектных деталей. Построить доверительный интервал для истинной вероятности появления дефектной детали с доверительной вероятностью, равной 0,95. Параметры n и k выбрать по номеру варианта. 1. n = 64; k = 8 2. n = 49; k = 9 3. n = 64; k = 10 4. n = 100; k = 10 5. n = 81; k = 12 6. n = 49; k = 7 7. n = 100; k = 12 8. n = 81; k = 13 9. n = 64; k = 11 10. n = 81; k = 11 11. n = 100; k = 13 12. n = 81; k = 14 13. n = 64; k = 12 14. n = 100; k = 11 15. n = 100; k = 14 16. n = 81; k = 15 18. n = 100; k = 18 19. n = 100; k = 15 20. n = 64; k = 9 23. n = 100; k = 17 24. n = 81; k = 9 25. n = 100; k = 19 17. n = 81; k = 10 21. n = 100; k = 16 22. n = 49; k = 8 Тема 7. Проверка статистических гипотез Задание 18. По представленной в задании 16 выборке построить полигон и гистограмму. Подобрать подходящий теоретический закон распределения вероятностей и проверить гипотезу о соответствии эмпирического закона распределения выбранному теоретическому при уровне значимости α = 0,05. Задание 19. Используя данные таблицы задания 16, с помощью критерия квантилей проверить гипотезу о том, что медиана распределения равна эмпирическому математическому ожиданию. 179 Теория вероятностей и математическая статистика Задание 20. Предположим, что две первые строки таблицы задания 16 являются измерениями случайной величины X, а две последние – измерениями случайной величины Y. Проверить гипотезу о равенстве математических ожиданий величин X и Y. Тема 8. Дисперсионный анализ Задание 21. Сделано по 5 измерений случайной величины X на каждом из четырёх уровней фактора A. Полученные результаты представлены матрицей X (строки матрицы соответствуют уровням фактора, столбцы – номеру измерения). Методом дисперсионного анализа проверить гипотезу о том, что фактор A не влияет на математическое ожидание величины X. Уровень значимости α принять равным 0,05. Матрицу выбрать по номеру вырианта. 5  4 1. X =  7  9  3 8 6 5 7 8 2 6 9 3 4 4 3  4 6  6  4  7 2. X =  6  3  9 3 6 5 6 5 4 9 4 8 7 5 5  4 6  6  2  6 3. X =  9  4  6 7 5 4 2 3 2 9 4 5 9 8 6  8 6  7  3  7 4. X =  2  5  9 5 6 5 4 5 2 8 2 3 5 4 6  9 5  8  7  5 5. X =  5  8  5 4 7 5 2 6 6 3 9 6 4 9 4  9 3  5  4  2 6. X =  8  5  3 4 9 8 4 6 3 4 9 5 6 5 8  3 5  3  3  4 7. X =  5  8  2 5 4 6 2 7 3 7 9 3 1 4 1  2 4  5  3  7 8. X =  5  7  9 8 4 5 6 5 3 9 4 5 6 3 2  2 5  4  4  3 9. X =  2  9  3 5 6 5 7 8 2 7 9 3 4 6 4  6 3  5  9  4 10. X =  7  8  3 5 9 4 8 7 2 5 4 4 5 4 7  6 3  6  7  4 11. X =  3  4  9 7 6 5 3 5 2 9 5 2 5 4 2  4 6  6  2  4 12. X =  5  3  6 8 6 4 4 6 2 9 2 7 4 8 5  5 6  5  9  4 13. X =  8  9  3 7 6 5 6 5 2 4 9 3 5 4 2  4 6  6  7  7 14. X =  6  5  9 3 4 5 6 5 9 8 4 8 7 5 5  4 6  4  4  8 15. X =  9  4  6 7 5 3 2 6 2 9 4 5 9 8 5  8 6  7  4  7 16. X =  2  5  5 5 4 5 4 5 2 8 2 3 5 4 5  8 6  9  8  5 17. X =  5  7  5 4 6 5 8 6 6 2 9 6 4 9 4  7 8  5  5  3 18. X =  8  4  6 4 5 7 4 6 3 4 9 5 6 5 7  4 5  6  180 Практикум 8  4 19. X =  5  3  6 5 4 2 2 7 3 7 9 3 1 4 5  2 4  1  7  2 20. X =  5  7  3 8 3 5 5 8 9 6 4 5 6 3 6  3 5  4  6  3 21. X =  8  4  2 5 4 5 7 8 3 7 9 3 4 6 5  4 3  4  8  4 22. X =  7  9  4 5 9 3 8 7 2 9 3 4 5 4 6  7 8  6  9  4 23. X =  3  9  4 7 8 5 3 6 2 4 9 2 5 7 8  4 6  9  2  5 24. X =  6  6  6 8 9 4 8 9 2 9 2 7 4 8 7  5 6  8  7  4 25. X =  5  6  8 8 7 4 4 9 2 9 3 7 4 8 9  5 6  4  Задание 22. Фактор A имеет 4 уровня, фактор B – 5 уровней. Сделано по одному измерению случайной величины X на каждой комбинации уровней факторов. Полученные результаты представлены матрицей X (строки матрицы соответствуют уровням фактора A, столбцы – уровням фактору B). Методом дисперсионного анализа проверить гипотезу о том, что факторы A и B не влияют на математическое ожидание величины X. Предполагать, что взаимодействия между факторами нет. Уровень значимости α принять равным 0,05. Матрицу выбрать из задания 21 по номеру вырианта. Задание 23. Проверить гипотезу о влиянии факторов A, B, и C на исследуемую величину X, если все факторы имеют по четыре уровня, а измерения сделаны по плану эксперимента «латинский квадрат». Результаты измерений представлены матрицей X, исключая пятый столбец (строки матрицы соответствуют уровням фактора A, столбцы – уровням фактору B). Предполагать, что взаимодействия между факторами нет. Уровень значимости α принять равным 0,05. Матрицу выбрать из задания 21 по номеру вырианта (не забывая исключить пятый столбец). Тема 9. Регрессионный анализ Задание 24. При изучении зависимости между величиной Y и величиной X было получено 15 пар соответствующих значений этих величин. Аппроксимировать статистическую зависимость величины Y от X линейной функцией y = ax + b. Вычислить остаточную дисперсию и оценку коэффициента корреляции. Данные выбрать по номеру варианта. 1. X: –1,0 –0,8 –0,6 –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 Y: –2,1 –2,9 –3,5 –4,1 –4,2 –3,9 –3,7 –3,2 –1,3 0,2 1,5 3,4 5,3 5,7 7,5 2. X: –1,0 –0,8 –0,6 –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 Y: –1,2 –1,8 –2,7 –3,4 –3,6 –2,9 –2,4 –2,1 –0,4 1,1 2,8 4,6 6,5 6,4 8,3 181 Теория вероятностей и математическая статистика 3. X: –1,0 –0,8 –0,6 –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 Y: –0,1 –0,7 –1,4 –2,2 –2,3 –1,8 –1,6 –1,3 1,3 2,4 3,6 5,1 7,4 7,6 9,4 4. X: –1,0 –0,8 –0,6 –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 Y: –0,6 –1,5 –2,0 –2,7 –2,8 –2,4 –2,2 –1,7 0,2 1,7 3,1 4,8 6,8 7,4 9,1 5. X: –1,0 –0,8 –0,6 –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 Y: –0,1 –0,5 –1,1 –1,6 –1,9 –1,3 –1,2 –0,8 1,3 2,6 4,2 5,7 7,7 8,4 9,9 6. X: –0,5 –0,3 –0,1 0,1 0,3 0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Y: –0,1 –0,2 –0,8 –1,2 –1,4 –1,5 –1,3 –1,1 –0,7 –0,2 0,4 1,4 2,4 3,6 5,1 7. X: –0,5 –0,3 –0,1 0,1 0,3 0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Y: 0,9 0,7 0,2 –0,2 –0,5 –0,6 –0,4 –0,2 0,3 0,7 1,5 2,3 3,5 4,7 6,2 8. X: –0,5 –0,3 –0,1 0,1 0,3 0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Y: 1,8 1,7 1,1 0,7 0,5 0,4 0,6 0,9 1,4 1,8 2,4 3,4 4,6 5,8 7,1 9. X: –0,5 –0,3 –0,1 0,1 0,3 0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Y: 1,4 1,3 0,7 0,3 0,1 0,1 0,2 0,4 0,8 1,3 1,9 2,9 3,8 5,1 6,6 10. X: –0,5 –0,3 –0,1 0,1 0,3 0,5 0,7 0,9 1,1 1,3 1,5 1,7 1,9 2,1 2,3 Y: 2,3 2,2 1,8 1,2 1,1 1,2 1,3 1,5 1,7 2,4 3,0 4,1 4,9 6,3 7,8 11. X: –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 Y: 4,3 3,5 2,8 2,7 2,5 2,6 2,7 3,1 3,4 4,1 4,9 5,9 7,1 8,3 9,7 12. X: –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 Y: 5,2 4,6 3,8 3,6 3,4 3,5 3,8 4,0 4,5 5,2 5,8 7,1 8,2 9,3 10,8 13. X: –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 Y: 4,7 4,1 3,4 3,1 2,8 2,9 3,3 3,5 4,1 4,7 5,4 6,5 7,7 8,8 10,3 14. X: –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 Y: 6,1 5,5 4,8 4,7 4,5 4,6 4,7 5,1 5,5 6,2 6,7 8,0 9,1 10,1 11,6 15. X: –0,4 –0,2 0,0 0,2 0,4 0,6 0,8 1,0 1,2 1,4 1,6 1,8 2,0 2,2 2,4 Y: 5,8 4,9 4,3 4,2 4,1 4,0 4,3 3,6 4,9 5,4 6,3 7,5 8,6 9,2 11,2 16. X: 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 3,9 4,2 Y: 9,1 7,3 5,8 4,4 3,2 2,3 1,4 0,8 0,4 0,2 0,1 0,1 0,4 0,8 1,5 17. X: 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 3,9 4,2 Y: 9,9 8,2 6,9 5,3 4,1 3,1 2,3 1,7 1,3 1,1 1,0 0,9 1,4 1,8 2,6 18. X: 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 3,9 4,2 Y: 9,3 7,4 6,4 4,8 3,6 2,7 1,8 1,2 0,8 0,6 0,5 0,3 0,7 1,3 2,1 19. X: 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 3,9 4,2 Y: 10,2 8,3 7,4 4,7 4,5 3,6 2,9 2,4 1,8 1,5 1,4 1,2 1,8 2,4 3,3 20. X: 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 3,9 4,2 Y: 10,7 8,7 7,9 5,3 5,1 4,1 3,3 2,9 2,2 2,0 1,8 1,7 2,2 3,0 3,9 21. X: –0,6 –0,3 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 Y: 9,4 7,6 6,0 4,6 3,4 2,3 1,4 0,8 0,3 –0,1 –0,3 –0,2 0,1 0,4 1,0 22. X: –0,6 –0,3 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 Y: 9,8 7,9 6,4 5,1 3,9 2,7 1,8 1,2 0,7 0,3 0,1 0,2 0,5 0,8 1,4 23. X: –0,6 –0,3 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 Y: 10,4 8,4 6,9 5,7 4,5 3,2 2,3 1,8 1,2 0,9 0,6 0,8 1,1 1,4 1,9 24. X: –0,6 –0,3 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 Y: 10,8 8,9 7,5 6,1 5,1 3,8 2,8 2,3 1,7 1,4 0,9 1,3 1,7 1,9 2,4 182 Практикум X: –0,6 –0,3 0,0 0,3 0,6 0,9 1,2 1,5 1,8 2,1 2,4 2,7 3,0 3,3 3,6 Y: 11,3 9,4 8,1 6,6 5,6 4,4 3,3 2,8 2,3 1,9 1,3 1,8 2,2 2,5 3,0 25. Задание 25. Предполагая, что аппроксимацию задания 24 можно улучшить, аппроксимировать статистическую зависимость величины Y от X функцией y = ax2 + bx + c исходя из той же самой таблицы исходных данных. Вычислить остаточную дисперсию и оценку корреляционного отношения. Сравнить полученные результаты с результатами линейного анализа из задания 24. Задание 26. По представленным данным аппроксимировать статистическую зависимость величины Y от X и Z функцией y = ax + bz + c. Вычислить остаточную дисперсию, найти оценку обобщённого коэффициента корреляции. Значения аргументов X и Z представлены ниже: 1,2 2,1 1,2 3,5 1,3 2,6 1,4 1,3 1,5 2,2 1,6 1,8 1,7 1,5 1,8 1,9 2,1 1,4 2,2 2,5 2,3 1,7 2,4 2,1 2,6 1,6 2,6 1,5 2,7 2,3 Соответствующие значения функции Y выбрать по номеру варианта. 1. 2. 3. 4. 5. 6. 7. 8. 9. 10. 11. 12. 13. 14. 15. 16. 17. 18. 19. 20. 21. 22. 23. 24. 25. 1,1 1,4 0,9 1,0 0,9 5,7 5,9 6,3 6,2 5,7 4,9 5,1 4,8 5,2 4,5 3,8 4,0 4,5 4,7 4,4 2,7 3,1 2,8 2,6 3,4 5,9 4,9 5,6 5,4 5,8 7,5 7,1 7,7 7,2 7,2 7,6 7,5 7,7 7,6 7,3 5,3 5,3 5,5 5,4 5,3 1,7 1,9 1,6 1,5 1,8 3,4 2,8 2,6 3,4 3,2 6,3 6,8 6,6 6,8 7,0 5,9 6,2 6,1 6,1 5,9 4,5 4,7 4,6 4,6 5,4 3,2 2,7 2,9 3,1 2,6 –1,1 –0,8 –0,5 –0,9 –0,5 5, 8 5,5 5,9 6,0 5,9 3,5 3,6 3,6 3,9 3,1 4,2 4,4 3,8 3,7 4,4 4,4 4,2 4,6 4,2 4,1 2,2 2,3 2,2 2,4 1,8 6,6 7,1 6,4 6,3 6,2 5,3 5,8 5,6 5,7 5,8 5,5 5,0 5,8 4,8 4,9 4,1 3,9 3,6 4,3 3,9 1,2 0,8 1,1 1,2 0,7 6,7 6,0 6,5 6,9 6,8 4,9 5,0 4,6 4,4 5,2 5,1 5,2 4,8 4,7 5,6 4,9 4,4 4,0 4,7 4,8 0,4 0,2 0,5 0,5 0,1 6,7 6,6 6,4 6,5 6,8 4,6 4,7 4,4 4,2 4,4 5,3 5,6 4,8 4,9 4,9 4,9 5,0 5,1 4,8 4,7 1,8 1,8 2,0 1,8 1,6 6,9 7,5 7,0 7,3 7,0 4,6 5,4 5,1 4,8 4,7 5,8 5,3 5,9 6,0 5,9 4,8 4,6 4,5 5,3 4,7 0,5 0,7 0,4 0,6 1,1 7,2 7,0 6,8 7,4 7,3 4,8 4,0 4,4 4,0 4,2 6,1 6,0 6,7 6,4 5,9 6,6 6,8 6,0 6,0 6,6 4,4 4,2 4,8 3,9 4,9 8,0 8,5 8,7 8,4 8,9 6,9 6,2 6,5 7,0 6,9 7,9 8,0 7,7 7,4 7,9 5,4 5,9 5,7 5,2 5,9 2,1 2,2 2,1 2,1 2,2 7,4 8,1 7,5 7,4 8,2 5,5 5,0 5,2 4,7 4,9 7,2 6,6 7,4 7,1 6,7 6,8 6,9 7,1 6,3 7,2 3,6 3,4 3,9 3,3 3,9 8,2 8,1 8,0 8,1 8,4 5,7 6,5 5,7 6,6 6,5 8,2 8,0 7,3 8,0 7,9 6,1 7,0 6,4 6,8 6,2 3,0 2,4 2,3 2,0 2,5 7,9 8,0 8,3 8,7 7,9 5,8 5,0 5,3 5,5 5,1 8,1 7,9 8,3 7,8 8,2 8,0 7,3 7,4 7,9 7,8 1,9 2,4 2,3 2,4 1,9 8,3 7,8 8,1 7,8 8,1 5,0 4,6 4,8 4,6 5,5 7,7 8,0 7,4 7,9 7,3 7,7 7,6 7,4 7,4 7,8 4,7 5,2 4,4 5,1 5,3 9,2 8,8 9,3 9,7 9,2 7,1 7,1 6,3 6,6 6,4 8,6 8,6 8,6 9,3 8,9 7,7 7,4 7,7 7,7 7,0 183 Теория вероятностей и математическая статистика 4. Пример выполнения типового расчёта Тема 1. Случайные события Задание 1. Судно имеет одно рулевое устройство, четыре котла и две турбины. Событие A означает исправность рулевого устройства, Bk (k = 1, 2, 3, 4) – исправность k-го котла, а Cj (j = 1, 2) – исправность j-ой турбины. Событие D – судно управляемое, что будет в том случае, когда исправны рулевое устройство, хотя бы один котёл и хотя бы одна турбина. Выразить события D и D через события A, Bk и Cj. Решение. Пусть событие E означает исправность хотя бы одного котла, а событие F – исправность хотя бы одной турбины. Тогда, в соответствии с определением операции суммы событий, можно записать: E = B1 + B2 + B3 + B4 и F = C1 + C2. С другой стороны, событие D происходит тогда и только тогда, когда происходят и A и E и F одновременно, что соответствует произведению этих событий, а событие D выполняется тогда и только тогда, когда не происходит хотя бы одно из этих событий, что соответствует сумме противоположных событий. Таким образом, D = A⋅E⋅F и D = A + E + F Учитывая, что E = B1 ⋅ B 2 ⋅ B3 ⋅ B 4 и F = C1 ⋅ C 2 , получим окончательно: D = A⋅(B1 + B2 + B3 + B4)⋅(C1 + C2), D = A + B1 ⋅ B 2 ⋅ B3 ⋅ B 4 + C1 ⋅ C 2 . Задание 2. На восьми одинаковых карточках написаны соответственно числа 2, 4, 6, 7, 8, 11, 12 и 13. Наугад берутся две карточки. Определить вероятность того, что образованная из двух полученных чисел дробь сократима. Решение. Пусть A – событие, состоящее в том, что полученная дробь сократима. N Воспользуемся классическим определением вероятности: P( A ) = A , где N – общее число N исходов опыта, а NA – число исходов, которые приводят к осуществлению события A. Так как порядок извлечения карточек в данном случае не имеет значения (например, 2, 7 и 7, 2 являются неразличимыми комбинациями по условиям опыта), то подсчёт числа исходов опыта делается по формуле для числа сочетаний. Дробь будет сократимой, если два полученных числа принадлежат множеству из 5 чисел (2, 4, 6, 8, 12), которые имеют хотя бы один общий делитель. Числа 7, 11, 13 являются простыми, и их появление среди выбранных двух не приведёт к осуществлению A. Таким образом, N = C82 = 10 5 8! 7 ⋅8 5! = . = = 28 ; N A = C 52 = = 10 ; P ( A) = 6!⋅2! 2 3!⋅2! 28 14 Задание 3. На отрезке AB длиной d наудачу поставлены две точки L и M. Найти вероятность того, что точка L будет ближе к точке M, чем к точке A. d A L M B x1 x2 dB Рис. 1. Иллюстрация к заданию 3 184 Dc x2 x2 = 2x1 x1 d Практикум Решение. Пусть x1 и x2 есть соответственно координаты точек L и M на числовой оси, при условии, что точка A отрезка совмещена с началом отсчёта (рис. 1). Тогда область D возможных исходов опыта будет определяться следующими неравенствами: 0 ≤ x1 ≤ d и 0 ≤ x2 ≤ d. Если по оси абсцисс будем откладывать x1, а по оси ординат – x2, то эта область будет представлять собой квадрат со стороной d. Пусть C – событие, состоящее в том, что точка L будет ближе к точке M, чем к точке A. Область DC значений x1 и x2, которые приводят к осуществлению события C, определяется неравенством: x1 − x 2 < x1 , или − x1 < x1 − x 2 < x1 . Из этих неравенств находим границы области DC, полагая x1 – x2 = –x1 и x1 – x2 = x1. Эти уравнения определяют прямые линии x2 = 2x1 и x2 = 0, вторая из которых совпадает с осью абсцисс. Таким образом, событие C осуществится, если 0 < x2 < 2x1. Воспользуемся геометрическим определением вероятности события. В данном случае мерой множества исходов опыта является площади соответствующих областей. Очевидно, что площадь области D равна d2, а площадь области DC составляет величину 0,75d2. Следовательно, P (C ) = mes( DC ) 0,75d 2 = = 0,75 . mes( D ) d2 Заметим, что возможно x1 < x2 или x2 < x1. Это не имеет значения, так как в любом случае расстояние между точками равно модулю разности этих координат. Задание 4. Двое поочерёдно стреляют по мишени до первого попадания, причём имеется всего 6 пуль. Вероятность попадания в мишень для первого стрелка равна 0,3, для второго – 0,4. Определить вероятность того, что: а) мишень будет поражена первым стрелком; б) мишень будет поражена вторым стрелком; с) мишень не будет поражена. Решение. Пусть A – событие, состоящее в том, что мишень будет поражена первым стрелком, B – мишень поражена вторым стрелком, C – мишень не будет поражена. Введём дополнительно следующие события: Ak – первый стрелок попадёт при своём k-ом выстреле, Bk – второй стрелок попадёт при k-ом выстреле, k = 1, 2, 3 (так как всего можно сделать не более 6 выстрелов). Событие A может произойти в трёх возможных ситуациях: или A1, или A1 ⋅ B1 ⋅ A2 , или A1 ⋅ B1 ⋅ A2 ⋅ B 2 ⋅ A3 . Это означает, что первый стрелок может поразить мишень или первым выстрелом, или вторым, или третьим. Таким образом, A = A1 + A1 ⋅ B1 ⋅ A2 + A1 ⋅ B1 ⋅ A2 ⋅ B2 ⋅ A3 . Слагаемые в этой сумме являются несовместными событиями. Поэтому P ( A) = P( A1 ) + P( A1 ⋅ B1 ⋅ A2 ) + P( A1 ⋅ B1 ⋅ A2 ⋅ B2 ⋅ A3 ) . Вероятность произведения событий в этом выражении равна произведению вероятностей перемножаемых событий, так как результат каждого выстрела не зависит от того, что произошло при других выстрелах. Учитывая, что P(Ak) = 0,3, P(Bk) = 0,4, P ( Ak ) = 0,7, P( Bk ) = 0,6 , (k = 1, 2, 3), получим: P ( A) = P ( A1 ) + P ( A1 ) P( B1 ) P ( A2 ) + P( A1 ) P( B1 ) P( A2 ) P( B2 ) P( A3 ) = = 0,3 ⋅ [1 + 0,7 ⋅ 0,6 ⋅ [1 + 0,7 ⋅ 0,6]] = 0,3 ⋅ [1 + 0,42 ⋅ 1,42] ≈ 0,479. Второй стрелок также может поразить мишень или при первом, или при втором, или при третьем выстреле. Однако он имеет право на очередной выстрел тогда, когда все предыдущие выстрелы были неудачными. Рассуждения, подобные изложенным выше, приводят к следующему результату: P ( B) = P( A1 ) P( B1 ) + P ( A1 ) P( B1 ) P( A2 ) P( B2 ) + ( A1 ) P( B1 ) P( A2 ) P( B2 ) P( A3 ) P( B3 ) = = 0,7 ⋅ 0,4[1 + 0,7 ⋅ 0,6[1 + 0,7 ⋅ 0,6]] = 0,28[1 + 0,42 ⋅ 1,42] ≈ 0,447. 185 Теория вероятностей и математическая статистика Наконец, очевидно, что C = A1 ⋅ B1 ⋅ A2 ⋅ B 2 ⋅ A3 ⋅ B3 , т.е. все 6 выстрелов были неудачными. Тогда P (C ) = P ( A1 ) P( B1 ) P( A2 ) P( B2 ) P( A3 ) P( B3 ) = [0,7 ⋅ 0,6]3 ≈ 0.074. Заметим, что события A, B, и C являются несовместными и составляют полную группу, т.е. P(A) + P(B) + P(C) = 1. Этим можно было воспользоваться при вычислении P(C). Задание 5. Вероятности попадания при каждом выстреле для трёх стрелков равны 4 3 2 соответственно , , . При одновременном выстреле всех трёх стреков имелось два по5 4 3 падания. Определить вероятность того, что промахнулся третий стрелок. Решение. Пусть A – событие, состоящее в том, что было два попадания, событие B – первый стрелок попал в цель, событие C – второй стрелок попал в цель. Событие A может произойти при двух предположениях: третий стрелок попал в цель – гипотеза H1 или третий стрелок промахнулся – гипотеза H2. Априорные вероятности (до опыта) этих гипотез известны: P ( H 1 ) = 2 1 2 и P ( H 2 ) = 1 − = . Если верна гипотеза H1, то событие A мо3 3 3 жет произойти только тогда, когда один из двух других стрелков промахнётся. Если же верна гипотеза H2, то событие A произойдёт лишь в том случае, когда будет попадание у первого и второго стрелков. Следовательно, P( A H 1 ) = P( BC + B C ) = P( BC ) + P( B C ) = P( B) P(C ) + P( B ) P(C ), P( A H 1 ) = P( BC ) = P( B) P(C ), так как события BC и B C несовместны, а события A и B являются статистически не зависимыми. Воспользуемся исходными данными, получим: 4 3 12 4 3 7 3 4 , P( A H 2 ) = ⋅ = . P( A H 1 ) = (1 − ) + (1 − ) = 5 4 20 5 4 20 4 5 Вычислим P(A) по формуле полной вероятности: P ( A) = P( A H 1 ) P( H 1 ) + P( A H 2 ) P( H 2 ) = Наконец, вычислим искомую вероятность P ( H 2 P ( H 2 A) = P( A H 2 ) P( H 2 ) P( A) = 7 2 12 1 13 ⋅ + ⋅ = . 20 3 20 3 30 A) : 12 1 30 6 ⋅ ⋅ = . 20 3 13 13 Заметим, что эту задачу можно решить другим образом. Так как было только два попадания, то кто-то один промахнулся. Это может быть первый стрелок – гипотеза H1, второй – гипотеза H2 или третий – гипотеза H3. Рекомендуется разобрать эту задачу, исходя из указанных гипотез. Естественно, ответ должен получиться тот же самый. Задание 6. Проводится 6 испытаний, в каждом из которых событие A может произойти с одной и той же вероятностью p = 0,4. Найти вероятность того, что в этих испытаниях событие A произойдет два раза и вероятность того, что событие A произойдет хотя бы два раза. Определить, сколько раз нужно провести испытание, чтобы с вероятностью, не меньшей, чем 0,98, событие произошло хотя бы один раз. Решение. Пусть B – событие, состоящее в том, что A произошло два раза, событие C – A произойдет хотя бы два раза. Очевидно, имеет место схема независимых последовательных испытаний при n = 6, p = 0,4, q = 0,6. Тогда вероятность события B определяется непосредственно формулой Бернулли 186 Практикум P ( B) = P{k = 2} = p n (2) = C 62 p 2 q 4 = 6! ⋅ 0,4 2 ⋅ 0,6 4 = 15 ⋅ 0,16 ⋅ 0,1296 ≈ 0,311 . 2!⋅4! Вероятность события C удобнее, очевидно, вычислять через вероятность противоположного события: P (C ) = 1 − P (C ) = 1 − P{k < 2} = 1 − P{k = 0} − P{k = 1} = 1 − C 60 p 0 q 6 − C 61 p 1 q 5 = = 1 − 0,6 6 − 6 ⋅ 0,4 ⋅ 0,6 5 ≈ 1 − 0,047 − 0,187 = 0,766. Для ответа на последний вопрос задачи достаточно воспользоваться известной формулой: n≥ ln(1 − P ) ln(1 − p ) = ln(1 − 0,98) ln(1 − 0,4) = ln(0,02) ln(0,6) ≈ − 3,912 − 0,511 ≈ 7,656 . Так как n должно быть целым числом, то следует взять n = 8. Таким образом, если испытание провести 8 раз, то с вероятностью P = 0,98 событие A произойдёт хотя бы один раз. Тема 2. Случайные величины Задание 7. Задан закон распределения дискретной случайной величины X. Найти математическое ожидание, дисперсию, среднее квадратическое отклонение. Построить график функции распределения вероятностей случайной величины. x p 9,2 0,1 9,8 0,2 10,2 0,4 10,8 0,2 11,6 0,1 Решение. Найдём сначала начальные моменты νk случайной величины X: n ν 1 = ∑ xi ⋅ pi = 9,2 ⋅ 0,1 + 9,8 ⋅ 0,2 + 10,2 ⋅ 0,4 + 10,8 ⋅ 0,2 + 11,6 ⋅ 0,1 = 10,28; i =1 n ν 2 = ∑ xi2 ⋅ pi = 9,2 2 ⋅ 0,1 + 9,8 2 ⋅ 0,2 + 10,2 2 ⋅ 0,4 + 10,8 2 ⋅ 0,2 + 11,6 2 ⋅ 0,1 = 106,072. i =1 Таким образом, математическое ожидание равно mx = ν1 = 10,28. Дисперсию определим через начальные моменты: Dx = ν2 – ν12 = 106,072 –10.282 = 106,072 – 105,6784 = 0,3936. Среднее квадратическое отклонение равно: σ x = D x = 0,3936 ≈ 0,627 . График функции распределения вероятностей дискретной случайной величины X имеет горизонтальные участки между точками её возможных значений. Изменение значения функции происходит скачком в точках возможных значений. График функции представлен на рис. 2. 1 0 , при x ≤ 9 ,2 , 0 ,1, при 9 ,2 < x ≤ 9 ,8,  0 ,3 , при 9 ,8 < x ≤ 10 ,2 , F( x ) =  0 ,7 , при 10 ,2 < x ≤ 10 ,8, 0 ,9 , при 10 ,8 < x ≤ 11,6 ,  1,0 , при x ≥ 11,6. Аналитическое выражение функции распределения вероятностей. 0 9,2 9,8 10,2 10,8 11,6 Рис. 2. График функции распределения вероятностей 187 Теория вероятностей и математическая статистика Задание 8. Непрерывная случайная величина Х задана плотностью распределения вероятностей. Требуется: А) найти функцию распределения вероятностей; Б) найти математическое ожидание, дисперсию, среднее квадратическое отклонение; скошенность и эксцесс распределения; вероятность того, что случайная величина отклонится от своего математического ожидания не более, чем на 0,5; В) построить графики функций распределения и плотности распределения вероятностей. 0 f ( x) =  - 2x  4x ⋅ e при x ≤ 0, при x > 0. Решение. Найдём функцию распределения F(x). Если x ≤ 0, то f(t) = 0 для t∈(–∞; x). Следовательно, x F ( x) = ∫ x f (t )dt = −∞ ∫ 0 ⋅ dt = 0. −∞ Если x > 0, то x F ( x) = −z u=z x −∞ ∫ f (t )dt = ∫ 0 ⋅ dt + ∫ 4t ⋅ e −∞ = dv = e dz du = dz v = −e = −z ⋅ e−z −z 2x − 2t 2x dt = z = 2t , dz = 2dt = ∫ z ⋅ e − z dz = 2x + ∫ e − z dz = −2 x ⋅ e − 2 x − e − 2 z 2x = 1 − (1 + 2 x)e − 2 x . Здесь сначала сделана замена переменной, затем применён метод интегрирования по частям. Таким образом, 0 F ( x) =  -2 x  1 - (1 + 2 x) ⋅ e при x ≤ 0, при x > 0. Найдём начальные моменты случайной величины: νk = ∞ ∫x ∞ k −∞ f ( x)dx = ∫ x ⋅ 4 x ⋅ e k −2 x 1 dx = z = 2 x, dz = 2dx = k 2 ∞ ∫z k +1 ⋅ e − z dz = (k + 1)! . 2k Последний интеграл берётся путём последовательного интегрирования по частям (k + 1) раз. Значение этого интеграла можно также найти в справочниках по определённым интегралам. Таким образом, ν 1 = 1, ν 2 = 3 15 , ν 3 = 3, ν 4 = . 2 2 Вычислим центральные моменты (заметим, что µ1 = 0 всегда): 3 1 3 1 − 1 = , µ 3 = ν 3 − 3ν 2 ν 12 + 2ν 13 = 3 − 3 ⋅ + 2 = , 2 2 2 2 15 3 3 µ 4 = ν 4 − 4ν 3 ν 1 + 6ν 2 ν 12 − 3ν 14 = − 4 ⋅ 3 + 6 ⋅ − 3 = . 2 2 2 µ 2 = ν 2 − ν 12 = Теперь можно определить все числовые характеристики: математическое ожида1 ; среднее квадратическое отклонение ние mx = ν1 = 1; дисперсия Dx = µ2 = 2 σ = Dx = 1 2 ; µ 3  1   Ex x = 44 − 3 = ⋅  2  2  σ 188 скошенность −4 − 3 = 3. Sk x = µ3 1  1  = ⋅  σ3 2  2  −3 = 2; эксцесс Практикум { } В пункте Б) требуется найти вероятность P X − m x ≤ 0,5 . Преобразуем неравенство, стоящее под символом вероятности: P{ X − m x ≤ 0,5} = P{− 0,5 ≤ X − m x ≤ 0,5} = P{m x − 0,5 ≤ X ≤ m x + 0,5}. Подставляя сюда mx = 1 и применяя свойство функции распределения вероятностей, получим: P{0,5 ≤ X ≤ 1,5} = F (1,5) − F (0,5) = 1 − (1 + 2 ⋅ 1,5) ⋅ e −2⋅1.5 − [1 − (1 + 2 ⋅ 0,5) ⋅ e −2⋅0.5 ] = = 2 ⋅ e −1 − 4 ⋅ e −3 ≈ 2 ⋅ 0,368 − 4 ⋅ 0,05 = 0,536. 0.9 f(x) 1 F(x) 0.6 0.5 0.3 x 1 2 3 x 1 2 3 Рис. 3. Графики плотности и функции распределения вероятностей Графики плотности и функции распределения вероятностей можно строить по отдельным точкам, проводя через эти точки плавную кривую. Процесс построения графиков не отличается от обычного процесса, применяемого по отношению к любой функции при её исследовании. Графики представлены на рис. 3. Рассмотренное распределение является распределением Эрланга второго порядка. Тема 3. Многомерные случайные величины Задание 9. Закон распределения дискретной двухмерной случайной величины (X, Y) представлен следующей таблицей: yj 1 3 5 8 9 7 0,04 0,04 0,03 0,03 0,05 9 0,04 0,07 0,06 0,05 0,03 11 0,01 0,08 0,09 0,08 0,05 13 0,03 0,04 0,04 0,06 0,08 xi Определить одномерные законы распределения случайных величин X и Y. Найти условные плотности распределения вероятностей величин P(xiy2) и P(ykx1). Вычислить математические ожидания mx и my, дисперсии Dx и Dy, ковариационный момент Kxy и коэффициент корреляции rxy. Решение. Складывая элементы строк, плучим одномерное распределение величины X, складывая элементы столбцов, плучим одномерное распределение для величины Y: xi p i* 7 0,19 9 0,25 11 0,31 13 0,25 yj p *k 1 0,12 3 0,23 5 0,22 8 0,22 9 0,21 189 Теория вероятностей и математическая статистика Поделив элементы второго столбца на их сумму, получим условный закон распределения P(xiy2), а поделив элементы первой строки на их сумму, получим условный закон распределения P(ykx1): xi P(x i y 2 ) 7 4/23 9 7/23 11 8/23 yj P(y k x 1 ) 13 4/23 1 4/19 3 4/19 5 3/19 8 3/19 9 5/19 Найдём математические ожидания и дисперсии, исходя из одномерных законов распределения: mx = 7·0,19 + 9·0,25 + 11·0,31 + 13·0,25 = 10,24; my = 1·0,12 + 3·0,23 + 5·0,22 + 8·0,22 + 9·0,21 = 5,56; M{X2} = 49·0,19 + 81·0,25 + 121·0,31 + 169·0,25 = 109,32; Dx = 109,32 – (10,24)2 = 4,462; M{Y2} = 1·0,12 + 9·0,23 + 25·0,22 + 64·0,22 + 81·0,21 = 38,78; Dy = 38,78 – (5,56)2 = 7,866. Извлекая корни, получим: σx = 2,112, σy = 2,805. Корреляционный момент вычисляется по двухмерному закону распределения. Вычислим сначала начальный смешанный момент второго порядка: M{XY} = 7(1·0,04 + 3·0,04 + 5·0,03 + 8·0,03 + 9·0,05) + 9(1·0,04 + 3·0,07 + 5·0,06 + 8·0,05 + 9·0,03) + 11(1·0,01 + 3·0,08 + 5·0,09 + 8·0,08 + 9·0,05) + 13(1·0,03 + 3·0,04 + 5·0,04 + 8·0,06 + 9·0,08) = 57,82. Тогда Kxy = M{XY}– mx my = 57,82–10,24·5,56 = 0,886. Таким образом, rxy2 = Kxy/(σxσy) = 0,15. Извлекая корень, получим: rxy = 0,387. Задание 10. Двухмерная случайная величина (X, Y) распределена равномерно в треугольнике, ограниченном прямыми x = 0, y = 0, 4x + 5y = 20. Найти одномерные плотности распределения вероятностей и условные плотности распределения. Вычислить математические ожидания mx и my, дисперсии Dx и Dy, ковариационный момент Kxy и коэффициент корреляции rxy. Решение. Площадь треугольника равна 10, следовательно f(x, y) = 1/10 внутри треугольника и f(x, y) = 0 вне треугольника. Найдём одномерные плотности распределения вероятностей: ∞ ( 20 − 4 x ) / 5 −∞ f X ( x) = ∫ f ( x, y)dy = ∫ 1 1 20 − 4 x 20 − 4 x 10 − 2 x . dy = ⋅ = = 10 10 5 50 25 Аналогично, f Y ( x) = ∞ ( 20 −5 y ) / 4 −∞ ∫ f ( x, y)dx = ∫ 1 1 20 − 5 y 20 − 5 y 4 − y . dy = ⋅ = = 10 10 4 40 8 Найдём начальные моменты: ν kx ∞ 5 10 − 2 x 1 10 x k +1 2 x k + 2 1 10 ⋅ 5 k +1 2 ⋅ 5 k + 2 = ∫ x f X ( x)dx = ∫ x dx = ⋅( − ⋅( − ) = ). k + k + k + k + 25 25 1 2 25 1 2 −∞ 5 k k Аналогично находим: ν ky = 1 4 ⋅ 4 k +1 4 k + 2 ⋅( − ). Полагая k = 1, найдём математиче8 k +1 k + 2 ские ожидания: mx = 5/3, my = 4/3. При k = 2, получим: ν2x = 25/6, ν2y = 8/3. Следовательно, Dx = 25/6 – (5/3)2 = 25/18, Dy = 8/3 – (4/3)2 = 8/9. Запишем условные плотности распределения: f ( x y) = 190 f ( x, y ) 1 8 4 f ( x, y ) 1 25 5 = ⋅ = = ⋅ = ; f ( y x) = . f Y ( y ) 10 4 − y 20 − 5 y f X ( x) 10 10 − 2 x 20 − 4 x Практикум Найдём смешанный начальный момент второго порядка: ∞ ∞ 5 1 ν 11 = ∫ ∫ xyf ( x, y )dxdy = ∫ xdx 10 0 − ∞− ∞ ( 20 − 4 x ) / 5 5 1 x(20 − 4 x) 2 10000 1 2 1 5 ∫0 ydy = 10 ∫0 50 dx = 500 ⋅ ( 2 − 3 + 4 ) = 3 . Таким образом, Kxy = ν11 – mx my = 5/3 – (5/3)(4/3) = –5/9. Тогда rxy = K xy σxσ y =− 5 1 =− . 2 9 ⋅ (25 / 18) ⋅ (8 / 9) Тема 4. Функциональные преобразования случайных величин Задание 11. Дискретная величина X задана таблично: xi –4 –3 –2 –1 1 2 3 4 5 pi 0,02 0,03 0,05 0,1 0,15 0,3 0,15 0,1 0,05 0,05 Записать в виде таблицы закон распределения заданной функции. Найти математическое ожидание функции Y = 8 – 2X + 1. Решение. Найдём сначала все возможные значения функции и внесём их в заготовленную таблицу: yk –4 –2 2 4 6 8 pk 0,05 0,05 0,1 0,17 0,33 0,2 0,1 Вероятности подсчитываются следующим образом. Значение 4 функция принимает только при x = 5. Тогда вероятность этого значения равна 0,05. Значение 4 функция принимает при x = –3 и при x = 1. Тогда вероятность этого значения равна 0,03 + 0,3 = 0,33 и т.д. Математическое ожидание вычисляется как обычно: my = 3,36. Задание 12. Математические ожидания и дисперсии статистически независимых величин X и Y равны mx = 10, Dx = 8 и my = –5, Dy = 12. Вычислить математическое ожидание и дисперсию функции Z = 2XY – 9. Решение. Вычислим математическое ожидание. Так как величины статистически независимы, то математическое ожидание произведения равно произведению математических ожиданий: mz = M{2XY – 9} = 2· M{XY} – 9 = 2·10·(–5) – 9 = –109. Для вычисления дисперсии воспользуемся второй теоремой о дисперсиях: D{Z } = D{2 XY − 9} = 4 D{ XY } = 4[ D x D y + m x2 D y + m y2 D x ] = 4[8 ⋅ 12 + 100 ⋅ 12 + 25 ⋅ 8] = 1496. Тема 5. Закон больших чисел Задание 13. Дисперсия случайной величины X равна σ2 = 3,5. С помощью неравенства Чебышева оценить вероятность того, что случайная величина отклонится от своего математического ожидания не более чем на величину ε = 2,5. Решение. Пользуемся неравенством Чебышева: P{ X − m x < ε} > 1 − σ2 3,5 2,75 = 1− = = 0,44. 2 2 6,25 ε (2,5) Задание 14. Для случайной величины из задания 13 оценивается математическое ожидание. Сколько нужно сделать измерений, чтобы с вероятностью не меньшей 0,95, 191 Теория вероятностей и математическая статистика среднее арифметическое этих измерений отклонилось от истинного математического ожидания не более чем на величину ε? Решение. Если дисперсия величины X равна σ2, то дисперсия среднего арифметического n её измерений будет равна σ2/n. Воспользуемся неравенством Чебышева для среднего арифметического измерений m*: P{ m * − m x < ε} > 1 − вию задачи должно выполняться неравенство 1 − σ2 3,5 = 1− . По усло2 nε n(2,5) 2 3,5 ≥ 0,95. Отсюда находим: n(2,5) 2 3,5 3,5 ≤ 0,05 ⇒ n ≥ = 11,2. Число измерений должно быть целым, поэтому бе2 0,05 ⋅ 6,25 n(2,5) рём n = 12. Задание 15. Для оценки процента дефектных деталей обследуются на наличие дефектов n деталей. С помощью неравенства Чебышева оценить вероятность того, что доля дефектных деталей k/n отклонится от истинной вероятности дефектной детали не более чем на величину ε. Решить задачу для n = 81 и ε = 0,1. Решение. Запмшем неравенство Чебышева по отношению к доле дефектных деталей p* = k/n: P{ p * − p < ε} > 1 − pq . Так как истинная вероятность p появления дефектnε 2 ной детали неизвестна, заменим произведение pq его наибольшим значением (при 0 ≤ p ≤ ≤ 1), равным 0,25: P{ p * − p < 0,1} > 1 − 0,25 ≈ 0,69. 81 ⋅ 0,12 Тема 6. Статистическая обработка экспериментальных данных. Оценка параметров Задание 16. Подобное задание подробно рассмотрено в учебном пособии. Задание 17. Для оценки вероятности появления дефектных деталей, выпускаемых некоторой производственной линией, было обследовано n деталей. Среди обследованных деталей было обнаружено k дефектных деталей. Построить доверительный интервал для истинной вероятности появления дефектной детали с доверительной вероятностью, равной 0,95. Решить задачу при n = 121 и k = 20. Решение. Запишем доверительный интервал для вероятности события:  p ∈  p * − ε γ  pq * ; p + εγ n pq   с вероятностью γ. В данном случае p* = 20/121 ≈ n  ≈ 0,165. По таблицам нормального распределения по заданной доверительной вероятности γ = 0,95 находим: εγ = 1,96. Найдём доверительный интервал двумя способами. Первый способ. Вместо неизвестной вероятности появления дефектной детали  0,165 ⋅ (1 − 0,165) 0,165 ⋅ (1 − 0,165)  . p ∈  0,165 − 1,96 ; 0,165 + 1,96  121 121   Вычисляя, получим: p ∈ (0,165 − 0,066; 0,165 + 0,066 ) . Или p ∈ (0,099; 0,231) с вероятноподставим её оценку: стью, приближённо равной 0,95. Второй способ. Вместо неизвестного произведения pq подставим его наибольшее    значение (при 0 ≤ p ≤ 1), равное 0,25: p ∈  0,165 − 1,96 192 0,25 0,25   . Вычисляя, ; 0,165 + 1,96 121 121  Практикум получим: p ∈ (0,165 − 0,089; 0,165 + 0,089 ) . Или p ∈ (0,076; 0,254 ) с вероятностью не меньшей чем 0,95. Второй способ надёжнее, хотя он даёт более широкий интервал. Тема 7. Проверка статистических гипотез Задание 18. Подобное задание подробно рассмотрено в учебном пособии. Задание 19. Используя данные таблицы задания, проверить гипотезу о том, что медиана распределения ческому ожиданию. 1,4 1,8 2,4 2,6 4,9 2,2 1,3 0,1 0,0 2,8 0,3 2,2 0,9 3,1 0,1 0,3 0,8 3,3 3,4 4,7 0,5 0,5 4,2 3,7 4,8 1,6 1,5 9,6 4,0 0,3 0,7 7,3 2,5 2,1 2,7 0,3 1,7 0,4 0,3 1,3 2,8 0,6 1,4 0,8 1,1 0,9 0,4 1,2 с помощью критерия квантилей равна эмпирическому математи0,8 0,1 0,9 0,2 3,2 0,4 4,9 0,1 8,2 1,1 0,2 0,7 Решение. Сложив все элементы выборки и поделив на число измерений 60, получим оценку математического ожидания m* = 1,99. Найдём число элементов, которое меньше математического ожидания: k = 37. Для медианы p = 0,5. Следовательно, t= k − np npq = 37 − 60 ⋅ 0,5 60 ⋅ 0,5 ⋅ 0,5 = 7 ≈ 1,807. При уровне значимости α = 0,05 по нормальному 3,873 распределению найдём критическое значение tα = 1,96. Так как t < tα, то гипотезу о равенстве медианы и математического ожидания можно принять. Задание 20. Подобное задание подробно рассмотрено в учебном пособии. Тема 8. Дисперсионный анализ Задание 21. Сделано по 5 измерений случайной величины X на каждом из четырёх уровней фактора A. Полученные результаты представлены матрицей X (строки матрицы соответствуют уровням фактора, столбцы – номеру измерения). Методом дисперсионного анализа проверить гипотезу о том, что фактор A не влияет на математическое ожидание величины X. Уровень значимости α принять равным 0,05. 7  5 X = 4  8  6 7 3 9 4 8 4 7 3 8 6 8 9  9 . 5  6  Решение. Все вычисления удобно проводить в специальной таблице. Внесём в неё исходные данные, вычислим оценки математическиз ожиданий на каждом уровне фактора, вычислим квадраты измерений и квадраты оценок математических ожиданий. Оценки вычисляются по формуле mi* = 1 5 ∑ xij , общая сумма квадратов измерений пред5 j =1 ставлена в последней клетке последней строки. Оценка общего математического ожидания m * = 1 4 5 1 4 * x = mi = 6,3, m *2 = 39,69. Сумма квадратов оценок по уровням ∑∑ ∑ ij 20 i =1 j =1 4 i =1 фактора равна 33,64 + 54,76 + 19,36 + 57,76 = 165,52. 193 Теория вероятностей и математическая статистика Ai A1 A2 A3 A4 7 5 4 8 6 7 3 9 xij 4 8 4 7 Σ 3 8 6 8 mi* 5,8 7,4 4,4 7,6 9 9 5 6 49 25 16 64 154 36 49 9 81 175 xij2 16 64 16 49 145 9 64 36 64 173 81 81 25 36 223 mi*2 33,64 54,76 19,36 57,76 870 Таким образом, k n Q = ∑∑ xij2 − n ⋅ k ⋅ m *2 = 870 − 5 ⋅ 4 ⋅ 39,69 = 76,2, i =1 j =1 k Q1 = n(∑ mi*+2 − k ⋅ m *2 ) = 5 ⋅ (165,52 - 4 ⋅ 39,69) = 33,8, i =1 Q2 = Q − Q1 = 76,2 − 33,8 = 42,4. Вычислим F: F= Q1 /(k − 1) 33,8 / 3 11,27 = = = 4,25. Q2 /[k (n − 1)] 42,4 / 16 3,53 По таблице F-распределения при степенях свободы k1 = 3 и k2 = 16 и уровне значимости α = 0,05 находим критическое значение Fα = 3,24. Так как вычисленное значение F = 4,25 больше критического значения Fα, то гипотеза H0 отвергается. Следует признать влияние фактора A на исследуемую величину при уровне значимости 0,05. Задание 22. Фактор A имеет 4 уровня, фактор B – 5 уровней. Сделано по одному измерению случайной величины X на каждой комбинации уровней факторов. Полученные результаты представлены матрицей X (строки матрицы соответствуют уровням фактора A, столбцы – уровням фактору B). Методом дисперсионного анализа проверить гипотезу о том, что факторы A и B не влияет на математическое ожидание величины X. Предполагать, что взаимодействия между факторами нет. Уровень значимости принять равным α = 0,05. Матрицу взять из задания 21. Решение. Расширим предыдущую таблицу с учётом появления второго фактора. Bj xij Ai B1 B2 B3 B4 B5 A1 A2 A3 A4 m + j* m + j*2 7 5 4 8 6 36 6 7 3 9 6,25 39,1 4 8 4 7 5,75 33,1 3 8 6 8 6,25 39,1 9 9 5 6 7,25 52,6 mi + * 5,8 7,4 4,4 7,6 6,3 39,69 xij2 B1 B2 49 25 16 64 36 16 9 81 49 64 64 81 9 16 36 25 81 49 64 36 Суммы квадратов 175 145 173 223 154 B3 B4 B5 mi + *2 33,64 54,76 19,36 57,76 870 Все данные и результаты вычислений представлены в таблице. Значения Q и Q1 вычислены в предыдущей задаче: n Q2 = k (∑ m+*2j − n ⋅ m *2 ) = 4(36 + 39,1 + 33,1 +39,1 + 52,6 - 5 ⋅ 39,69) = 5,8, i =1 Q3 = Q − Q1 − Q2 = 76,2 − 33,8 − 5,8 = 36,6. 194 Практикум Тогда F1 = Q1 ⋅ (n − 1) 33,8 ⋅ 4 Q ⋅ (k − 1) 5,8 ⋅ 3 = ≈ 3,69; F2 = 2 = ≈ 0,48 . Q3 36,6 Q3 36,6 По степеням свободы k – 1 = 3 и (k – 1)(n – 1) = 12 определяется критическое значение Fα1 = 3,49 при α = 0,05, а по степеням свободы n – 1 = 4 и (k – 1)(n – 1) = 12 – критическое значение Fα2 = 3,26. По условию задачи взаимодействия между факторами нет Поэтому можно принять решение по каждому фактору индивидуально. Так как F1 > Fα1, то следует признать влияние фактора A. Так как F2 < Fα2, то следует отвергнуть влияние фактора B на исследуемую велдичину. Задание 23. Проверить гипотезу о влиянии факторов A, B, и C на исследуемую величину X, если все факторы имеют по четыре уровня, а измерения сделаны по плану эксперимента «латинский квадрат». Результаты измерений представлены матрицей X, исключая пятый столбец (строки матрицы соответствуют уровням фактора A, столбцы – уровням фактору B). Предполагать, что взаимодействия между факторами нет. Уровень значимости α принять равным 0,05. Матрицу выбрать из задания 21, исключив пятый столбец. Решение. Изменим предыдущую таблицу с учётом появления второго фактора и с учётом того, что матрица X не имеет пятого столбца. Кроме того, добавим два столбца в таблицу для вычисления оценок математического ожидания на уровнях третьего фактора C и квадратов этих оценок. Bj xij Ai B1 B2 B3 B4 A1 A2 A3 A4 m + j* m + j*2 7 5 4 8 6 36 6 7 3 9 6,25 39,1 4 8 4 7 5,75 33,1 3 8 6 8 6,25 39,1 mi + * mt* 5 7 4,25 8 7 6 5,75 5,5 6,06 36,72 xij2 mi + *2 mt*2 16 9 25 64 64 49 16 36 18,06 49 64 64 Суммы квадратов 175 145 173 49 36 33,06 30,25 B1 B2 49 25 16 64 36 49 9 81 154 B3 B4 647 Вычисление оценок на уровнях факторов A и B проводится так же, как в двухфакторном анализе. Вычисление оценок на уровнях фактора C проводится по ключевой  c1   c2 матрице CK: CK =  c  3 c  4 c2 c3 c3 c4 c4 c1 c1 c2 c4   c1  . Таким образом, c2   c3  1 1 xij = ( x11 + x 42 + x33 + x 24 ) = ∑ 4 t =1 4 1 1 m*2 = ∑ xij = ( x 21 + x12 + x 43 + x34 ) = 4 t =2 4 m1* = 1 (7 + 9 + 4 + 8) = 7, 4 1 (5 + 6 + 7 + 6) = 6, 4 и т.д. Общая сумма (647) квадратов измерений представлена в последней клетке последней строки. Оценка общего математического ожидания m* = 1 4 4 1 4 * x = mt = 6,06, m *2 = 36,72. ∑∑ ∑ ij 16 i =1 j =1 4 t =1 195 Теория вероятностей и математическая статистика Сумма квадратов оценок по уровням фактора A равна 25 + 49 + 18,06 + 64 = 156,06. Сумма квадратов оценок по уровням фактора B равна 36 + 39,1 + 33,1 + 39,1 = 147,3. Сумма квадратов оценок по уровням фактора C равна 49 + 36 + 33,06 + 30,25 = 148,31. Тогда n 4 n 4 Q = ∑∑ [ xij − m * ] 2 = ∑∑ xij2 − 4 ⋅ 4 ⋅ m *2 = 647 − 16 ⋅ 36,72 = 59,48, i =1 j =1 i =1 j =1 n n i =1 i =1 n n Q1 = n ⋅ ∑ [mi*+ − m * ] 2 = n(∑ mi*+2 − nm *2 ) = 4(156,06 − 4 ⋅ 36,72) = 36,72, Q2 = n ⋅ ∑ [m+* j − m * ] 2 = n(∑ m+*2j − nm *2 ) = 4(147,3 − 4 ⋅ 36,72) = 1,68, j =1 j =1 n n t =1 j =1 Q3 = n ⋅ ∑ [mt* − m * ] 2 = n(∑ mt*2 − nm *2 ) = 4(148,31 − 4 ⋅ 36,72) = 5,72, Q4 = Q − Q1 − Q2 − Q3 = 59,48 − 36,72 − 1,68 − 5,72 = 15,36. Вычислим отношения F1, F1, F1: F1 = Q1 ⋅ (n − 2) 36,72 ⋅ 2 = = 4,78, 15,36 Q4 F2 = Q2 ⋅ (n − 2) 1,68 ⋅ 2 = = 0,22, Q4 15,36 F3 = Q3 ⋅ (n − 2) 5,72 ⋅ 2 .= = 0,74. Q4 15,36 Критическое значение Fα находится по таблицам F–распределения для (n – 1) = 3 и (n – 1)(n – 2) = 6 степеней свободы при заданном уровне значимости α = 0,05. Из таблицы находим: Fα = 4,76. Таким образом, F1 > Fα, F2 < Fα, F3 < Fα, Учитывая, что взаимодействия между факторами нет (по условию задачи), делаем вывод, что фактор A влияет на исследуемую величину, а факторы B и C не влияют на эту величину (при данном уровне значимости). Тема 9. Регрессионный анализ Задание 24. Подобное задание подробно рассмотрено в учебном пособии. Задание 25. Подобное задание подробно рассмотрено в учебном пособии. Задание 26. По данным, представленным ниже, аппроксимировать статистическую зависимость величины Y от X и Z функцией y = ax + bz + c. Вычислить остаточную дисперсию, найти оценку обобщённого коэффициента корреляции. X: 1,0 1,8 1,5 0,8 1,8 0,8 1,3 0,8 0,7 0,6 1,7 1,9 0,9 0,7 1,5 Z: 1,9 0,2 1,8 0,9 0,7 0,9 1,9 1,8 2,2 –0,2 –0,4 –0,4 1,0 2,0 1,9 Y: 5,0 6,6 6,0 4,8 6,6 4,6 5,6 5,2 4,4 4,2 6,4 6,8 4,8 4,4 6,0. Все вычисления будем проводить в таблице. Будем решать задачу не через центральные моменты, как в тексте пособия, а через начальные. В таблице получаем все коэффициенты системы, определяющей коэффициенты аппроксимирующей функции: 196 Практикум n n n  n 2 a x b x z c x xi y i + + = ∑ ∑ ∑ i i i  ∑ i i =1 i =1 i =1 i =1  n n n n  2 a x z b z c z zi yi . + + =  ∑ i i ∑ ∑ ∑ i i = 1 = 1 = 1 = 1 i i i i  n n n  a x b z cn yi + + = ∑ ∑ ∑ i i  i =1 i =1 i =1  Поделив на n, полностью переходим к начальным моментам: 1 n 1 n 1 n  1 n 2 ⋅ + ⋅ + ⋅ = a x b x z c x ∑ i i n∑ ∑ xi y i i  n∑ i n i =1 n i =1 i =1 i =1  1 n 2 1 n 1 n  1 n ⋅ + ⋅ + ⋅ = a x z b z c z zi yi .  ∑ i i n∑ ∑ i n∑ i n i =1 i =1 i =1  n i =1 1 n 1 n 1 n  ⋅ + ⋅ + = a x b z c ∑ i n∑ ∑ yi i  n i =1 n i =1 i =1  В таблице представлены все необходимые данные. xi 1 1,8 1,5 0,8 1,8 0,8 1,3 0,8 0,7 0,6 1,7 1,9 0,9 0,7 1,5 17,8 1,187 zi 1,9 0,2 1,8 0,9 0,7 0,9 1,9 1,8 2,2 –0,2 –0,4 –0,4 1 2 1,9 16,2 1,08 yi xi 2 5 6,6 6 4,8 6,6 4,6 5,6 5,2 4,4 4,2 6,4 6,8 4,8 4,4 6 81,4 5,427 1 3,24 2,25 0,64 3,24 0,64 1,69 0,64 0,49 0,36 2,89 3,61 0,81 0,49 2,25 24,24 1,616 zi 2 3,61 0,04 3,24 0,81 0,49 0,81 3,61 3,24 4,84 0,04 0,16 0,16 1 4 3,61 29,66 1,977 yi 2 25 43,56 36 23,04 43,56 21,16 31,36 27,04 19,36 17,64 40,96 46,24 23,04 19,36 36 453,32 30,221 xi yi 5 11,88 9 3,84 11,88 3,68 7,28 4,16 3,08 2,52 10,88 12,92 4,32 3,08 9 102,52 6,835 xi zi 1,9 0,36 2,7 0,72 1,26 0,72 2,47 1,44 1,54 –0,12 –0,68 –0,76 0,9 1,4 2,85 16,7 1,113 zi yi 9,5 1,32 10,8 4,32 4,62 4,14 10,64 9,36 9,68 –0,84 –2,56 –2,72 4,8 8,8 11,4 83,26 5,551 В предпоследней строке записаны суммы элементов столбцов, а в последней строке – средние арифметические этих элементов (эмпирические начальные моменты). Запишем систему уравнений, определяющих коэффициенты аппроксимирующей функции: 1,977 a + 1,113b + 1,187c = 6,835   1,113a + 1,977b + 1,08c = 5,551 .  1,187 a + 1,08b + c = 5,427  Решая систему, получим: a* = 0,62, b* = –0,25, c* = 4,97. Таким образом, аппроксимирующая функция имеет вид: y = 0,62x – 0,25z – + 4,97. Вычислим дисперсию Dy*: Dy* = = 30,221 – (5,427)2 = 0,769. Тогда S2 = 0,769·15/14 = 0,824. В дополнительной таблице вычис197 Теория вероятностей и математическая статистика лим остаточную дисперсию (через yi* обозначены спрогнозированные значения функции, вычисленные по аппроксимирующей функции). xi 1 1,8 1,5 0,8 1,8 0,8 1,3 0,8 0,7 0,6 1,7 1,9 0,9 0,7 1,5 17,8 zi 1,9 0,2 1,8 0,9 0,7 0,9 1,9 1,8 2,2 –0,2 –0,4 –0,4 1 2 1,9 16,2 yi 5 6,6 6 4,8 6,6 4,6 5,6 5,2 4,4 4,2 6,4 6,8 4,8 4,4 6 81,4 yi* 5,115 6,036 5,45 5,241 5,911 5,241 5,301 5,016 4,854 5,392 6,124 6,248 5,278 4,904 5,425 81,536 yi* – yi 0,115 –0,564 –0,55 0,441 –0,689 0,641 –0,299 –0,184 0,454 1,192 –0,276 –0,552 0,478 0,504 –0,575 0,136 (yi* – yi)2 0,013225 0,318096 0,3025 0,194481 0,474721 0,410881 0,089401 0,033856 0,206116 1,420864 0,076176 0,304704 0,228484 0,254016 0,330625 4,658146 Таким образом, Dост = 4,658/(n – 3) = 4,658/12 = 0,388. Следовательно, R2 = 1 – – 0,388/0,824 = 0,529, тогда R = 0,727. Результат можно интерпретировать следующим образом. Пользуясь аппроксимирующей функцией, мы снимаем 52,9% начальной неопределённости относительно значений величины Y. В то же время 47,1% неопределённости сохраняется. Эта неопределённость связана с другими, неучтёнными в данной задаче, факторами. Заметим, что все вычисления удобно проводить в программной среде Microsoft Excel. 198 Список используемой литературы Список используемой литературы Литература 1. Айвазян С.А., Енюков И.С., Мешалкин Л.Д. Прикладная статистика. Основы моделирования и первичная обработка данных. – М.: Финансы и статистика, 1983. – 471 с. ББК 22.172, А11. 2. Вентцель Е.С. Теория вероятностей: Учеб. для вузов. – 7-е изд. стер. – М.: Высш. шк., 2001. – 575 с.: ил. 3. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. – М.: Высшая школа, 1979. 4. Гнеденко Б.В. Курс теории вероятностей. – М.: Физматгиз, 1961. 5. Горяинов В.Т., Журавлев А.Г., Тихонов В.И. Примеры и задачи по статистической радиотехнике / Под общ. ред. В.И. Тихонова. – М.: Советское радио, 1970. 6. Гурский Е.И. Теория вероятностей с элементами математической статистики: Учеб. пособие для втузов. – М.: Высшая школа, 1971. 7. Емельянов Г.В., Скитович В.П. Задачник по теории вероятностей и математической статистике, Изд. Ленинградского университета, 1967. 8. Колемаев В.А., Калинина В.Н. Теория вероятностей и математическая статистика: Учебник / Под ред. В.А. Колемаева. – М.: ИНФРА-М, 2001. – 302 с. – (Серия «Высшее образование»). 9. Кремер Н.Ш. Теория вероятностей и математическая статистика: Учебник для вузов. – М.: ЮНИТИ–ДАНА, 2001. – 543 с. 10. Лисьев В.П. Теория вероятностей и математическая статистика: Учебное пособие / ВКГТУ. – Усть-Каменогорск, 2001. 11. Лозинский С.Н. Сборник задач по теории вероятностей и математической статистике. – М.: Статистика, 1967. 12. Румшинский Л.З. Элементы теории вероятностей. – М.: Наука, 1970. 13. Смирнов Н.В., Дунин-Барковский И.В. Курс теории вероятностей и математической статистики для технических приложений. – М.: Наука, 1969. 14. Феллер В. Введение в теорию вероятностей и её приложения. – М.: Мир, 1964. 15. Чистяков В.П. Курс теории вероятностей. – М.: Наука, 1978. 199
«Теория вероятностей и математическая статистика» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot