Справочник от Автор24
Поделись лекцией за скидку на Автор24

Теория вероятностей и математическая статистика.Задачи.

  • ⌛ 2010 год
  • 👀 420 просмотров
  • 📌 384 загрузки
  • 🏢️ ПГУТИ
Выбери формат для чтения
Статья: Теория вероятностей и математическая статистика.Задачи.
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Теория вероятностей и математическая статистика.Задачи.» pdf
ФЕДЕРАЛЬНОЕ АГЕНСТВО СВЯЗИ Государственное образовательное учреждение высшего профессионального образования ПОВОЛЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ ТЕЛЕКОММУНИКАЦИЙ И ИНФОРМАТИКИ Кафедра высшей математики КОНСПЕКТ ЛЕКЦИЙ ПО УЧЕБНОЙ ДИСЦИПЛИНЕ Теория вероятностей и математическая статистика Самара, 2010 УДК 519.2 Блатов И.А., Старожилова О.В. Теория вероятностей и математическая статистика. Конспект лекций.- Самара: ГОУВПО ПГУТИ, 2010.-286 Конспект лекций затрагивает такие разделы высшей математики как: теория вероятностей, элементы комбинаторики, математическая статистика, регрессионный, корреляционный анализ. Каждая лекция заканчивается контрольными вопросами, которые помогут проверить теоретическое освоение курса, содержит большое количество задач для самостоятельного решения и ответы для проверки. Рецензент: Асташкин С.В. – д.ф.м.н., проф., зав.кафедрой Самарского государственного университета Государственное образовательное учреждение высшего профессионального образования Поволжский государственный телекоммуникаций и информатики ©Блатов И.А., Старожилова О.В., 2010 2 университет Введение ........................................................................................ 8 Лекция 1......................................................................................... 10 Случайные события, классификация ..................................... 10 Парадокс игры в кости ............................................................ 12 Классификация событий ......................................................... 13 Классическое определение вероятности ............................... 15 Ошибка Даламбера .................................................................. 17 Контрольные вопросы............................................................. 18 Элементы комбинаторики ...................................................... 19 Формула Стирлинга ................................................................ 24 Лекция 2........................................................................................ 26 Геометрическая вероятность .................................................. 26 Статическая вероятность ........................................................ 28 Условная вероятность ............................................................. 31 Парадокс Монти Холла........................................................... 33 Контрольные вопросы............................................................. 34 Задачи для самостоятельно решения ..................................... 35 Лекция 3......................................................................................... 37 Алгебра событий - сумма двух событий ............................... 37 Алгебра событий – произведение двух событий .................. 37 Вероятность появления хотя бы одного из событий............ 39 Диаграммы Эйлера-Венна ...................................................... 41 Принцип практической невозможности................................ 43 Контрольные вопросы............................................................. 44 Формула Бейеса ....................................................................... 45 Физический смысл и терминология формулы Бейеса ......... 49 Формула полной вероятности события ................................. 50 Метод фильтрации спама ....................................................... 52 Контрольные вопросы............................................................. 52 Задачи для самостоятельно решения ..................................... 53 Лекция 4......................................................................................... 56 Случайные величины, классификация .................................. 56 Законы распределения случайной величины ........................ 57 Интегральный закон распределения ...................................... 60 3 Числовые характеристики дискретной случайной величины .................................................................................. 62 Характеристики положения ................................................... 62 Характеристики рассеивания ................................................. 67 Параметры формы ................................................................... 70 Вероятность попадания дискретной случайной величины в заданный интервал ............................................................... 72 Контрольные вопросы............................................................. 72 Лекция 5......................................................................................... 74 Законы распределения дискретной случайной величины ... 74 Двухточечное распределение ................................................. 74 Распределение выборочного значения признака.................. 75 Биноминальное распределение (закон Бернулли) ................ 76 Наивероятнейшее значение случайной величины ............... 81 Закон Пуассона ........................................................................ 84 Числовые характеристики пуассоновского распределения 85 Контрольные вопросы............................................................. 90 Лекция 6......................................................................................... 91 Непрерывные случайные величины ...................................... 91 Функция распределения непрерывной случайной величины .................................................................................. 91 Функция плотности непрерывной случайной величины ..... 92 Числовые характеристики непрерывной случайной величины .................................................................................. 95 Контрольные вопросы............................................................. 100 Задачи для самостоятельного решения ................................. 100 Лекция 7......................................................................................... 102 Основные законы непрерывных случайных величин .......... 102 Равномерный закон распределения ....................................... 102 Экспоненциальное распределение ......................................... 106 Задачи для самостоятельного решения ................................. 108 Закон Вейбулла ........................................................................ 109 Нормальное распределение (закон Гаусса)........................... 111 Доска Гальтона ........................................................................ 112 Функция Лапласа..................................................................... 116 Правило трех сигм ................................................................... 118 Контрольные вопросы............................................................. 120 4 Задачи для самостоятельного решения ................................. 122 Лекция 8......................................................................................... 124 Дискретные двумерные случайные величины...................... 124 Числовые характеристики двумерных случайных величин 126 Плотности вероятности составляющих двумерной случайной величины ............................................................... 132 Условные законы распределения составляющих двумерной случайной величины ............................................ 132 Корреляционный момент системы двух случайных величин ..................................................................................... 134 Контрольные вопросы............................................................. 141 Лекция 9......................................................................................... 142 Функция одного случайного аргумента ................................ 142 Математическое ожидание функции одного аргумента ...... 143 Функция двух случайных величин ........................................ 144 Лекция 10....................................................................................... 147 Равномерный закон распределения на плоскости ................ 147 Нормальный закон распределения на плоскости ................. 148 Вероятность попадания в прямоугольник............................. 149 Лекция 11....................................................................................... 150 Закон больших чисел .............................................................. 150 Неравенство Чебышева ........................................................... 151 Теоремы Чебышева и Бернулли ............................................. 154 Практическое значение теоремы Чебышева ......................... 157 Предельные теоремы............................................................... 159 Характеристические функции ................................................ 159 Контрольные вопросы............................................................. 167 Лекция 12....................................................................................... 168 Математическая статистика ................................................... 168 Виды выборки .......................................................................... 170 Способы отбора ....................................................................... 173 Табличное представление статистических данных.............. 175 Графическое представление статистических данных .......... 180 Выборочная функция распределения .................................... 183 Числовые характеристики вариационного ряда ................... 184 Меры разброса опытных данных ........................................... 189 Контрольные вопросы............................................................. 191 5 Лекция 13....................................................................................... 192 Проверка статистических гипотез ......................................... 192 Критическая область ............................................................... 197 Распределение  ................................................................... 198 Критерий Пирсона................................................................... 199 Схема применения критерия .................................................. 202 2 Схема применения критерия  для непрерывных 2 случайных величин ................................................................. 203 Контрольные вопросы............................................................. 206 Задачи для самостоятельного решения ................................. 206 Лекция 14...................................................................................... 208 Регрессивный анализ............................................................... 208 Метод наименьших квадратов для получения уравнения выборочной линии регрессии ................................................. 210 Линейный регрессионный анализ .......................................... 212 Проблемы применения метода линейной регрессии ........... 217 Основные предпосылки статистической модели линейной регрессии .................................................................................. 218 Задачи регрессионного анализа ............................................. 219 Многомерная нормальная регрессионная модель ................ 222 Вариация зависимой переменной и коэффициент детерминации ........................................................................... 223 Контрольные вопросы............................................................. 225 Лекция 15....................................................................................... 226 Статистические оценки параметров распределения ............ 226 Метод наибольшего правдоподобия...................................... 230 Метод моментов ...................................................................... 231 Бейесовский подход к получению оценок ............................ 233 Контрольные вопросы............................................................. 234 Лекция 16....................................................................................... 235 Доверительные интервалы ..................................................... 235 Доверительный интервал для оценки математического ожидания нормального распределения при известной дисперсии ................................................................................. 236 6 Доверительный интервал для оценки математического ожидания нормального распределения при неизвестной дисперсии ................................................................................. 237 Доверительные интервалы для оценки среднего квадратического отклонения нормального распределения . 239 Контрольные вопросы............................................................. 241 Лекция 17....................................................................................... 242 Случайные процессы и их характеристики .......................... 242 Классификация случайных процессов .................................. 243 Законы распределения случайного процесса........................ 246 Моментные характеристики случайного процесса .............. 247 Корреляционная функция ....................................................... 249 Глоссарий ...................................................................................... 255 К лекции 1 ..................................................................................... 255 К лекции 2 ..................................................................................... 256 К лекции 3 ..................................................................................... 257 К лекции 4 ..................................................................................... 258 К лекции 4 ..................................................................................... 259 К лекции 5 ..................................................................................... 261 К лекции 6 ..................................................................................... 262 К лекции 7 ..................................................................................... 263 К лекции 8 .................................................................................... 264 К лекции 9 ..................................................................................... 266 К лекции 10 ................................................................................... 267 К лекции 11 ................................................................................... 267 К лекции 12 ................................................................................... 267 К лекции 13 ................................................................................... 270 К лекции 14 ................................................................................... 270 К лекции 16 ................................................................................... 271 К лекции 17 ................................................................................... 271 Список основных формул ............................................................ 277 Список литературы....................................................................... 286 7 Введение "Случай играет в мире столь большую роль, что и без моей помощи он позаботится о себе." A. Дюма 345 лет назад, в 1657 году, было опубликовано сочинение выдающегося голландского ученого Христиана Гюйгенса "О расчетах при игре в кости", которое является одним из первых исследований в области теории вероятностей. Трудно установить, кто впервые поставил вопрос о возможности количественного измерения возможности появления случайного события. Ясно только, что более или менее удовлетворительный ответ на этот вопрос потребовал большого времени и значительных усилий выдающихся исследователей целого ряда поколений. Обычно считают, что теория вероятностей возникла в середине XVII столетия, причем ее появление связывают с именами П. Ферма (1601-1665), Б. Паскаля (1623-1662) и Х. Гюйгенса (1629-1695). Отправным пунктом исследований являлись задачи, связанные с азартными играми, особенно играми в кости, поскольку при их изучении можно ограничиваться простыми и понятными математическими моделями. Игра в карты –тоже азартная игра. потому, что в ней главную роль играет случай - от него зависит, какие именно карты окажутся у партнеров. С азартных игр математики и начали изучать его величество Случай. ―Математика случая‖ — так еще в XVII в. назвал теорию вероятностей один из ее основателей, французский ученый Блез Паскаль Классическая теория вероятностей рассматривает вероятность как отношение числа благоприятствующих случаев ко всем возможным. При этом предполагается, что все рассмотренные случаи являются равновозможными, равновероятными. 8 Гюйгенс в сочинении "О расчетах при игре в кости" писал: "...думаю, при внимательном изучении предмета читатель заметит, что имеет дело не только с игрой, но что здесь закладываются основы очень интересной и глубокой теории". Одной из задач, давших начало теории вероятностей, является знаменитый парадокс игры в кости, разрешенный еще в "Книге об игре в кости" Д. Кардано (1501-1576), которая вышла лишь в 1663г. Значительное влияние на развитие теории вероятностей оказали Д. Бернулли (1654-1705), А. Муавр (1667-1754), Т. Байес (1702-1763), П. Лаплас (1749-1827), К. Гаусс (1777-1855), С. Пуассон (1781-1840). Например, Д. Бернулли принадлежит первое доказательство одного из важнейших положений теории вероятностей - так называемого "закона больших чисел". Теорема, которую он доказал, устанавливает связь между вероятностью события и частотой его появления. Развитие теории вероятностей тесно связано с традициями и достижениями русской науки. Фундаментальные результаты были получены П. Л. Чебышевым (1821-1894), А. М. Ляпуновым (1857-1918), позже большой вклад в ее развитие внесли Е. Е. Слуцкий (1903-1987) и ряд других. Курс построен в соответствии с требованиями Государственного образовательного стандарта России к дисциплине «Теория вероятностей и математическая статистика». Учебная программа разработана на основе учебных планов специальностей 230105 «Программное обеспечение вычислительных и автоматизированных систем», 230201 «Информационные системы и технологии». Каждая лекция заканчивается контрольными вопросами, которые помогут проверить теоретическое освоение курса, содержит большое количество задач для самостоятельного решения и ответы для проверки 9 Лекция 1 Случайные события, классификация Теория вероятностей (ТВ) изучает закономерности, возникающие в случайных экспериментах, раскрывает объективные закономерности, присущие массовым явлениям. Ее методы не дают возможности предсказать исход отдельного случайного явления, но позволяют предсказать средний суммарный результат массы однородных случайных явлений. Одна из важнейших задач любой науки – найти закономерности в водовороте «случайных» явлений окружающей нас жизни. Основатель теории вероятностей как строгой математической дисциплины – Колмогоров Андрей Николаевич (1903 –1988). В 1933г. он опубликовал аксиоматическое построение этой теории. Одно из основных понятий теории вероятностей – понятие случайного события. Его работа «Основные понятия теории вероятностей»(1933) новый этап в развитии теории вероятностей как науки. Для изучения физических явлений производят наблюдение и опыты, их результаты обычно регистрируют в виде значений некоторых наблюдаемых величин. При повторении опытов обнаруживается разброс их результатов. Говорят, что результат измерения есть величина случайная. Математический аппарат для изучения таких случайностей и закономерностей в них дает теория вероятностей.  Определение Случайные события – любые события или факты, относящиеся к результату эксперимента, которые могут происходить или не происходить. Название объясняется тем, что именно случай определяет, произойдет данное событие или не произойдет. Отдельные случайные события в ТВ обозначают прописными латинскими буквами, например, A , B и т.д. Accident (французский) – случайность. Случайные события – результаты эксперимента, его исходы. 10 Пример Компания Н занимает целый этаж. В конце коридора расположена комната отдыха, в ней аппарат для приготовления кофе. В среднем работник фирмы выпивает в день n чашек кофе. Спрашивается:  Какова вероятность, что когда сотрудник идет с кофе к себе в комнату, он получит удар по лбу открывающейся дверью?  Какова вероятность, что при резком открытии двери сотрудник даст по лбу коллеге, несущему кофе?  И что же теперь, кофе не пить? Даже если до сих пор Вы не любили кофе, Вы полюбите его с нашими кофейными аппаратами Не все случайные явления можно изучать методами теории вероятностей, а лишь те, которые могут быть воспроизведены в одних и тех же условиях Основной числовой характеристикой случайного события является его вероятность. Пример Испытание – подбрасывание монеты; события – монета упала «орлом» или «решкой». Случайное событие – выпадение решки или орла.  Замечание Решка - лицевая сторона монеты (аверс), орел - обратная сторона монеты (реверс). Пример Игральная кость - маленький кубик, грани которого помечены цифрами 1,2,3,4,5,6 или точками. Бросание игральной кости - выпадение цифр 1,2,3,4,5,6. Пусть производится серия из n испытаний, в каждом из которых может появиться или не появиться событие A . Если в результате испытания наблюдалось (появилось) событие A , то такой исход испытания называется благоприятным исходом.  Определение Элементарное событие – событие или каждый отдельный возможный результат испытания.  Определение Набор элементарных событий - набор всех возможных отдельных результатов испытаний. 11 Парадокс игры в кости Правильная игральная кость при бросании с равными шансами падает на любую из граней 1, 2, 3, 4, 5, 6. В случае бросания двух костей сумма выпавших чисел заключена между 2 и 12. Как 9, так и 10 из чисел 1, 2, ..., 6 можно получить двумя разными способами: 9=3+6= или 9=4+5 и 10=4+6 или 10=5+5. Почему 9 появляется чаще, когда бросают две кости, а 10 когда бросают три? Решение В случае двух костей 9 и 10 могут получиться следующим образом: =3+6, или 9=6+3, или 9=4+5, или =5+4 10=4+6, или 10=6+4, или 10=5+5. Это значит, что при двух костях 9 можно "выбросить" четырьмя способами, а 10 - лишь тремя. Следовательно, здесь шансы получить 9 предпочтительней. В случае трех костей ситуация меняется на противоположную: 9 можно "выбросить" 25 способами, а 10 - уже 26 способами. Потому 10 получается чаще, чем 9. (Проверьте!!!)  Определение Генератор случайных чисел - устройство для получения наборов случайных чисел. Различают три типа генераторов:  урны,  кости,  рулетки.  Замечание Ящик с шарами представляет собой одну из разновидностей урн Теория вероятностей как наука раскрывает объективные закономерности, присущие массовым явлениям. Методы не дают возможности предсказать исход отдельного случайного явления, но позволяют предсказать средний суммарный результат массы однородных случайных явлений 12 Классификация событий Различные события различают по степени возможности их проявления и бывают взаимно связаны. Типы событий:  случайное,  достоверное,  невозможное.  Определение Достоверное событие – событие, которое в результате опыта обязательно должно произойти.  Пример  Выпадение не менее одного очка при бросании игральной кости,  отказ радиоэлемента при работе долгого времени,  появление непрерывно действующей помехи в некотором заданном интервале времени.  Определение Невозможное событие – событие, которое не может иметь место в данном опыте. Пример  Выпадение более 6 очков при бросании игральной кости,  появление напряжения, большего порога ограничения, на выходе ограничителя.  В партии все изделия стандартны, извлечение из нее стандартного изделия – событие достоверное. Если событие в данном опыте невозможно, то говорят, что вероятность его равна P( A)  0 , если достоверно, т.е. обязательно должно появиться, то его вероятность равна P( A)  1 .Чем ближе вероятность события к 1, тем больше объективная возможность появления его в опыте.  Определение Два или несколько событий называются равновозможными, если нет оснований утверждать, что одно из них имеет больше данных появиться в итоге опыта по сравнению с другими. Равновозможность исходов – основная гипотеза классической теории вероятностей. 13 Пример  Выпадение герба и цифры при однократном бросании монеты,  выход из строя любой из радиоламп, работающих в одинаковых условиях  извлечение туза, валета, короля или дамы из колоды карт. По характеру совместной связи события подразделяются на совместные и несовместные.  Определение События, называются несовместными, если появление какого-нибудь одного из них в данном опыте исключает возможность появления других.  Пример Выпадение 3 и 5 вместе при однократном бросании монеты.  Определение События, называются совместными, если появление одного из них в данном опыте не исключает возможность появления других.  Замечание События несовместны, если они не могут произойти одновременно в одном и том же опыте. Пример Выпадение 3 и 5 вместе при двукратном бросании монеты, искажение различных знаков при передаче телеграмм. Получение студентом на экзамене по одной дисциплине оценок «5», «4»,»3» – события несовместные, а получение тех же оценок на экзамене по трем дисциплинам – события совместные.  Определение Полная группа событий – группа событий, сумма которых есть достоверное событие  Замечание Полная группа событий -группа событий, из которых хотя бы одно непременно должно произойти в данном опыте. Пример  Попадание и непопадание в мишень при выстреле,  выпадение 1,2,3,4,5,6 при бросании кости.  Подавление и неподавление радиоимпульса помехой,  искажение и неискажение какого-либо знака при передаче, 14  Определение Вероятность события – численная мера, принимающая значения между 0 и 1 и характеризующая степень возможности появления события в данном опыте. Обозначается: P( A) , где А - случайное событие. Обозначение P происходит от первой буквы французского слова probabilite – вероятность.  Замечание Этим определением предполагается, что все элементарные события равновероятны (не всегда можно определить равновероятность наступления отдельных элементарных событий). Пример Какова вероятность выпадения четного числа очков при бросании кости P( A)  3 1  6 2  Определение Противоположные события - два единственно возможных и несовместных события, для которых справедливо, что А наступает, когда не наступает А и наоборот. q( A)  1  P( A)  Замечание Противоположные события – частный случай событий, образующих полную группу. Классическое определение вероятности Классическое определение вероятности дал еще Лаплас, но тогда ее приложение не выходило за сферу азартных игр. Пьер-Симон Лаплас (1749 1827) — французский математик; один из создателей теории вероятностей. Классическое определение вероятности несовершенно и имеет много недостатков.  применимо лишь в тех случаях, когда число элементарных событий конечно, но на практике не всегда имеет место;  предполагается, что все элементарные события равновероятны (не всегда можно определить равновероятность наступления отдельных элементарных событий). 15  Определение (классическое по Лапласу определение) Вероятность случайного события А - число элементарных событий, благоприятствующих появлению события А, деленному на все число элементов в наборе элементарных событий. P  A  m , n 0  P( A)  1 Пример Какова вероятность выпадения четного числа очков при бросании кости Решение n  6 , m  3 , P  A  3 1  6 2 Пример Петя забыл последнюю цифру номера телефона знакомой и набрал ее наугад. Какова вероятность того, что он поговорит с ней по телефону? Решение n  10 , m  1 , P A  1 10 Пример Буквы образующие слова «Теория вероятностей» перемешаны и наугад извлекается одна буква. Найти вероятность того, что эта буква гласная Решение Общее число исходов n  18 (число букв в словах). Число благоприятствующих исходов m  9 P  A  16 m 9 1   n 18 2 Ошибка Даламбера Классическое определение вероятности справедлива только в случае с равновозможными исходами. Пренебрежение этим требованием приводит к ошибкам при решении простых вероятностных задач. Рассмотрим знаменитую задачу о бросании обычной монеты, связанную с именем знаменитого математика Ж.Даламбера. Жан Лерон Д’Аламбер (1717 —1783) — французский учѐный-энциклопедист. Широко известен как философ, математик и механик, вошел в историю теории вероятностей со своей знаменитой ошибкой, суть которой в том, что он неверно определил равновозможность исходов в опыте всего с двумя монетами! Опыт. Подбрасываем две одинаковые монеты. Какова вероятность того, что они упадут на одну и ту же сторону? Решение Даламбера: Опыт имеет три равновозможных исхода: 1) обе монеты упадут на «орла»; 2) обе монеты упадут на «решку»; 3) одна из монет упадет на «орла», другая на «решку». Из них благоприятными будут два исхода. n  3, m  2, P A  m 2  n 3 Правильное решение: Опыт имеет четыре равновозможных исхода: 1) обе монеты упадут на «орла»; 2) обе монеты упадут на «решку»; 3) первая монета упадет на «орла», вторая на «решку»; 4) первая монета упадет на «решку», вторая на «орла». Из них благоприятными будут два исхода. n  4, m  2, P A  m 2 1   n 4 2  Замечание Классическое определение вероятности с 17 до 19 века было как определение, в настоящее время 17 определение не дается, а используют понятие относительной частоты события.  Замечание События, вероятности которых малы или очень велики, называются практически невозможными или практически достоверны. Контрольные вопросы 1. Что изучает теория вероятностей? 2. Кто основатель теории вероятностей как строгой математической дисциплины? 3. Основная числовая характеристика случайного события. 4. Как определяются случайное, достоверное и невозможное события? 5. В чем недостатки классического определения вероятностей? 6. Как подразделяются события по характеру совместной связи ? 7. Классификация событий по степени возможности их проявления 8. Что такое генератор случайный чисел? 9. Приведите классификацию генераторов случайных чисел. 10. Приведите примеры полной группы событий. 11. С какой вероятностью монета, брошенная дважды, по крайней мере один раз выпадет гербом? 12. Докажите, что события A, B, A  B образуют полную группу. 18 Элементы комбинаторики Комбинаторика как раздел математики появилась в трудах Блеза Паскаля и Ферма по теории азартных игр. Эти труды, составив основу теории вероятностей, одновременно содержали принципы нахождения числа комбинаций элементов данного конечного множества. С появлением работы Лейбница и Бернулли «Искусство предположений» посвященной теории вероятностей комбинаторные схемы выделились в отдельную часть математики. Возрождение интересов к комбинаторике относится к 50 годам ХХ века. Этот интерес связан с развитием кибернетики. Большой развивающийся раздел комбинаторики это теория блок-схем. Основные проблемы этого раздела связаны с вопросами классификации, условиями существования и методами построения некоторых классов блок-схем.  Определение Комбинаторика - раздел математики, изучающий комбинации конечных множеств элементов различной природы. Предположим вначале, что все элементы рассматриваемых множеств различны и будем изучать комбинации этих элементов различающихся количеством и/или порядком. Будем рассматривать такие множества, в которых каждый элемент входит не более одного раза. Такие соединения называются без повторений. Предположим, что требуется подсчитать количество комбинаций из конечного числа элементов. Предположим, что построение этой комбинации мы разбили на k последовательных шагов, причем первой шаг можно осуществить b1 вариантами, независимо от результата действия на первом шаге 2-й шаг можно реализовать одним из b2 вариантов; независимо от результатов первых двух шагов третий шаг можно осуществить b3 способами и т.д.; наконец, 19 независимо от решений принятых на предыдущих шагах имеется bk возможноcтей осуществить k -й шаг. Тогда общее количество комбинаций равно произведению b1  b2  b3   bk . Пример. Найти число делителей числа 64800  25  52  34 . Решение Общий вид делителя исходного числа: 2a3b5c . В состав делителя "2" -можно включить 6-ю вариантами a  0,1,2,3,4,5 ,"5" -3-мя способами b  0,1,2 ,"3" - 5-ю споcобами c  0,1,2,3,4  . В силу независимости включения каждой цифры 2, 5 и 3 общее число делителей равно 6  3  5  90 . При вычислении вероятности приходится использовать формулы комбинаторики. Рассмотрим основные.  Определение Размещения из n по m - соединения, различающиеся самими элементами или их порядком. Anm  n! n  m ! Пример Расписание состоят из 4 пар. Определить число вариантов расписания при выборе из 11 предметов. Решение Каждый вариант расписания представляет набор 4 дисциплин из 11, отличающийся от других вариантов как составом дисциплин, так и порядком их следования. Т.е. размещение из 11 по 4. 4 A 11  11!  8  9  10  11  7920 7! Пример На четырех карточках написаны цифры 1,2,3,4. Карточки перевернули и перемешали. Затем открыли наугад последовательно три карточки и положили в ряд. Какова вероятность того, что в результате получилось: число 123. 20 Решение Исходами опыта являются все возможные размещения четырех карточек на трех местах (порядок расположения важен). Общее число исходов: n A 4!  2  3  4  24 4  3! . Рассмотрим события и их вероятности: Событие А={из трех карточек образовано число 123}, P  A  m 1  n 24 . Пример Пусть даны шесть цифр: 1;2;3;4;5;6. Определить сколько трехзначных чисел можно составить из этих цифр. Решение Если цифры могут повторяться, то количество трехзначных чисел будет m  n k  6 3  216 . Если цифры не повторяются, то m  A63  6  5  4  120 .  Определение Перестановками из n элементов называются соединения, различающиеся только порядком входящих в них элементов. Pn  Ann  n!  Замечание Перестановки комбинации, отличающиеся порядком, но не составом входящих элементов. Пример Порядок выступления определяется жеребьевкой. 7 участников. Сколько вариантов возможно. Решение Каждый вариант жеребьевки отличается порядком участников конкурса, т.е. перестановка из 7 элементов. P7  7!  5040 Пример На четырех карточках написаны буквы О, Т, К, Р. Карточки перевернули и перемешали. 21 Затем открыли наугад последовательно эти карточки и положили в ряд. Какова вероятность того, что получится слово «КРОТ»? Решение Исходы – все возможные перестановки из четырех элементов (О, Т, К, Р); общее число исходов: n  P  4! 24, m  1 , Событие А = {после открытия карточек получится слово «КРОТ»}: P  A  m 1  n 24  Замечание В комбинаторике факториал натурального числа интерпретируется как количество n !  1 2  3  n перестановок множества из n элементов.  Например, для множества {A,B,C,D} из 4-х элементов существует 4!=24 перестановок  Определение Сочетаниями из n элементов по m называются соединения, различающиеся только своими элементами n! С nm  m!  n  m ! Сочетания (выборки) из n по m различных элементов комбинации, отличающиеся лишь составом входящих элементов.  Замечание Число различных сочетаний (выборок) из n по m элементов C nm - число способов, которыми можно выбрать из n группу по m элементов (порядок выбора безразличен). Свойства сочетаний 1. 0!=1 22 2. Сn0  1 3. Сnm  Cnn m 4. Сnm  Cnm11  Сnm11  Замечание Числа Сn называют так же биномиальными коэффициентами по причине использования их в формуле разложения бинома Ньютона. m  x  y n n   Cnm  x m  y n  m m0 Пример В ящике лежат 1 белый и три черных шара. Наугад вынимаются 2 шара. Какова вероятность того, что вынуты: 1) 2 черных шара; 2) белый и черный шар? Решение Исходы – все возможные пары шаров. Общее число исходов C 42  4! 3 4  6 2!4  2 ! 1  2 1) Событие А={вынуты два черных шара}; m  C32  3! m 3 1  3; P A    2!1! n 6 2 2) Событие В={вынуты белый и черный шары}; m  C31  1 3  3, PB   m 3 1   n 6 2 Пример Из урны, в которой K белых и N  K чѐрных шаров, наудачу и без возвращения вынимают n шаров, n  N . Термин «наудачу» означает, что появление любого набора из шаров равновозможно. Найти вероятность того, что будет выбрано k белых и n  k чѐрных шаров. Решение C Kk C Nn kK P  A  C Nn 23 Формула Стирлинга Формула Стирлинга дает приближенное выражение произведения n первых натуральных чисел (факториала): n !  1  2  3  n , когда число n сомножителей велико, получена Джеймсом. Стирлингом. Джеймс. Стирлинг(1692-1770) шотландский математик. Труды по теории рядов и исчислению конечных разностей, рассмотрел бесконечные произведения. По определению полагают 0!  1 . Факториал определѐн только для целых неотрицательных чисел. Эта функция часто используется в комбинаторике, теории чисел и функциональном анализе. Формула Стирлинга n !  nn  e n  2    n Приближенное равенство носит асимптотический характер, т.е. уточняется с ростом n . Для краткости удовлетворимся правдоподобным рассуждением (не выдавая его однако за строгое доказательство), но удобное для запоминания. По определению факториал n !  1 2  3  n Заменим n! произведением такого ж количества одинаковых сомножителей: n! x  x  x  x  x n ,где x - своего рода "среднее факториальное" первых n натуральных чисел. Оно разумеется растет вместе с n . Сделаем простейшее предположение, что при больших n это среднее факториальное приблизительно пропорционально n : x n , a где a - почти постоянная величина. n n n!~   a и характерное тождество для факториала Тогда 24  n  1 !   n  1  n ! запишется в виде  n 1    a  n 1 n n  n  1    . a n  1 Поскольку известно, что 1    e при n   так, что  n n среднее факториальное близко к . e Ясно, что формула Стирлинга приближенная и нужна поправка, учитывающая не постоянство a при малых n . Поправка 2 n  t  n  эта зависит от n , но далеко не так сильно как сам факториал, пределах 0  t n   2 n  t  n  , величина t n  заключена в 1 . 12n 25 Лекция 2 Геометрическая вероятность Паскаль впервые употребил слово вероятность. Он был математик, философ, писатель, физик (1623-1662). В письме к Ферма он писал: «Я буду пользоваться термином вероятность для обозначения числа, обозначающего степень уверенности». Одним из недостатков классического определения вероятности, ограничивающим его применение, является то, что оно предполагает конечное число возможных исходов испытания. Этот недостаток преодолен в классическом геометрическом определении вероятности, т.е. находя вероятность попадания точки в некоторую область (отрезок, часть плоскости и т.д.) Пусть плоская фигура g составляет часть плоской фигуры G . На фигуру G наудачу бросается точка. Это означает, что все точки области G «равноправны» в отношении попадания туда брошенной случайной точки. Фигуру g называют благоприятствующей событию A . Sg P  A  SG Геометрическая вероятность имеет различное значение в зависимости от определения элементарных событий и от метода отбора в случайном порядке. Имеется отрезок ОА. Разделим его пополам в точке В и найдем вероятность того, что точка отрезка ОА, выбранная в случайном порядке находится на ОВ. Р длинаОВ 1  ДлинаОА 2 на практике может быть меры длины, площади, объемы. 26 Область, на которую распространятся понятие геометрической вероятности, может быть одномерной (прямая, отрезок), двумерной и трехмерной. Пример В некоторой ограниченной области  случайно выбирается точка. Какова вероятность, что точка попадет в область А? На прямую L? Решение S  A P  A  L S Ω A S ( L)  0 ; PL   0   S Ω Ω Область, на которую распространятся понятие геометрической вероятности, может быть одномерной (прямая, отрезок), двумерной и трехмерной.  Определение Геометрическая вероятность события A - отношение меры области, благоприятствующей появлению события A к мере всей области P  A  mes g mesG Пример В квадрат со стороной 4см «бросают» точку. Какова вероятность, что расстояние от этой точки до ближайшей стороны квадрата будет меньше 1 см? Решение Закрасим в квадрате множество точек, удаленных от ближайшей стороны меньше, чем на 1см. Площадь закрашенной части квадрата 16см 2  4см 2  12см 2 . Значит, P A  12 3   0.75 16 4 Обобщением классического определения вероятности на случайный эксперимент с бесконечным числом равновозможных случайных исходов, изображаемых точками, прямой, плоскостью, пространством и т.д. служит геометрическое определение вероятности. Пример Два лица A и B условились 27 встретиться в определенном месте между 11 и 12 ч. и ждать друг друга 30 мин. Если партнер к этому времени не пришел или уже ушел встреча не состоится. Найти вероятность того, что встреча состоится. Решение Обозначим моменты прихода в определенное место лиц A и B - соответственно через x и y . За начало отсчета возьмем 11 ч., а за единицу измерения 1 ч. По условию 0  x  1 , 0  y  1 . Это квадрат со стороной 1. Событие C - встреча двух лиц произойдет, если разность между x и y не превзойдет 0.5 ч, т.е. y  x  0.5 . PC   1  2  1 / 2  0.52  0.75 12 ( площадь области g равна площади квадрата G без суммы площадей двух угловых треугольников). Статическая вероятность Недостатком классического определения вероятности является то, что не всегда удается узнать, являются исходы испытания равновозможными или не являются. Число равновозможных исходов конечно. Результат испытаний не всегда можно представить в виде совокупности элементарных событий. Введем понятие статической вероятности. Если производить многократно повторение одного и того же опыта, то относительное число появлений данного события во всей серии опытов, или частота его появления, будет близка к значению его вероятности. Оказывается, что при большом числе испытаний n, относительная частота появления события А в различных сериях отличается друг от друга мало и это отличие тем меньше, чем больше испытаний в сериях. Пример 28 Выпадение герба. При небольшом количестве опытов относительное число появлений герба будет отличаться от 0.5, но если увеличить число до несколько десятков тысяч, то небольшие отклонения не могут оказать влияния на общий результат. Такие опыты проводились Бюффоном (Франция), и Пирсоном (Англия), при этом получены следующие результаты. Число бросаний 4040 12000 24000 Частота появления герба 0,50693 0,5016 0,5005 Французский естествоиспытатель Бюффон (XVIII в.) бросил монету 4040 раз, и при этом герб выпал в 2048 случаях. Следовательно, частота выпадения герба в данной серии испытаний равна  2048  0,50693 4040 Английский математик Карл Пирсон (1857-1936) бросал монету 24000 раз, причем герб выпал 12012 раз. Следовательно, частота выпадения герба в данной серии испытаний равна:  12012  0,5005 24000 Расхождение с математической вероятностью в четвертом знаке после запятой. Это закон больших чисел.  Определение Абсолютной частотой случайного события A в серии из N случайных опытов называется число N A , которое показывает, сколько раз в этой серии произошло событие A .  Определение Относительной частотой случайного события называют отношение числа появлений этого события к общему числу проведенных экспериментов: 29 W  A  NA N где A – случайное событие по отношению к некоторому испытанию, N - раз проведено испытание и при этом событие A наступило в N A случаях. Замечено, что будучи числом неотрицательным, относительная частота обладает определенной устойчивостью, то есть ее значение изменяясь, колеблется около некоторого неотрицательного числа, к которому она стремится при n→ ∞, (неограниченном возрастании числа испытаний).  Определение При статистическом определении вероятностью события называют относительную частоту события при большом числе испытаний или число близкое к ней: P( A)  lim W ( A) . n  P A выражает количественную меру Вероятность появления события в данных сериях испытаний. Пример Наблюдения показывают, что в среднем среди 1000 новорожденных детей 515 мальчиков. Какова частота рождения мальчика в такой серии наблюдений? Решение W  A  515  0.515 1000 Пример Демографы утверждают, что вероятность рождения близнецов равна 0,012. В скольких случаях из 10 000 рождений можно ожидать появление близнецов? Решение P( A)  0.012, N  10000 N P( A)  A  0.012 , N  0.012 10000  120 N Ответ в 120 случаях можно ожидать появление близнецов. 30 Пример За лето на Черноморском побережье было 67 солнечных дней. Какова частота солнечных дней на побережье за лето? Частота пасмурных дней? Решение 1. W  A  67  0.728 92 побережье за лето, W B   частота солнечных дней на 25  0.272 - частота пасмурных 92 дней. Условная вероятность Пусть имеем два последовательных случайных событий, то какова вероятность наступления второго события, если первое событие уже произошло. Пример Пусть в урне было 5 шаров, (2 белых+ 3 черных). Найти вероятность извлечь белый шар во втором испытании. Решение После извлечения первого шара в ней останется 4 шара  и один белый в их числе (если извлекли белый)  или 2 белых ( если в первый раз извлечен не белый шар). В первом случае вероятность извлечь белый шар во второй раз будет 1 1 , во втором . 4 2 Таким образом вероятность извлечь белый шар во втором испытании зависит от результата первого испытания. Понятия условной вероятности и независимости введены А.Муавром в 1718 г. Абрахам де Муавр (1667 -1754) — английский математик французского происхождения. Провѐл вероятностное исследование азартных игр.  Определение Условная вероятность- вероятность одного события, вычисленная в предположении, что другое событие произошло. 31 Вероятность события A1 в предположении, что произошло событие A 2 обозначаем P A1 / A2   Определение Два события называются независимыми, если вероятность появления каждого из них не зависит от того, имели ли место другие.  Определение Два события называются зависимыми, если появление одного из них влияет на вероятность наступления другого Если P  A1 / A2   P  A1  , то говорят, что A1 независимо от A 2 , т.к. его вероятность не зависит от того, произошло ли событие A 2 или нет. Аналогично, если P A2 / A1   P A2  , то говорят, что A 2 независимо от A1 Независимость двух событий – свойство симметричное. Пример A – извлечение из колоды туза, B – то, что и вторая вынутая из колоды карта туз. Тогда, если после первого раза карта была возвращена в колоду, то вероятность вынуть вторично туз не меняется: PB   P A  4 1   0.125 32 8 Если же первая карта в колоду не возвращается, то осуществление события A приводит к тому, что в колоде осталась 31 карта, из которых только 3 туза. Поэтому B 3 P    0.097 .  A  31 Пример К экзамену надо подготовить 25 вопросов. Студент пришел на экзамен, зная 20. Какова вероятность того, что студент ответит на все три вопроса билета? Решение Пусть события: A – студент знает первый вопрос; 32 B – студент знает второй вопрос; C – студент знает третий вопрос. Тогда нужная вероятность будет 20 19 18 57 B . P ABC   P AP  PC. AB      25 24 23 115  A Парадокс Монти Холла Задача формулируется как описание гипотетической игры, основанной на американском телешоу «Let’s Make a Deal», и названа в честь ведущего этой передачи. Вы стали участником игры, в которой нужно выбрать одну из трех дверей. За одной из дверей находится автомобиль, за двумя другими дверями — козы. Вы выбираете одну из дверей, например, номер 1, после этого ведущий, который знает, где находится автомобиль, а где — козы, открывает одну из оставшихся дверей, например, номер 3, за которой находится коза. Вопрос: не желаете ли вы изменить свой выбор и выбрать дверь номер 2. Увеличатся ли ваши шансы выиграть автомобиль, если вы примете предложение ведущего и измените свой выбор? Решение Построим дерево принятия решений. 33 Когда игрок сначала выбрал дверь, за которой находится коза, изменение выбора приводит к выигрышу. В двух последних случаях, когда игрок сначала выбрал дверь с автомобилем, изменение выбора приводит к проигрышу. Суммарная вероятность того, что изменение выбора приведѐт к выигрышу, эквивалентна сумме вероятностей первых двух исходов, то есть 1 1 2   . 3 3 3 Соответственно, вероятность того, что отказ от изменения выбора приведѐт к выигрышу, равна 1 1 1   6 6 3 Вывод Изменение первоначального выбора приводит к выигрышу в двух случаях из трѐх в среднем!!!! Контрольные вопросы 2. Дайте статическое определение вероятности. 3. В чем отличие от классического определения вероятности В чем разница абсолютной и относительной частоты? 34 Задачи для самостоятельно решения 1. В ящике имеется 50 одинаковых деталей, из них 5 окрашенных. Наудачу вынимают одну деталь. Найти вероятность того, что извлеченная деталь окажется окрашенной. Отв. p  0.1 . 2. Брошена игральная кость. Найти вероятность того, что выйдет четное число очков. Отв. p  0.5 . 3. Участники жеребьевки тянут из ящика жетоны с номерами от 1 до 100. Найти вероятность того, что номер первого, наудачу извлеченного жетона, не "содержит цифры 5. Отв. p  0.81 . 4. В мешочке имеется 5 одинаковых кубиков. На всех гранях каждого кубика написана одна из следующих букв: о, п, р, с, т. Найти вероятность того, что на вынутых по одному из расположенных «в одну линию» кубиках можно будет прочесть слово «спорт». Отв. p  1 . 120 5. На каждой из шести одинаковых карточек напечатана одна из следующих букв: а, т, м, р, с, о. Карточки тщательно перемешаны, Найти вероятность того, что на четырех, вынутых по одной и расположенных «в одну линию» карточках, можно будет прочесть слово «трос» Отв. `p = 1/А_6^4=1/360. 6. Куб, все грани которого окрашены, распилен на тысячу кубиков одинакового размера, которые затем тщательно перемешаны. Найти вероятность того, что наудачу извлеченный кубик будет иметь окрашенных граней: а) одну; б) две; в) три. Отв. а) 0,384; б) 0,096; в) 0,008. 7. Из тщательно перемешанного полного набора 28 костей домино наудачу извлечена кость. Найти вероятность того, что вторую наудачу извлеченную кость можно приставить к первой, если первая кость: а) оказалась дублем, б) не есть дубль. Отв. (а) 2 4 (б) 9 9 8. В замке на общей оси пять дисков, каждый из которых разделен на шесть секторов с различными написанными на них 35 буквами. Замок открывается, только в том случае, если каждый диск занимает одно определенное положение относительно корпуса замка. Найти вероятность того, что при произвольной установке дисков замок можно будет открыть Отв. `р =1/6^5`. 9. Восемь различных книг расставляются наудачу на одной полке. Найти вероятность того, что две определенные книги окажутся поставленными рядом. Отв. 0.25 10. Библиотечка состоит из десяти различных книг, причем пять книг стоят по 4 рубля каждая, три книги — по одному рублю и две книги — по 3 рубля Найти вероятность того, что взятые наудачу две книги стоят 5 рублей. Отв. 5 /12 ` 11. В партии из 100 детален отдел технического контроля обнаружил 6 нестандартных деталей. Чему равна относительная частота появления нестандартных деталей?Отв. w  0.06 . 12. При стрельбе из винтовки относительная частота попадания в цель оказалась равной 0,85 Найти число попаданий, если всего было произведено 120 выстрелов. Отв. 102 попадания. 36 Лекция 3 Алгебра событий - сумма двух событий  Определение Суммой двух событий A1 и A2 называется событие, состоящее в появлении хотя бы одного из этих событий. A  A1  A2  Теорема Вероятность суммы двух событий равняется сумме их вероятностей. несовместных P A1  A2   P A1   P A2  Если события A1 и A2 взаимно не исключают друг друга, то теорема будет другая. Заметим, что сформулированная теорема справедлива для любого числа несовместных событий:  n  n P  A i    P A i   i 1  i 1  Следствие теоремы сложения Сумма вероятностей полной группы несовместимых событий равна единице. Доказательство Пусть несовместимые события A, B, C , , N - образуют полную группу событий, следовательно они единственно возможные и несовместные. При испытании хотя бы одно их этих событий появится, т.к. оно достоверно P A  1 или РB   1 или  Р N   1 но события по условию являются несовместимыми и следовательно, на основании теоремы сложения что и т.д. Алгебра событий – произведение двух событий  Определение Произведением нескольких событий называется событие, состоящие в совместном наступлении всех этих событий в результате испытания. Обозначают A  B, A  B, A и B 37  Замечание Произведение означает союз «и» (АВС, это означает, что наступило событие A и B и C ). Пример A – «из колоды карт вынута дама», B – «из колоды карт вынута карта пиковой масти». A B означает «вынута дама пик». Пример A – « число выпавших очков < 5», B – «число выпавших очков > 2», C – «число выпавших очков четное». Тогда A  B  C – «выпало 4 очка».  Теорема Вероятность суммы двух совместных событий равняется сумме их вероятностей, уменьшенная на вероятность произведения этих событий. P A1  A2   P A1   P A2   P A1  A2   Теорема Вероятность произведения взаимно независимых событий равна произведению их вероятностей. P A1  A2   P A1   P A2  .  Теорема Вероятность произведения зависимых событий равна произведению вероятности одного события на условную вероятность другого события, вычисленную в предположении, что первое случайное событие уже произошло P A 1 A 2   P A 1   P A 2   P A 1 A 2  Свойства операций сложения и умножения 1. 2. 3. 4. 5. 38 A  B  B  A коммутативность сложения. A  B  C    A  B  C - ассоциативность сложения. A  B  B  A коммутативность умножения. A  B  C    A  B  C ассоциативность умножения A  B  C   A  B  A  C закон дистрибутивности. Вероятность появления хотя бы одного из событий  Теорема Вероятность появления хотя бы одного из событий A1 , A 2 , , A n , независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий       P A  1  P A1  P A 2    P A n  1  q1  q2    qn  Следствие. При производимых n одинаковых независимых испытаниях, в каждом из которых события A появляется с вероятностью p , вероятность появления события A хотя бы один раз равна P A  1  1  p n Пример В урне 30 шаров: 10 красных, 5 синих и 15 белых. Найти вероятность появления цветного шара. Решение Появление цветного шара означает появление либо красного, либо синего шара. Вероятность появления красного шара (событие A ) P  A  10 1  30 3 Вероятность появления синего шара (событие B ) P B   5 1  30 6 События A и B несовместны (появление шара одного цвета исключает появление шара другого цвета), поэтому теорема сложения применима. Искомая вероятность P  A  B   P  A  P  B   1 1 1   3 6 2 Пример На стеллаже в библиотеке стоит 15 учебников, причем 5 из них в переплете. Библиотекарь берет три учебника. Найти вероятность того, что хотя бы один из взятых учебников окажется в переплете. Решение 39 Первый способ. Пусть события A – хотя бы один учебник в переплете; B – один из взятых учебников в переплете, два – без переплета; C – два в переплете, один без переплета; D – все три учебника в переплете. Очевидно, A  B  C  D . Найдем вероятности событий B , C , и D . C 51C102 45 ,  3 C15 91 3 C 2 . P( D )  53  C15 91 P (C )  P( B )  Тогда P( A)  P( B )  P(C )  P( D )  C 52 C101 20 ,  3 C15 91 67 . 91 Второй способ. Вновь A – хотя бы один учебник в переплете; A - ни один из взятых учебников не имеет переплета. Так как события A и A противоположные, то C103 24 67 . P( A)  1  P( A)  1  3  1   C15 91 91 Пример Студент разыскивает нужную ему формулу в трех справочниках. Вероятности того, что формула содержится в первом, втором и третьем справочниках равны 0,6; 0,7 и 0,8. Найти вероятности того, что формула содержится 1) только в одном справочнике; 2) только в двух справочниках; Решение A – формула содержится в одномсправочнике; B – формула содержится в двух справочниках; Воспользуемся теоремами сложения и умножения вероятностей.         P ABC  ABC  ABC  P ABC  P ABC  P ABC   0,6  0,3  0,2  0,4  0,7  0,2  0,4  0,3  0,8  0,188   P ABC  ABC  ABC  0,6  0,7  0,2  0,6  0,3  0,8  0,4  0,7  0,8  0,452 40 Диаграммы Эйлера-Венна Основные действия над событиями можно интерпретировать с помощью диаграмм Венна. Леонард Эйлер (1707-1783) — российский и швейцарский математик, внѐсший значительный вклад в развитие теории вероятностей и ряда прикладных наук. Эйлер — автор более чем 800 работ. Почти полжизни провѐл в России, где внѐс существенный вклад в становление российской науки. Диаграммы Венна- Эйлера используется в математике, логике, менеджменте и других прикладных направлениях, обычно изображается в виде кругов одинакового радиуса. Особенного расцвета графические методы достигли в сочинениях английского логика Джона Венна (1843—1923), подробно изложившего их в книге «Символическая логика», изданной в Лондоне в 1881 году. Поэтому такие схемы иногда называют диаграммы Эйлера — Венна. На диаграмме ЭйлераВенна сумму событий можно изобразить в виде кругов (прямоугольник – изображение множества всех возможных исходов опыта). Диаграммы Венна нашли применение в современной логико-математической теории «формальных нейронных сетей». Диаграмма, иллюстрирующая совместных событий. сумму Диаграмма, иллюстрирующая сумму несовместных событий 41 Диаграмма, иллюстрирующая сумму трех совместных событий. A B C Диаграмма, произведение событий. 42 иллюстрирующая совместных Принцип практической невозможности При решении многих практических задач приходится иметь дело с событиями, вероятность которых весьма мала, т. е. близка к нулю. Можно ли считать, что маловероятное событие A в единичном испытании не произойдет? Такого заключения сделать нельзя, так как не исключено, хотя и мало вероятно, что событие A наступит. Казалось бы, появление или не появление маловероятного события в единичном испытании предсказать невозможно. Однако длительный опыт показывает, что маловероятное событие в единичном испытании в подавляющем большинстве случаев не наступает. На основании этого факта принимают следующий «принцип практической невозможности маловероятных событий»: если случайное событие имеет очень малую вероятность, то практически можно считать, что в единичном испытании это событие не наступит. Естественно возникает вопрос: насколько малой должна быть вероятность события, чтобы можно было считать невозможным его появление в одном испытании? На этот вопрос нельзя ответить однозначно. Для задач, различных по существу, ответы будут разными. Например, если вероятность того, что парашют при прыжке не раскроется, равна 0,01, то было бы недопустимым применять такие парашюты. Если же вероятность того, что поезд дальнего следования прибудет с опозданием, равна 0,01, то можно практически быть уверенным, что поезд прибудет вовремя.  Определение Достаточно малую вероятность, при которой событие можно считать практически невозможным, называют уровнем значимости. На практике обычно принимают уровни значимости, заключенные между 0,01 и 0,05. Уровень значимости, равный 0,01, называют однопроцентным; уровень значимости, равный 0,02, называют двухпроцентным и т. д. 43 Подчеркнем, что рассмотренный здесь принцип позволяет делать предсказания не только о событиях, имеющих малую вероятность, но и о событиях, вероятность которых близка к единице. Действительно, если событие A имеет вероятность близкую к нулю, то вероятность противоположного события близка к единице. С другой стороны, не появление события A означает наступление противоположного события A . Таким образом, из принципа невозможности маловероятных событии вытекает следующее важное для приложении следствие: если случайное событие имеет вероятность очень близкую к единице, то практически можно считать, что в единичном испытании это событие наступит. Разумеется, и здесь ответ на вопрос о том, какую вероятность считать близкой к единице, зависит от существа задачи. Контрольные вопросы 1. Что относится к основным понятиям теории вероятностей? 2. Назовите действия над событиями. 3. Виды случайных событий. 4. Дайте классическое определение вероятности. 5. Дайте статистическое определение вероятности. 6. Чему равна вероятность суммы двух несовместных событий? 7. Дайте определение произведения двух событий 8. Как определяется вероятность появления хотя бы одного события 9. Как определяется условная вероятность? 10. Сформулируйте теорему совместного появления двух событий. 11. Приведите формулу для вычисления вероятностей совместных событий. 44 Следствием двух основных теорем теории вероятностей – теоремы сложения и умножения – являются формула полной вероятности и формула Бейеса. Формула Байеса, дает возможность оценить вероятность событий эмпирическим путѐм, играет важную роль в современной математической статистике и теории вероятностей. Томас Байес (Бейес, Reverend Thomas Bayes]) (1702 —1761) — английский математик. Математические интересы Байеса относились к теории вероятностей. Он сформулировал и решил одну из основных задач этого раздела математики (теорема Байеса). Работа, посвящѐнная этой задаче, была опубликована в 1763 году, уже после его смерти. Формула Байеса — одна из основных теорем элементарной теории вероятностей, которая определяет вероятность того, что произошло какое-либо событие (гипотеза), имея на руках лишь косвенные тому подтверждения (данные), которые могут быть неточны. Названа в честь ее автора, преп. Томаса Байеса (посвященная ей работа впервые опубликована в 1763 году, уже после его смерти). Полученную по формуле вероятность можно далее уточнять, принимая во внимание данные новых наблюдений. Изучение какого-либо объекта исследователь начинает с предположений ( версии, гипотезы).Например: экзаменатор, предлагающий студенту билет, выдвигает гипотезы, что студент учил материал и т.д.  Определение Гипотезы Н1, Н 2 ,  Н s - события, в условиях которых только и может появиться событие A , обозначим Н1, Н 2 ,  Н s Вычисляя вероятность выдвигаем различные A предположения (гипотезы) относительно обстоятельств, которые могут привести к событию A .  Определение Априорные гипотезы – гипотезы, полученные до предстоящего опыта, апостериорные - после. Формула Бейеса 45 После выдвижения гипотезы исследователь ставит опыты, результат опыта фиксируют. На их основании надо высказать новое мнение о первоначальной гипотезе. Какая из них подтвердилась, какая нет. Стоит ли продолжать опыты? Как долго? Томас Бейес изложил свой подход к решению таких задач. Томас Бейес (1702-1761) – английский математик, был священником. Его формула позволяет эмпирически оценить вероятность события, работа была опубликована после его смерти. Она применяется, когда событие А , которое может появиться только с одной из гипотез A1, A2  An образующих полную группу событий, произошло и необходимо произвести количественную переоценку априорных вероятностей этих гипотез, т.е. найти апостериорные условные вероятности . Рассмотрим полную группу несовместных событий, вероятности появления которых PH1  , PH 2  ,…, PH s  . Считаем, что они известны. Событие А может наступить только вместе с каким-либо из событий H1 , H 2 ,  H s Вероятность появления события А по формуле полной вероятности будет P  A   P  H1   P  A H1   P  H 2   P  A H 2      P H s   P  A H s  Пусть событие А произошло, тогда это изменит вероятности гипотез PH1 , PH 2 ,, PH s  . Тогда определим условные вероятности осуществления этих гипотез в предположении, что событие А произошло, т.е определим Р Н A , Р Н 2 A ,  Р Н s A  1         Тогда P A  H1   PH1   P A H1  P A  P H1 A PH1 A  46 PH1   PA H1  P  A  Или P H i A  P H i   P  A H i  P  A Формула называется – формулой Бейеса Значение формулы Бейеса состоит в том, что при наступлении события А , т.е. по мере получения новой информации, мы можем проверять и корректировать выдвинутые до испытания гипотезы. Такой подход называемый бейесовским, дает возможность корректировать управленческие решения в экономике, оценки неизвестных параметров распределения изучаемых признаков в статистическом анализе.  Замечание Формула Бейеса предназначена для вычисления апостериорных вероятностей гипотез после проведения опыта с учетом полученной информации (событие А уже произошло.  Замечание Психологические эксперименты показали, что люди при оценках вероятности игнорируют различие априорных вероятностей (ошибка базовой оценки), и потому правильные результаты, получаемые по теореме Бейеса, могут очень отличаться от ожидаемых. Пример. После двух выстрелов двух стрелков, вероятности попаданий которых равны 0,6 и 0,7, в мишени оказалась одна пробоина. Найти вероятность того, что попал первый стрелок. Решение Пусть событие А – одно попадание при двух выстрелах, а гипотезы: H1 – первый попал, а второй промахнулся, H 2 – первый промахнулся, а второй попал, H 3 – оба попали, H 4 – оба промахнулись. Вероятности гипотез: 47 pH1   0,6  0,3  0,18 , pH 2   0,4  0,7  0,28 , , pH 4   0,4  0,3  0,12 . Тогда p H 3   0,6  0,7  0,42  A   A   A   A    p   p   1 , p   0 . p  H1   H2   H4   H3  Следовательно, полная вероятность p A  0,18  1  0,28  1  0,42  0  0,12  0  0,46 . Применяя формулу Бейеса, получим: Пример Студент подготовил к экзамену 20 билетов из 25. В каком случае шансы взять известный билет больше - когда студент пришел на экзамен первым или вторым? Решение 20 4 P1   25 5 Выбор 1-го 20 25 20 20 25 + 5 20 25 20 25 Найдем вероятность P2 взять известный билет, придя на экзамен вторым, учитывая, что первый может взять как известный, так и неизвестный второму билет. P2  20 19 5 20 4     25 24 25 24 5 Пример Студент приходит в медпункт и жалуется на плохое самочувствие. У медсестры две гипотезы H1 - он действительно болен, H 2 - он здоров, но хочет получить справку. По внешнему виду она оценивает априорные 48 вероятности PH1   0,3 , PH 2   0,7 и ставит ему градусник. Измеренная температура 37.5 (событие А ).  A    0,9 P  H1  Предположим, повышается температура), (не при  A    0,05 P  H2  всякой (у болезни некоторых здоровых людей нормальная температура немного повышена или студент мог незаметно натереть градусник). Теперь апостериорная вероятность того, что студент болен: 0.3  0.9 H  P 1    0.885  A  0.3  0.9  0.7  0.05 и у медсестры есть все основания направить студента к врачу. Физический смысл и терминология формулы Бейеса Формула Бейеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной. События, отражающие действие «причин», в данном случае обычно называют гипотезами, так как они — предполагаемые события, повлекшие данное. Безусловную вероятность справедливости гипотезы называют априорной, а условную - с учетом факта произошедшего события — апостериорной (насколько вероятна причина оказалась с учетом данных о событии). Можно также уточнять вероятность гипотезы, учитывая другие имеющиеся данные (другие произошедшие события). Для учета каждого следующего события нужно в качестве априорной вероятности гипотезы подставлять ее апостериорную вероятность с предыдущего шага. Формулу Бейеса иногда называют формулой переоценки гипотез. Она позволяет дать оценку вероятности гипотез после 49 того, как произошло событие. Томас Бейес формулу не выводил, она названа в честь признания его работ по теории вероятностей. Формула полной вероятности события Важным следствием формулы Байеса является формула полной вероятности события, зависящего от нескольких несовместных гипотез (и только от них!). Следствием двух основных теорем теории вероятностей – теоремы сложения и умножения – являются формула полной вероятности.  Теорема Полная вероятность события A равна сумме произведений вероятностей гипотез на условные вероятности события вычисленные соответственно при каждой из гипотез. is P A   PH i   PA H i  i 1 Доказательство Пусть А - событие, вероятность которого надо вычислить. Полагаем, что это события несовместимы, а их совокупность охватывает всевозможные события, которые могут привести к А , т.е. они образуют полную группу несовместимых событий. Вероятности их обозначим P H 1 , P H 2 ,, P H s       На основании следствия из теоремы сложения PH1   PH 2    PH s   1 Введем условные вероятности осуществления А при каждой из гипотез P A H1 , P A H 2 ,, P A H s  Найдем полную вероятность события А Событие А может наступить, если наступит событие Вероятность наступления умножения равна H 1 и затем А на основании теоремы PH1 и A  PH1   PA H1  50 H1 . Но событие А может наступить, если наступит событие H 2 . и т.д. Для определения полной вероятности события А безразлично каким образом появится А На основании теоремы сложения о несовместных событиях получим P A  PH1 и A  PH 2 и A    PH s и A Заменяя слагаемые их значениями, имеем P A  PH1   P A | H1   PH 2   P A | H 2      PH s   P  A | H s  is Или P A   PH i   PA H i  . i 1 Пример Имеются три одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй – 2 белых и 5 черных, в третьей – 10 черных шаров. Из случайно выбранной урны наудачу вынут шар. Найти вероятность того, что он белый. Решение Будем считать гипотезами H1 , H 2 и H 3 выбор урны с соответствующим номером. Так как по условию задачи все гипотезы равновозможны, то PH1   PH 2   PH 3   1 3 Найдем условную вероятность А при реализации каждой гипотезы:  A   A  3  A  2   0 .   , P   , P P H 7 H H 7  1  2  3 Тогда 1 3 1 2 1 P A       0  0.238 . 3 7 3 7 3  Замечание Вероятность наступления события B , зависящего от ряда гипотез H i , если известны степени достоверности этих гипотез (например, измерены экспериментально); 51 Метод фильтрации спама При проверке письма вычисляется вероятность того, что оно — спам для множества гипотез. «гипотезы» — это слова, и для каждого слова «достоверность гипотезы» — % этого слова в письме, а «зависимость события от гипотезы» P B Ai  — вычисленный ранее «вес» слова. То есть «вес» письма - усредненный «вес» всех его слов. Отнесение письма к «спаму» или «не-спаму» производится по тому, превышает ли его «вес» планку, заданную пользователем ( 60-80 %). После принятия решения по письму в базе данных обновляются «веса» для вошедших в него слов. Недостаток метода :базируется на том, что одни слова чаще встречаются в спаме, а другие — в обычных письмах, и неэффективен, если данное предположение неверно  Замечание если 80% писем, содержащих словосочетание "разговорный английский", являлись спамом, то и следующее письмо с этим словосочетанием - спам, причем с большой долей вероятности. Контрольные вопросы 1. Как определяется условная вероятность? 2. При каких условиях применяется формула Байеса? 3. В каких случаях применяется формула полной вероятности? Каким свойствам должны удовлетворять гипотезы? 4. Что такое априорные и апостериорные вероятности? 5. Если все априорные вероятности гипотез одинаковы, то остаются ли их апостериорные вероятности также всегда одинаковыми? 52 Задачи для самостоятельно решения 1. В денежно-вещевой лотерее на каждые 10 000 билетов разыгрывается 150 вещевых и 50 денежных выигрышей. Чему равна вероятность выигрыша, безразлично денежного или вещевого, для владельца одного лотерейного билета? Отв. p  0.02 . 2. Вероятность того, что стрелок при одном выстреле выбьет 10 очков, равна 0,1; вероятность выбить 9 очков равна 0.3; вероятность выбить 8 или меньше очков равна 0,6. Найти вероятность того, что при одном выстреле стрелок выбьет не менее 9 очков. Отв. p  0.4 . 3. В партии из 10 деталей 8 стандартных. Найти вероятность того, что среди наудачу извлеченных 2 деталей есть хоти бы одна стандартная Отв. p  44 . 45 4. В ящике 10 деталей, среди которых 2 нестандартных. Найти вероятность того, что в наудачу отобранных 6 деталях окажется не более одной нестандартной детали. Отв. `р = 2/3`. 5. Указание. Если A — нет ни одной нестандартной детали, B — есть одна нестандартная деталь, то 6. `P(A+B)=P(A)+P(B)=(C_8^6)/ (C_10^6)+(C_2^1*C_8^5)/(C_10^6)` 7. События A , B , C и D образуют полную систему. P A  0.1 ; PB   0.4 ; Вероятности событий таковы: PC   0.3 . Чему равна вероятность события D ? Отв. PD   0.2 8. По статистическим данным ремонтной мастерской в среднем на 20 остановок токарного станка приходится: 10—для смены резца; 3 — из-за неисправности привода; 2 — из-за несвоевременной подачи заготовок. Остальные остановки происходят по другим причинам. Найти вероятность остановки станка по другим причинам. Отв. `р = 0,25`. 53 9. Вероятность того, что стрелок при одном выстреле попадает в мишень, равна р = 0,9. Стрелок произвел 3 выстрела. Найти вероятность того, что все 3 выстрела дали попадание. Отв. 0,729. 10. Брошены монета и игральная кость. Найти вероятность совмещения событий: «появился герб», «появилось 6 очков» Отв. `1/12`. 11. В двух ящиках находятся детали: в первом — 10 (из них 3 стандартных), во втором — 15 (из них 6 стандартных). Из каждого ящика наудачу вынимают по одной детали. Найти вероятность того, что обе детали окажутся стандартными. Отв. 0,12. 12. В студии телевидения 3 телевизионных камеры. Для каждой камеры вероятность того, что она включена в данный момент, равна р= 0,6. Найти вероятность того, что в данный момент включена хотя бы одна камера (событие А ) Отв. 0,936 13. Чему равна вероятность того, что при бросании трех игральных костей 6 очков появится хотя бы на одной из костей (событие А)? Отв. 91 216 14. Предприятие изготовляет 95% изделий стандартных, причем из них 86%— первого сорта. Найти вероятность того что взятое наудачу изделие изготовленное на этом предприятии окажется первого сорта. Отв. 0,817 15. Монета бросается до тех пор, пока 2 раза подряд она не выпадет одной и той же стороной. найти вероятность следующих событий: а) опыт окончится до шестого бросания. б) потребуется четное число бросания. Отв. а) 2 15 б) 3 16 16. Из цифр 1,2,3,4,5 сначала выбирается одна, а затем из оставшихся четырех — вторая цифра. Предполагается, что все 20 возможных исходов равновероятны Найти вероятность того, что будет выбрана нечетная цифра: а) в первый раз; б) во второй раз; в) в оба раза Отв. а) 54 3 3 3 б) в) 7 5 5 17. Вероятность того, что при одном выстреле стрелок попадет в десятку, равна 0,6. Сколько выстрелов должен сделать стрелок, чтобы с вероятностью не менее 0,8. он попал в десятку хотя бы один раз? Отв. n  2 . 18. Три электрические лампочки последовательно включены в цепь. Вероятность того, что одна (любая) лампочка перегорит, если напряжение в сети превысит номинальное, равна 0,6. Найти вероятность того, что при повышенном напряжении тока в цепи не будет разрыва.Отв. 0,936 19. Вероятность того, что событие А появится хотя бы один раз при двух независимых испытаниях, равна 0,75. Найти вероятность появления события в одном испытании (предполагается, что вероятность появления события в обоих испытаниях одна и та же), Отв. 0,5. 20. Вероятность поражения цели первым стрелком при одном выстреле равна 0,8, а вторым стрелком — 0,6. Найти вероятность того, что цель будет поражена только одним стрелком Отв. 0,44 . 21. Отдел технического контроля проверяет изделия на стандартность. Вероятность того, что изделие нестандартно, равна 0,1 Найти вероятность того, что: а) из трех проверенных изделий только одно окажется нестандартным; б) нестандартным окажется только четвертое по порядку проверенное изделие. Отв. а) 0.243; б) 0,0729 . 55 Лекция 4 Случайные величины, классификация Теоретические и экспериментальные исследования показывают, что случайные величины являются существенным элементом любой модели, предназначенной для описания условий и результатов многих экспериментов. Пусть в результате опыта могут наступать различные сл. события, причем наступлению каждого из них можно поставить в соответствие однозначное число. Случайные события - это качественная характеристика случайного результата опыта, но случайный результат можно характеризовать и количественно.  Определение Случайная величина – величина, которая в результате опыта может принять то или иное значение, но неизвестно заранее какое именно. Случайная величина – числовая функция от случайного события, определенное обобщение понятия случайного события. Принятие случайной величиной конкретного значения представляет собой событие, все теоремы можно применять для случайных величин. Пример Число выпадания герба про бросании монеты, -ошибка при измерении, - количество транзисторов, отказывающих за некоторый промежуток времени Случайные величины обозначают заглавными буквами X , Y , Z  , а их всевозможные значения, соответственно малыми x, y, z Фундаментальные условия определения СС – непредсказуемость исхода, – и устойчивая относительная частота СС. Среди случайных величин можно выделить два основных класса:  дискретные случайные величины 56  непрерывные случайные величины.  Определение Дискретная случайная величина – величина, возможные значения которой отделимы друг от друга, принимающая конечное или счетное множество значений.  Определение Непрерывная случайная величина – величина, возможные значения которой неотделимы друг от друга и непрерывно заполняют некоторый интервал. Законы распределения случайной величины Полное описание случайной величины дает закон ее распределения.  Определение Закон распределения вероятностей случайной величины – соотношение, устанавливающее связь между вероятностями, с которыми случайная величина принимает различные значения и самими возможными значениями случайной величины.. Закон распределения может быть представлен в виде:  таблицы,  аналитической зависимости  графика. Пусть X некоторая случайная величина, которая принимает значения x1, x2 ,  , xs Вероятность того, что случайная величина X примет конкретное значение x i , обозначим P X  xi  Пример Случайная величина X число очков, выпадающих при бросании игральной кости. P X  xi   1 6 Пример Вероятности того, что студент сдаст экзамен в сессию по дисциплинам А и Б равны 0.7 и 0.9. Составить закон распределения числа экзаменов, которые сдаст студент. Решение 57 Случайная величина x – число сданных экзаменов 0,1, 2.   P  x  1  P  A  A  A  A   0.7  0.1  0.3  0.9  0.34 P  x  0   P A1  A2  0.3  0.1  0.03 1 2 2 1 P  x  2   P  A1  A2   0.7  0.9  0.63  Определение Ряд распределения - закон распределения вероятностей дискретной случайной величины, заданный в виде таблицы, в первой строке даны значения СВ, а во второй – соответствующие им вероятности. Пример. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при одном выстреле равны соответственно 0,6 и 0,7. Составить ряд распределения случайной величины Х – числа попаданий после двух выстрелов. Решение Очевидно, что Х может принимать три значения: 0, 1 и 2. Их вероятности найдены в примере, рассмотренном в лекции 3. Следовательно, ряд распределения имеет вид: xi 1 2 pi 0,12 0,46 0,42 Простейшая форма закона распределения дискретной случайной величины - ряд. Для наглядности ряд распределения представляют графически, в виде гистограмм, диаграмм.  Определение Многоугольник распределения (полигон распределения)– график, по оси абсцисс всевозможные значения случайной величины, по оси ординаты вероятности и ординаты соединены непрерывной кривой. 0,7 0,6 0,5 0,4 0,3 0,2 0,1 58 1 2 3 4  Замечание Сумма все ординат многоугольника распределения - вероятность всех значений случайной величины, и, следовательно, равна 1.  Замечание При построении многоугольника распределения надо помнить, что соединение полученных точек носит условный характер. В промежутках между значениями случайной величины вероятность не принимает никакого значения. Точки соединены только для наглядности.  Определение Многомодальное распределение (двухмодальное) – распределение, имеющее два или несколько максимумов у многоугольника распределения для дискретной случайной величины или на кривой распределения для непрерывной случайной величины. Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным  Теорема (характерное свойство многоугольника распределения) Сумма ординат многоугольника распределения или сумма всех возможных значений случайной величины всегда равна 1 is  Pxi   1 i 1 Доказательство Значения, которые может принимать сл.величина, являются событиями несовместными( в одном опыте может выпасть только одно какое-либо значение) и в совокупности составляют полную группу событий.  Замечание is  Pxi   1 - говорят единица распределена между i 1 значениями случайной «распределение». величины, отсюда и термин 59 Интегральный закон распределения  Определение Функцией распределения F(x) случайной величины X называется вероятность того, что случайная величина примет значение, меньшее x : F x   P X  x  0 P  1  P  P F x    1 2   P1  P2    Pn 1  1 x  x1 x1  x  x2 x2  x  x3 xn 1  x  xn x  xn Свойства функции распределения 1) 0  F x   1 . Действительно, так как функция распределения представляет собой вероятность, она может принимать только те значения, которые принимает вероятность. 2)Функция распределения является неубывающей функцией, то есть F  x2   F  x1  при x2  x1 . Это следует из того, что F x2   P X  x2   P X  x1   P x1  X  x2   F x1  . 3) lim F x   0, lim F x   1 . x   x   В частности, если все возможные значения Х лежат на интервале a, b , то F  x   0 при x  a и F  x   1 при x  b . Действительно, X  a – событие невозможное, а X  b – достоверное. 4) Вероятность того, что случайная величина примет значение из интервала a, b , равна разности значений функции распределения на концах интервала: 60 Pa  X  b   F b   F a  Справедливость этого утверждения следует из определения функции распределения. Для дискретной случайной величины значение F(x) в каждой точке представляет собой сумму вероятностей тех ее возможных значений, которые меньше аргумента функции. Функция распределения дискретной случайной величины имеет – ступенчата со скачками в точках возможных значений случайной величины. Высоты ступени равны в каждой точке вероятности соответствующего значения случайной величины. График функции распределения имеет ступенчатый вид:  З амеча ние Кажда я случай ная велич ина полностью определяется своей функцией распределения.  Замечание Функция распределения связана с законом распределения и является одной из форм его выражения (интегральный закон распределения). Пример Пусть X -случайное число очков, выпавших при одном бросании игральной кости. Написать интегральный закон распределения случайной величины. Решение Функция распределения (интегральный закон распределения случайной величины) имеет вид: 61 0,    x  1 1  , 1 x  2 5 1 1   , 2 x3 5 6 1 1 1 F x      , 3  x  4 5 6 6 1 1 1 1 5  6  6  6 4  x  5  1  1  1  1  1 5  x  6 5 6 6 6 6  x6 1, Числовые характеристики дискретной случайной величины В ТВ для общей характеристики случайной величины используются числовые характеристики. Они выражают наиболее существенные особенности того или иного распределения. Закон распределения полностью характеризует случайную величину. Однако, когда невозможно найти закон распределения, или этого не требуется, можно ограничиться нахождением значений, называемых числовыми характеристиками случайной величины. Эти величины определяют некоторое среднее значение, вокруг которого группируются значения случайной величины, и степень их разбросанности вокруг этого среднего значения. Характеристики положения Характеристики положения дают представление о положении случайной величины на числовой оси. К ним относятся:  Математическое ожидание 62  Мода  Медиана  Определение Математическое ожидание – величина, равная сумме произведений отдельных значений, которые может принимать переменная на соответствующие им вероятности: is x  М  X    xi  pxi  . i 1  Замечание Если X - дискретная случайная величина, принимающая счетное количество значений, то математическое ожидание существует тогда и только тогда, когда ряд сходится и при том абсолютно. Математическое ожидание – основная характеристика распределения. Она информирует о том, каков средний уровень значений, принимаемых случайной величиной. Математическое ожидание – число, около которого колеблются значения случайных величин и их средние значения по сериям опытов. Среднее арифметическое наблюдаемых значений случайной величины, при неограниченном возрастании числа испытаний, стремится к математическому ожиданию.  Определение Отклонение – - центрированная случайная величина: xi  M  X   Теорема Математическое ожидание центрированной случайной величины равно нулю. Доказательство n M  x  m x     xk  m x   pk  k 1 n n n k 1 k 1 k 1   xk  pk   m x  pk  m x  m x  pk  m x  m1 1  0 63  Замечание Отклонения противоположных знаков в среднем взаимно погашаются. Поэтому в качестве меры рассеивания берут математическое ожидание квадрата отклонения случайной величины. Свойства математического ожидания 1. Мат. ожидание линейно n  n M  ci  xi    ci  M  xi  .  i 1  i 1 2. Математическое ожидание - взвешенное среднее, так как оно приближенно равно среднему арифметическому наблюдаемых значений случайной величины при большом числе опытов. 3. Математическое ожидание не меньше наименьшего возможного значения случайной величины и не больше наибольшего. 4. Математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина 5. Математическое ожидание дискретной случайной величины X может не совпадать ни с одним из ее возможных значений. 6. Математическое ожидание постоянной равно самой постоянной M C   C Доказательство Если рассматривать C как дискретную случайную величину, принимающую только одно значение C с вероятностью p  1 , M C   C 1  C то: 7. Постоянный множитель можно математического ожидания M C  x   C  M x  64 выносит за знак Доказательство Если случайная величина x задана рядом распределения  x2  pi p2 то ряд расположения для Cx имеет вид pn  Cxn xi Cxi pi x1 p1 Cx1 p1 Cx2 p2 xn  pn 8. Математическое ожидание случайной величины определяет положение центра распределения вероятностей. 9. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий M  X  Y   M  X   M Y  10. Математическое ожидание суммы двух случайных величин (зависимых или независимых) равно сумме математических ожиданий слагаемых: M  X  Y   M  X   M Y   Замечание Одному и тому же заданному математическому ожиданию может соответствовать бесчисленное множество случайный величин, различных не только по своей природе, но и по характеру. Математическое ожидание с.в. определяет положение центра распределения вероятностей.  Определение Мода –значение случайной величины xi , имеющее наибольшую вероятность или наиболее вероятное значение. Обозначается m0 .  Определение Число называется наивероятнейшее, если вероятность осуществления этого события не меньше вероятности других событий (мода) 65 np  q  m0  np  p  Определение Медиана - такое значение случайной величины, что выполняется условие. 1 P( X  x1 )  P( X  x1 )  2 2 2 Обозначается медиана ME . Геометрически медиана – абсцисса точки, в которой площадь, ограниченная кривой распределения делится пополам.  Замечание Все три характеристики (математическое ожидание, мода и медиана) не совпадают.  Замечание Если распределение симметрично и модальное (имеет одну моду), то все они характеризуются одним положением и совпадают.  Пример Если ряд распределения дискретной случайной величины Х имеет вид: x 1 2 3 4 p 0.1 0.7 0.15 0.05 то мода M 0  2 .  Замечание Если распределение одномодальное, то мода и медиана совпадают с математическим ожиданием.  Пример Рассмотрим две случайные величины: X и Y , заданные рядами распределения вида X 49 50 51 Y 100 p 0.1 0.8 0.1 p 0.5 0.5 Найти математическое ожидание дискретных случайных величин. Решение 66 M  X   49  0.1  50  0.8  51  0.1  50 , M Y   0  0.5  100  0.5  50 . M  X   M Y  , но если для случайной величины X M x  хорошо описывает поведение случайной величины, являясь ее наиболее вероятным возможным значением, то значения Y существенно отстоят от M  y  . Следовательно, наряду с математическим ожиданием желательно знать, насколько значения случайной величины отклоняются от него, т.е. дисперсию. Характеристики рассеивания Значения наблюдаемых в практике с.в. всегда колеблются около среднего значения. Это явление называется рассеиванием величины около ее среднего значения. Числовые характеристики, описывающие это явление называются характеристиками рассеивания и основные из них дисперсия и среднее квадратичное отклонение. Само слово дисперсия – «рассеивание».  Определение Дисперсией– называется математическое ожидание квадрата разности с.в. и ее мат.ожидания   is D X   M  x  mx 2    xi  mx 2  p xi  i 1 Дисперсия – сумма квадратов возможных отклонений с.в. от ее среднего значения, взятых с «весовыми» коэффициентами, равными вероятностям соответствующих отклонений. Или Дисперсия – математическое ожидание квадратов отклонений с.в. от ее среднего значения, количественная характеристика распределения с.в. Дисперсия, как и математическое ожидание являются величиной не случайной. 67 Таким образом, дисперсия – характеристика возможных отклонений с.в. от ее среднего значения. Чем большие отклонения в обе стороны от среднего значения возможны у данной с.в. и чем больше вероятности таких отклонений, тем больше дисперсия с.в. В частном случае, когда среднее значение равно нулю, дисперсия характеризует разброс значений с.в. в обе стороны от нуля.  Теорема Дисперсия разность математического ожидания квадрата сл.в. и квадрата мат. ожидания с.в.   D X   M X 2  M 2  X  Доказательство n n n k 1 k 1 k 1 D x    x k  m x 2  p k   x 2k  p k  2  x k  m x  p k  n n n k 1 k 1 k 1 n  m 2k  pk  k 1       x 2k  p k  2 m x  x k  p k  m 2k  p k  M x 2  2m x  m x  m x2  M x 2  m 2x  Теорема нулю: Дисперсия постоянной величины С равна Dc   0 Доказательство Dc   M c  c 2  M 0  0  Теорема Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат DcX   c 2 D X   Доказательство     M c  X  M  X    c M  x  M  x    c D X  DcX   M cX  M cX 2  M cX  cM  x 2  2 68 2 2 2 2 Дисперсия суммы двух независимых случайных величин равна сумме их дисперсий: D X  Y   D X   DY  Дисперсия разности двух независимых случайных величин равна сумме их дисперсий: D X  Y   D X   DY   Замечание В определении дисперсии оценивается не само отклонение от среднего, а его квадрат. Это сделано для того, чтобы отклонения разных знаков не компенсировали друг друга.  Замечание Из определения дисперсии следует, что эта величина принимает только неотрицательные значения.  Замечание Существует более удобная для расчетов формула для вычисления дисперсии   D X   M X 2  M 2  X  Пример Известны законы распределения сл.в. X , Y - числа очков выбиваемых 1, 2 стрелком. Какой из стрелков стреляет лучше. 1 – имеет большие вероятности при крайних случаях, у 2 – промежуточные значения. Стреляет лучше тот, кто в среднем выбивает большее количество очков. Это среднее количество и есть математическое ожидание. Но, если среднее число выбиваемых очков одинаково, тогда лучше стреляет тот, у кого меньше отклонения (разброс, вариация, рассеяние) этого числа относительно среднего значения. А это и есть дисперсия. В нашем примере D( X )  D(Y ) , следовательно 2 стрелку нужно сместить «центр» распределения числа выбиваемых очков, научиться лучше целиться в мишень.  Определение Среднеквадратическое отклонение корень квадратный из дисперсии   D X  . – 69 Пользоваться среднеквадратичном отклонением удобнее, т.к. это величина имеет размерность самой с.в.  Замечание Чем меньше рассеиваются значения с.в., тем точнее можно их предсказать.  Замечание В финансовом анализе имеют большое значение характеристики мат.ожидание и дисперсия. X - распределение доходности некоторого актива (например акции), тогда M ( X ) - средняя (прогнозная) доходность актива, а D( X ) - мера отклонения, колебания доходности от ожидаемого среднего значения, т.е. риск данного актива  Определение Начальным моментом k - порядка сл.величины Х называется математическое ожидание k степени этой величины.  k  M  X k    xik  pi n i 1  Определение Центральным моментом k - порядка сл.величины Х называется математическое ожидание k степени отклонение сл.величины Х от ее мат.ожидания. n k  M  X  M  X      xi  a   pi k k i 1  Замечание k  1 - первый начальный момент – мат.ожидание, k  2 - второй центральный момент – дисперсия. Параметры формы Если распределение не является симметричным, то можно оценить асимметрию кривой распределения с помощью центрального момента 3-го порядка. Действительно, для симметричного распределения все нечетные центральные моменты равны 0 ( как интегралы от 70 нечетных функций в симметричных пределах), поэтому выбран нечетный момент наименьшего порядка, не тождественно равный 0.  Определение Коэффициент ассиметрии случайной .величины -числовая характеристика ассиметрии распределения A 3  3 Если A  0 , то распределение симметрично относительно мат.ожидания.  Замечание Третий центральный момент – служит для характеристики ассиметрии распределения. Для оценки поведения кривой распределения вблизи точки максимума (для определения того, насколько «крутой» будет его вершина) применяется центральный момент 4-го порядка  Определение Эксцесс - числовая характеристика крутости распределения E 4  4 3 . Эксцесс — показатель, который используется для характеристики островершинности фактического распределения по отношению к нормальному распределению. Для оценки эксцесса распределения используется четвертый центральный момент для двух типов данных  Замечание Четвертый центральный момент – служит для характеристики крутости распределения. 71 E0 E 0 E0 Вероятность попадания дискретной величины в заданный интервал случайной Пусть задан закон распределения некоторой случайной величины X .Определим вероятность того, что случайная величина попадет в интервал a, b  Pa  X  b   i  Pxi  i  где  - выбирается так, чтобы x  a , x - равное или ближайшее после a значение случайной величины,  выбирается так, чтобы x  b , x ближайшее значение сл.величины слева от b . Контрольные вопросы Дайте определение дискретной случайной величины. 2. Какими способами можно задать дискретную случайную величину? 3. Функция распределения. Свойства функции распределения. График функции распределения. 1. 72 Плотность распределения. Свойства распределения 5. Нахождение функции распределения по плотности распределения. 6. .Дайте определение математического дискретной случайной величины. Назовите математического ожидания. 7. Определение дисперсии дискретной величины. Формула для вычисления дисперсии. дисперсии. 4. плотности известной ожидания свойства случайной Свойства 73 Лекция 5 Законы распределения дискретной случайной величины Двухточечное распределение Пусть вероятность некоторого случайного события A равна , p где 0  p  1 . X - сл.вел. – число наступлений сл. события A в одном испытании. X - сл.вел может принять одно из двух значений 0 – если сл. событие A не наступило, 1 – если оно произошло. Закон распределения вероятностей сл. вел., имеющей двухточечное распределение можно записать следующим образом: PX  0  1  p PX  1  p Математическое ожидание этой случайной величины будет M X   0  1  p   1  p  p Дисперсия   D X   M X 2  M 2  X    M X 2  0  1  p   1  p  p D X   p  p 2  p  1  p  Двухточечное распределение редко применяется непосредственно, но его можно представить как суммы сл. вел., имеющих двухточечное распределение. 74 Распределение выборочного значения признака Рассмотрим пример. Пусть в университете обучаются N студентов. В качестве выборочного признака возьмем количественный признак- размер обуви. Обозначим его xk . после обследования всех студентов, получили следующие результаты, которые занесены в таблицу, где 1-ый столбик- xk , 2-ой- количество студентов с данным количественным признаком (размером обуви): x1 x2 M1 M2 … xk … Mk k  Mi  N i 1 Вероятность того, что y наудачу выбираемого студента размер обуви будет равен xi , вычислим по классической формуле P  X  xi   Mi , N где M i - количество студентов с данным размером обуви. Получим ряд распределения ДСВХ - размера обуви всех студентов университета: xi pi x1 p1 x2 p2 … xk … pk k  pi  1 i 1 Пример: Подбрасывают два кубика. Составить ряд распределения ДСВХ- сумма очков на двух кубиках. 75 Решение Выборочный количественный признак- сумма очков на кубиках. Общее количество исходов по правилу умножения n  6  6  36 . Всевозможные значения ДСВХ: все натуральные числа от 2-х до 12. Найдем количество благоприятствующих исходов для каждого значения ДСВХ: X  2: m  1; X  3 : m  2 ; X  4: m  3; X  5 : m  4 ; X  6: m  5; X  7 : m  6 ; X  8 : m  5; X  9 : m  4 ; X  10 : m  3 ; X  11 : m  2 ; X  12 : m  1 . Сумма всех mi равна 36. Находя отношения ряд распределения: 3 4 5 xi 2 pi 1 36 2 36 3 36 4 36 m , вычислим вероятности и заполним n 6 7 8 9 10 11 12 5 36 6 36 5 36 4 36 3 36 2 36 1 36 По полученному ряду распределения можно построить многоугольник распределения, вычислить числовые характеристики, построить интегральную функцию распределения, используя методы и формулы описанные в предыдущем параграфе. Биноминальное распределение (закон Бернулли) Данное распределение описывает весьма характерную для практики ситуацию последовательного осуществления ряда независимых опытов с одинаковыми возможными исходами при каждом из них. Например, если производится группа выстрелов по одной и той же цели, нас интересует не результат каждого выстрела, о общее число попаданий. 76 Подобно династиям монархов, существовала знаменитая династия ученых Бернулли - их даже звали, как королей: Якоб I, Иоганн I, Даниил I... Эти трое - математики и механики - снискали наибольшую известность. Всего в семье было 11 детей Якоб Бернулли доказал частный случай важнейшей теоремы теории вероятностей - закона больших чисел (названный позднее закон Пуассона). Он был опубликован после смерти Якоба Бернулли в его книге 'Искусство предположений' (1713). Через 200 лет та часть книги, что относилась к закону больших чисел, была переведена на русский язык Я.В.Успенским и издана в Петербурге под редакцией академика А.А.Маркова. Пусть вероятность наступления некоторого случайного события A при единичном испытании равна p , производится n - испытаний и в каждом из них случайное событие A может наступить с вероятностью p . Отдельные испытания независимы одно от другого. Это означает, что наступление (или ненаступление) случайного события A в данном испытании не влияет на вероятность наступления этого события в последующих испытаниях. Данное распределение описывает весьма характерную для практики ситуацию последовательного осуществления ряда независимых опытов с одинаковыми возможными исходами при каждом из них. Например, если производится группа выстрелов по одной и той же цели, нас интересует не результат каждого выстрела, о общее число попаданий. Найдем вероятность PX  m - вероятность того, что событие A наступит в m испытаниях. Для того чтобы X  m необходимо и достаточно, чтобы событие A наступило в m испытаниях, и не наступило в n  m испытаниях. Так как по условию испытания независимы, то в соответствии с теоремой об умножении вероятностей независимых событий 77 p m  1  p n  m - вероятность того что событие A наступило в m испытаниях, и не наступило в n  m испытаниях, если заранее установлено, в каких испытаниях событие произойдет, а в каких нет. Но так как, безразлично произойдет ли событие A в 1, 3 или 5 испытании – лишь бы общее число наступлений его было m , то необходимо учесть все порядки наступления события A . Число таких порядков есть Сnm Таким образом, закон распределения будет PX  m  Cnm  p m  1  p n  m где m  0,1,, n , n -известное количество всех проведенных испытаний, m -число тех испытаний, в которых произошло событие A , p -вероятность появления события A в одном опыте.  Определение ДСВХ, которая может принимать только целые неотрицательные значения с вероятностью Pn m   P X  m   Cnm p m q n  m , где p  q  1 , m  0,1,2,3,  , n , называется распределенной по биноминальному закону, а p - параметром биноминального распределения. Ряд распределения случайной величины, подчиненной биномиальному закону, можно представить в следующем виде: X m Pn m  1 Cn0 p 0 q n Cn1 p1q n 1 Функция формулой распределения … … в k nk … … случае определяется k Cnk этом p q 0 x0  m m nm 0 xn F  x   Cn p q 1 xn  78 n Cnn p n q 0 При значениях p близких к 0 , весьма вероятны малые значения X т.е. весьма вероятны малые числа наступлений случайного события A . При значениях p близких к 1 , весьма вероятны значения X , близкие к n т.е. весьма вероятно, что сл. событие A наступит почти во всех испытаниях  Замечание Формула Бернулли совпадает с общим членом бинома Ньютона  p  q  n  p n  C n1  p n1  q  C n2  p n2  q 2    C nn1 p  q n1  q n  Замечание При p  1 - распределение симметрично, 2 при остальных ассиметрично. Пример Пассажиру удобно, когда все его попутчики лица одного пола, что и он. Сколько % таких пассажиров попадают в удобные условия. Решение Каждый пассажир покупает билет независимо от других людей. Мужчин, путешествующих, столько же сколько и женщин. Опыт – продажа одного билета. Событие A - пассажир мужчина. p A  0.5 , P4 4  P4 0  0.0625 P  P4 4  P4 0  0.125 , 12% пассажиров попадают в удобные условия. Пример Составим ряд распределения случайной величины X – числа попаданий при 5 выстрелах, если вероятность попадания при одном выстреле равна 0,8. p X  0  1  0.25  0.00032 ; p X  1  1  0.24  0.0064 ; p  X  2   10  0.82  0.2 3  0.0512 ; p X  3  10  0.83  0.22  0.2048 ; p X  4   5  0.84  0.2  0.4096 ; p X  5  1  0.85  0.32768 . 79 Таким образом, ряд распределения имеет вид: X p 0.00032 1 2 0.0064 0.0512 3 0.2048 4 0.4096 5 0.32768 Пример Определить вероятность того, что в семье, имеющей 5 деталей, будет не больше трех девочек. Вероятности рождения мальчика и девочки предполагаются одинаковыми. Решение Вероятность рождения девочки p  1 1 , тогда q  .Найдем 2 2 вероятности того, что в семье нет девочек, родилась одна, две или три девочки: 5 1 , P5 1  C51 p1q 4  , 32 32 10 10 , P5 3  C53 p3q 2  . P5 2  C52 p 2q3  32 32 P5 0  q5  Следовательно, искомая вероятность P  P5 0   P5 1  P5 2   P5 3  Числовые характеристики 13 . 16 биноминального распределения Математическое ожидание M X   n n m0 m0  m  PX  m   m  Cnm  p m  1  pn  m  np Если вероятность наступления некоторого сл. события в единичном испытании равна p , то при n испытаниях число наступлений его в среднем должно быть np Дисперсия D X   np  1  p   npq 80 Дисперсия имеет максимальное значение при p  наоборот, чем более p отличается от p  1 , и 2 1 , тем дисперсия 2 меньше. Вывод: Для того чтобы случайная величина была распределена по закону Бернулли необходимо, чтобы все контролируемые факторы были неизменные, а испытания не должны зависеть друг от друга. Вероятность попадания ДСВХ, распределенной по биноминальному закону в k1 , k 2  . Рассмотрим теперь вероятность попадания ДСВХ, распределенной по биноминальному закону в некоторый интервал k1 , k 2 . По теореме сложения несовместных событий, вероятность того, что событие A появилось в n испытаниях от k1 до k 2 раз, равна Pn k1 , k 2    Cnm p m q n  m k1  m  k 2 Наивероятнейшее значение случайной величины Пусть в одном испытании вероятность появления события A равна P A  p . Производится n таких испытаний. Будем считать, что исход каждого из n испытаний не зависит от исхода предшествующего испытания, то есть от того наступило ли событие A в предыдущем испытании или нет. Такие испытания называются независимыми относительно события А. В каждом из n испытаний вероятность появления события A вообще говоря может быть различной или одинаковой. Будем считать, что условия каждого испытания организованы одни и те же для того, чтобы событие A могло 81 появиться в каждом из них с одной и той же постоянной вероятностью p . Испытания, проведѐнные по такой схеме, то есть повторные независимые испытания с постоянной вероятностью появления события A называются испытаниями, проведѐнными по схеме Бернулли. Заметим, что P А в одном испытании     P А  1  P  A  1  p  q  Определение Наивероятнейшее значение случайной величины k0 – число испытаний, при котором достигается максимальная вероятность в n независимых испытаниях np  q  k0  np  p  Замечание Наивероятнейшее значение k 0 числа наступления события A при проведении n повторных независимых испытаний, удовлетворяющих схеме Бернулли, является целым числом. Пример Вероятность того, что стрелок при одном выстреле попадет в мишень равна 0,8. Стрелок произвел 7 выстрелов. Найти а) наивероятнейшее число попаданий в мишень; б) вероятность наивероятнейшего числа попаданий в мишень. Решение Эксперимент состоит в том, что стрелок последовательно производит 7 выстрелов по мишени, т.е. проводится 7 повторных независимых испытаний (количество испытаний конечно). Каждое испытание имеет два исхода: стрелок попал в мишень и стрелок не попал в мишень. Вероятность попадания в мишень в каждом испытании постоянно. Каждое испытание является независимым, так как по условию задачи вероятность попасть в мишень при одном выстреле (испытании) является величиной постоянной и не зависит от других испытаний. 82 Следовательно, указанный эксперимент удовлетворяет схеме Бернулли (схема Бернулли выполняется). a). По условию имеем: n  7 - число выстрелов (число испытаний в эксперименте); p  0.8 - вероятность попасть в мишень при одном выстреле (вероятность «успеха»); q  1  p  1  0.8  0.2 - вероятность не попасть в мишень при одном выстреле (вероятность «неудачи»). Найдем наивероятнейшее число k 0 числа попаданий в мишень по формуле: np  q  k0  np  p . Тогда, 7  0.8  0.2  k0  7  0.8  0.8 Или 5.4  k0  6.4 . Так как наивероятнейшее число есть целое число, то наивероятнейшее число попаданий в мишень равно 6, то есть k0  6 . б). Рассмотрим событие F – из 7 выстрелов стрелок попадет в мишень ровно 6 раз. По условию имеем: n  7 - число выстрелов (число испытаний в эксперименте); p  0.8 - вероятность попасть в мишень при одном выстреле (вероятность «успеха»); q  1  p  1  0.8  0.2 - вероятность не попасть в мишень при одном выстреле (вероятность «неудачи»); k  6 – число попаданий в мишень. Найдем вероятность события F , то есть PF  используя формулу Бернулли (1), так как эксперимент проводится по схеме Бернулли: Pn k   Cnk p k q n  k . Тогда, подставляя исходные данные, получим искомую вероятность PF   P7 6   C76  0.86  0.27  6  C77  6  0.86  0.21   C71  0.86  0.2  7  0.262144 0.2  0.3670016 0.367 83 При вычислении числа сочетаний C76 воспользовались известным свойством Cnk  Cnn  k Ответ: а) k 0  6 ; б) PF   0.367 Закон Пуассона Закон Пуассона используют в технических исследованиях, действует в теории помехозащищенности, теории надежности. Пуассон Симеон Дени 1781-1840-выдающийся французский ученый, один из создателей современной математической физики, уже в двадцать лет Пуассон сделал свои первые математические работы, сразу принесшие ему известность . Написал свыше 350 работ в области небесной механики, механики, определенных интегралов, дифференциальных уравнений, рядов, теории вероятностей, статистики. Ввел термин «закон больших чисел» . Он уделял большое внимание применениям теории вероятностей в уголовном судопроизводстве. Один из его трактатов называется «Исследования о вероятности приговоров в уголовных и гражданских делах», трактат «О преимуществе банкира при игре в тридцать и сорок».  С помощью открытой им же формулы можно, подсчитать вероятность того, что в коллективе, состоящем из 1999 человек, ровно k человек родились в тот же день, что и Пуассон ( k = 0,1,2,3,4,....).  Можно вычислить как распределены опечатки в какойнибудь книге при условии, что существует постоянная вероятность того, что любая буква будет набрана наборщиком неправильно. Наблюдается некоторое случайное событие, вероятность наступления которого в единичном испытании есть p . Отдельные испытания независимы друг от друга, так что, наступление данного события в одном испытании не влияет на вероятность наступления этого события в других испытаниях. Эта вероятность находится по формуле Бернулли. 84 Пусть вероятность в единичном испытании есть p . – весьма мала и что число испытаний весьма велико. Т.е.   np - есть постоянное, не слишком большое число.  m  PX  m  e m! Закон Пуассона.   np - параметр Пуассона. m - число тех опытов, в которых произошло СС, m является случайной величиной в законе Пуассона. PX  m вероятность того, что СС произойдет ровно m раз.  Определение ДСВХ, которая принимает целые неотрицательные значения с вероятностями, PX  m  m m! e вычисляемыми по формуле Пуассона:, называется распределенной по закону Пуассона, где   np - параметр распределения.  Замечание При большом числе испытаний n и малой вероятности p формулой Бернулли пользоваться неудобно, например, 0.97 999 вычислить трудно. В этом случае для вычисления вероятности того, что в n испытаниях ( n – велико) событие произойдет k раз, используют формулу Пуассона. Эта формула дает удовлетворительное приближение для p  0.1 и np  10 . При больших np рекомендуется применять формулы Лапласа (Муавра-Лапласа). Числовые распределения характеристики пуассоновского Математическое ожидание и дисперсия M X   np   DX   np   85 Отличительная особенность данного распределения состоит в том, что математическое ожидание и дисперсия равны параметру распределения   X   np , т.е. M  X   np  D X  . Это свойство часто применяют на практике для решения вопроса, правдоподобна ли гипотеза о том, что сл. величина распределена по закону Пуассона. Для этого определяют из опыта мат. ожидание и дисперсию. Если их значения близки, то это пуассоновское распределение. Распределение Пуассона находит широкое применение в статистическом контроле качества продукции. Один из методов контроля состоит в том, что в небольших контрольных партиях, случайно отобранных из готовой продукции, выясняется число X дефектных изделий в каждой партии. Это число есть случайная переменная с распределением Пуассона. Параметр Пуассона – среднее число дефектных изделий, обнаруженных в партиях Свойства распределения Пуассона 1. Вероятность того, что событие не появится ни разу при m0 P0   e   2. Вероятность того, что событие появится хотя бы один раз .P 1  1  P0  1  e  - 3. Вероятность того, что сл. величина примет значение не меньшее заданного k P X  k   Pk  Pk 1    1  P0  P1    Pk 1  4. Закон Пуассона приближенное выражение формулы Бернулли, когда число опытов велико, а вероятность 86 наступления события в каждом из них мала (закон Пуассона асимптотичен закону Бернулли). От этого свойства закона Пуассона – выражать биноминальное распределение при большом числе опытов и малой вероятности события происходит и его другое название закон редких явлений. Изучается редкий случай, когда вероятность появления случайного события в одном испытании p  1 . Теоретически считается, что p  0 . Рассмотрим примеры решения задач на применение биноминального закона и закона Пуассона. Пример В партии, содержащей 30 деталей имеется 20 стандартных. Наудачу выбирают три детали с возвращением. Составить ряд распределения ДСВХ- количество стандартных деталей среди отобранных. Решение: ДСВХ имеет биноминальное распределение, т.к. вероятность появления стандартной детали в каждом испытании - отбора детали, постоянна и равна 20 . Возможные значения ДСВХ: 30 0,1,2,3 . Найдем по формуле Бернулли вероятность появления каждого из возможных значений: P X  0 2  C30   3 1 1 1     1 1   27 27  3 3 1 2 2 1 2  2 1 P X  1  C31       3    3 9 9  3 3 P X  2 2  C32   P X  0 2  C33   2 4 1 4 1    3   9 3 9  3 3 3 8 8 1     1  1  27 27  3 3 Проверка: 1 2 4 8    1 27 9 9 27 87 Ряд распределения имеет вид: 1 X p 1 27 2 9 2 3 4 9 8 27 Найдем числовые характеристики : M  X   np  3  2 1 2 D X   3    3 3 3 2 2 3  X   2  0.8165 3 Пример АТС производит в среднем 2000 соединений в час. Вероятность неверного соединения равна 0,001. Какова вероятность того, что за час неверных соединений будет а) ровно три; б) менее трех; в) более трех. Решение Число n  2000 - велико, вероятность p  0.001 - мала и рассматриваемые события (неверные соединения) независимы, поэтому имеет место формула Пуассона Pn k   а) Найдем параметр  : np  2000  0.001  2 . а) Найдем вероятность того, что будет неверных соединения:  k  e  k! ровно 3 ( k  3 ) e 2  0.0226 3! б) Найдем вероятность того, что будет менее трех неверных соединений: e 2 P2000 0  P2000 1  P2000 2  e  2  e  2   0.338 2 в) Найдем вероятность P того, что будет повреждено более трех изделий. События «повреждено более трех изделий» и «повреждено не более трех изделий» (обозначим вероятность этого события через q)—противоположны, поэтому p  q  1 . P2000 3  88 Отсюда: P2000  1  P2000 0  P2000 1  P2000 2  P2000 3   1  0.338  0.0226  0.6394 Пример. Завод выпускает 96% изделий первого сорта и 4% изделий второго сорта. Наугад выбирают 1000 изделий. Пусть Х – число изделий первого сорта в данной выборке. Найти закон распределения, математическое ожидание и дисперсию случайной величины X . Решение Выбор каждого из 1000 изделий можно считать независимым испытанием, в котором вероятность появления изделия первого сорта одинакова и равна р = 0,96. Таким образом, закон распределения может считаться биноминальным. mx  pn  1000  0,96  960; Dx  npq  1000  0,96  0,04  38,4; 89 Контрольные вопросы Что называется биноминальным законом? Какие значения принимает ДСВХ? Записать формулы для вычисления числовых характеристик. 2. Когда применяются теоремы Муавра- Лапласа? При каком условии приближенные формулы дают более точный результат? 3. В каком случае применяется закон распределения Пуассона и в чем состоит его особенность? 4. Какое распределение называется геометрическим? Какие значения может принимать ДСВХ? Почему распределение называется геометрическим? Чем отличаются ряды распределения в случае, если число испытаний неограниченно и в случае, если - ограниченно? 5. Какое распределение называется биномиальным? 6. Какое распределение называется распределением Пуассона? 7. Какое распределение называется равномерном? 8. Какая формула используется для вычисления вероятности того, что в n испытаниях событие А появится ровно m раз при малом числе испытаний? 9. Какая формула используется для вычисления вероятности того, что в n испытаниях событие А появится ровно m раз при большом числе испытаний и вероятности p, отличной от 0 и 1? 10. Какая формула используется для вычисления вероятности того, что в n испытаниях событие А появится ровно m раз при большом числе испытаний и малой вероятности p? 11. Какая формула используется для вычисления вероятности того, что в n испытаниях событие А появится от a до b раз при большом числе испытаний и вероятности p, отличной от 0 и 1? 1. 90 Лекция 6 Непрерывные случайные величины В противоположность дискретной случайной величине совокупность возможных непрерывных значений случайной переменной не только неконечна, но и не поддается счислению.  Определение Непрерывная случайная величина (НСВ) случайная величина, которая может принимать все значения из некоторого конечного или бесконечного промежутка.  Пример Диаметр изготавливаемой детали на станке непрерывная случайная величина, т.к. возможны отклонения изза возникающих погрешностей ввиду температурных изменений, силы трения, неоднородности материала и т.д., а диаметр может принять любое значение из промежутка c, d  .  Замечание Множество возможных значений непрерывной случайной величины бесконечно и несчетно. Функция распределения непрерывной случайной величины Непрерывную случайную величину, так же как и ДСВ, можно задать с помощью функции распределения, которая равна вероятности того, что СВХ приняла значение меньшее заданного х. Она полностью характеризует случайную величину и является одной из форм закона распределения, а именно: F ( x)  x  f ( x)dx  где f ( x) - функция плотности, F ( x) .-функция распределения или интегральный закон распределения. Функция распределения непрерывной величины всюду непрерывна. По виду функции распределения трудно судить о характере распределения случайной величины в небольшой окрестности той или иной точки числовой оси. 91 Функция величины плотности непрерывной случайной Законом распределения вероятностей непрерывной случайной величины – называют зависимость плотности от x . В такой форме закон распределения вероятностей непрерывной случайной величины называется дифференциальным.  Определение Функция f (x) , называемая плотностью распределения непрерывной случайной величины, определяется по формуле: f ( x)  F x  , где F  x  - функция распределения.  Замечание Смысл функции плотности распределения состоит в том, что она показывает как часто появляется случайная величина X в некоторой окрестности точки x при повторении опытов. Из геометрического смысла определенного интеграла следует, что вероятность попадания НСВХ в заданный интервал равна площади криволинейной трапеции, ограниченной осью абсцисс, прямыми x  a и x  b графиком функции f (x) который называется кривой распределения вероятностей. Т.к. в результате опыта случайная величина обязательно примет какое - либо из возможных значений, то :   f ( x)dx  1  или b  f ( x)dx  1 a -условие нормировки плотности. 92 Свойства функции плотности распределения. 1) Функция плотности неотрицательна f ( x)  0 , так как функция распределения является неубывающей. 2) Функция распределения F x   x  f t dt ,  что следует из определения плотности распределения. 3) Вероятность попадания случайной величины в интервал a, b  определяется формулой b pa  X  b    f  x dx a Действительно, P  a  x  b   F b   F  a   b  a f  x  dx     b f  x  dx   f  x  dx a 4) Условие нормировки   f x dx  1   Его справедливость следует из того, что а lim F  x   1 .  f x dx  F    ,  x   5) lim f x   0 так как F x   const при x   . x   Таким образом, график плотности распределения представляет собой кривую, расположенную выше оси Ох. Эта ось является ее горизонтальной асимптотой при x   (последнее справедливо только для случайных величин, множеством возможных значений которых является все множество действительных чисел). 93 Площадь криволинейной трапеции, ограниченной графиком этой функции, равна единице.  Замечание. Если все возможные значения непрерывной случайной величины сосредоточены на интервале [a, b], то все интегралы вычисляются в этих пределах, а вне интервала [a, b] f ( x)  0 . Пример Плотность распределения непрерывной случайной величины задана формулой f x   C 1 x2 ,    x   Найти: а) значение константы C ; б) вид функции распределения; в)вероятность попадания в интервал p 1  x  1 . Решение. а) значение константы С найдем из условия нормировки:   C    1  x 2 dx  C  arctgx    C 2  2   C  1  откуда значение константы равно C  б) F x   вид 1 x 1 1  . функции x 1 распределения  1 1 1 dt  arctgt   arctgx    arctgx       1  t 2  2  2 в) вероятность попадания в интервал p 1  x  1 p 1  x  1  1  1 1 1 1  1 Пример Функция распределения случайной величины имеет вид: 94 1   1  x 2 dx   arctgx  1    4  4   0.5 непрерывной x2 0, x  2  F x    ,2 x4  2 x4 1, Найти плотность распределения. Решение Плотность распределения определяется по формуле: f ( x)  F x  , где F  x  - данная функция распределения. x2 0, 0, x  2 x  2   f x    , 2  x  4  0.5, 2  x  4  2 0, x  4  x4 1, Числовые характеристики непрерывной случайной величины  Определение Мода – числовая характеристика, определяющая наиболее вероятностное значение для непрерывной случайной величины, то значение, в котором плотность максимальна. Обозначается M 0 .  Определение Медиана Me – числовая характеристика, для которой одинаково вероятно окажется ли случайная величина меньше или больше Me P X  Me  P X  Me  Замечание Геометрически медиана – это абсцисса точки, в которой площадь, ограниченная кривой распределения, делится пополам. В случае симметричного модального распределения медиана совпадает с математическим ожиданием и модой. 95  Определение Математическое ожидание M x  непрерывной случайной величины x , возможные значения которой принадлежат отрезку a, b - числовая характеристика, выраженная определенным интегралом M x     x  f x dx  Здесь предполагается, что несобственный интеграл сходится абсолютно, т. е. существует.  Определение Дисперсия непрерывной случайной величины X - числовая характеристика возможные значения которой принадлежат отрезку a, b , вида: D x    2  x  M x  f xdx  При вычислении пользоваться формулой дисперсии НСВХ также можно   Dx   M x 2  M x 2  Определение Среднее квадратическое отклонение числовая характеристика, равная корню квадратному из дисперсии  x   Dx  . Свойства математического ожидания и дисперсии НСВХ аналогичны свойствам числовых характеристик ДСВХ. Пример. НСВХ задана интегральной функцией 0; x  1; 1 1  F x    x  ;  1  x  3; 4 4 1; x  3 Найти вероятность того, что НСВХ примет значение из интервала(-2;2). Решение: 96 Т.к. значения НСВХ распределены на интервале (-1;3) и левее данного интервала F(x)=0, то интервал (-2;2) заменим на интервал (-1;2), тогда P 1,2  1 1 1 1 3  2      1    4 4 4 4 4 Пример НСВХ задана плотностью распределения   0, x   2     p x   a  cos x,   x  2 2    0, x  2    Найти вероятность попадания в интервал    ;  . 4  Решение: b Найдем коэффициент а из условия  px dx  1 a   2   a  cos x  a  sin x  2  2   2a  1,  a  1 2 2    ; ,  2 2 Все значения НСВХ распределены на интервале   тогда задача сводится к вычислению вероятности попадания    ; :  2 4 НСВХ в интервал   97      1 P  ;    2 4 2 1 4  1  2  1  0.8536 cos xdx  sin x    2  2 2     2 2 2 Пример F x  1 x 6 Задан график интегральной функции распределения НСВХ (парабола с вершиной в начале координат). Задать НСВХ аналитически. Найти плотность распределения px  и построить график, вероятность попадания в интервал (-2;4), числовые характеристики. Решение Все значения НСВХ распределены на интервале (0;6). На данном интервале графиком функции F x  является парабола, уравнение которой y  kx2 . Найдем k , подставив в уравнение параболы координаты точки (6;1): 1  36  k , откуда k  1 . 36 Тогда интегральная функция имеет вид: 0, x  0; 1  F x     x 2 , 0  x  6;  36 1, x  6. Плотность распределения интегральной функции: 98 равна первой производной 0, x  0; 1  F x     x, 0  x  6; 18 0, x  6. Построим ее график: Вычислим вероятность попадания НСВХ в интервал (-2;4). Т.к. левее х=0 вероятность равна нулю, вычислим вероятность попадания в интервал (0;4): P0,4  1 16 16   0.44 36 36 Найдем числовые характеристики: 6 1 x 3 6 63 2 M x   x dx    4, 18 0 54 0 54   6 1 x 4 6 63 3 M x x dx   4, 18 0 72 0 54 2   Dx   M x 2  M x 2  18  16  2 ,  x   2  1.41. Вероятность попадания в интервал b P  a  X  b    f ( x)dx  F (b)  F (a) a Если надо найти вероятность того, что случайная величина превысит заданное значение или меньше какого-то значения, то необходимо верхний предел положить  или нижний   99 Контрольные вопросы Сформулировать определение непрерывной случайной величины. 2. Что такое плотность распределения вероятностей? 3. Каким свойством обладает плотность распределения вероятностей? 4. Какими свойствами обладает функция распределения непрерывной случайной величины? 5. Как найти интегральную функцию, зная плотность распределения и наоборот? 6. Перечислить свойства интегральной функции. 7. Дать определения числовым характеристикам НСВХ. 8. В чем различие между дискретной и непрерывной случайными величинами? 9. Как можно задать случайные величины? 10. Чем можно охарактеризовать случайные величины? 11. В чем смысл математического ожидания случайной величины? 12. Что характеризует дисперсия случайной величины? 1. Задачи для самостоятельного решения Плотность равномерного распределения сохраняет в интервале (а, b) постоянное значение, равное С; вне этого интервала f(x)=0. Найти значение постоянного параметра С. 2. Закон равномерного распределения задан плотностью вероятности f(x)=1/(b—а) в интервале (а, b); вне этого интервала f(x)=0. Найти функцию распределения F (х). 3. Найти математическое ожидание случайной величины X, равномерно распределенной в интервале (а, b). 4. Найти математическое ожидание случайной величины, X, распределенной равномерно в интервале (2, 8). 5. Найти дисперсию и стандартное отклонение случайной величины X, распределенной равномерно в интервале (a, b). 6. Найти дисперсию и стандартное отклонение случайной величины X, распределенной равномерно в интервале (2, 8). 1. 100 Равномерно распределенная случайная величина Х задана плотностью распределения f(x)= 1/(2l) в интервале (а-1, а+l); вне этого интервала f(x)=0. Найти математическое ожидание и дисперсию X. 8. Диаметр круга х измерен приближенно, причем а K кр   или  K  K кр   .     3. Находим K набл . Если K набл  K кр или K набл  K кр – отвергаем H 0 .. В противном случае принимаем H 0 с уровнем значимости  . 197 Если критерий выбираются,   K  K кр   двусторонний, то критические точки исходя из требования   K > K кр   . Чаще всего выбирается так,      чтобы  K  K кр   K > K кр   2 . 2 Распределение  Пусть X i i  1,2,, n — независимые случайные величины, распределенные по гауссовскому закону, причем м.о. каждой из них равно нулю, а с.к.о. — единице. Тогда сумма квадратов этих величин распределена по закону 2  (''хи квадрат") с k  n степенями свободы. n  2   X i2 i 1 Плотность этого распределения x0 0  f ( x)   1  x /2 k /2 1 x0  2k /2 Г (k / 2) e x  где Γx  = t x 1e  t dt гамма-функция, в частности, Γn  1  n!  Распределение  2 определяется одним параметром — числом степеней свободы k . С увеличением числа k распределение медленно приближается к гауссовскому. 198 Критерий Пирсона Одной из важнейших задач математической статистики является установление теоретического закона распределения случайной величины по эмпирическим данным. Предположение о виде закона распределения может быть выдвинуто, исходя из теоретических предпосылок, опыта предшествующих исследований и на основании графического представления опытных данных. Параметры распределения заменяют их точечными оценками. Между теоретическим и эмпирическим распределениями неизбежны расхождения. Возникает вопрос: объясняются ли эти расхождения случайными обстоятельствами, связанными с ограниченным числом наблюдений, или они являются существенными и связаны с тем, что теоретический закон подобран неудачно. Для ответа на этот вопрос служат критерии согласия. Определение Критерий согласия -критерий проверки гипотезы о предполагаемом законе неизвестного распределения. Статистические критерии подразделяются на следующие категории:  Критерии значимости. Проверка на значимость предполагает проверку гипотезы о численных значениях известного закона распределения: — нулевая гипотеза. или — конкурирующая гипотеза.  Критерии согласия. Проверка на согласие подразумевает проверку предположения о том, что исследуемая случайная величина подчиняется предполагаемому закону. Критерии согласия можно также воспринимать, как критерии значимости.  Критерии на однородность. При проверке на однородность случайные величины исследуются на факт взаимного соответствия их законов распределения (подчиняются ли эти величины одному и тому же закону). Используются в факторном (дисперсионном) анализе для определения наличия зависимостей. 199 Это разделение условно, и зачастую один и тот же критерий может быть использован в разных качествах. Критерий Пирсона, или критерий χ2 — наиболее часто употребляемый критерий для проверки гипотезы о законе распределения. Во многих практических задачах точный закон распределения неизвестен, то есть является гипотезой, которая требует статистической проверки. Обозначим через X исследуемую случайную величину. Пусть требуется проверить гипотезу H0 о том, что эта случайная величина подчиняется закону распределения F x  . Для проверки гипотезы произведѐм выборку, состоящую из n независимых наблюдений над случайной величиной X . По выборке можно построить эмпирическое распределение F  x  исследуемой случайной величины. Сравнение эмпирического F  x  и теоретического распределений производится с помощью специально подобранной случайной величины — критерия согласия. Одним из таких критериев и является критерий Пирсона. Пусть проведено n независимых опытов, в каждом из которых случайная величина  приняла определенное значение. Все значения упорядочены в таблице Xi pi*  ni n X1 X2 … Xk p1* p2* … pk* Выдвигаем гипотезу H 0 , состоящую в том, что случайная величина  имеет закон распределения F : Xi pi 200 X1 p1 X2 p2 … Xk … pk H 0 отклонение эмпирических частот Согласно гипотезе n pi*  i pi  P(  X i ) n от теоретических вероятности объясняется случайными причинами. Чтобы проверить правдоподобие этой гипотезы для уровня значимости  в качестве меры расхождения между гипотетическим и статистическим распределениями рассчитывается величина k (n  npi ) 2 2 .  набл  i npi i 1 Эта величина – случайна, т.к. в различных опытах она принимает различные, заранее неизвестные значения. Чем меньше отличаются теоретические и эмпирические частоты, тем меньше величина критерия, следовательно, критерий  2 характеризует степень близости теоретического и эмпирического распределений. При n   закон распределения критерия Пирсона независимо от того, какому закону подчинена генеральная совокупность, стремится к закону распределения  2 с k степенями свободы. Число степеней свободы k  m  r  1 где m - число значений, которые принимает случайная величина, r – число параметров предполагаемого теоретического распределения, вычисленных по экспериментальным данным. Критерий  2 – правосторонний. Потребуем, чтобы вероятность попадания в критическую область, в предположении справедливости H 0 , была равна принятому уровню значимости  . 2 P{ 2   кр ( , k )}   2 2 2 По таблице находим  кр – нет   кр ( , k ) и если  набл 2 2 оснований отвергать H 0 , если  набл – отвергаем гипотезу.   кр 201 Необходимо, чтобы каждое ni  5 . Если некоторые значения меньше 5, имеет смысл объединить их с соседними.  Замечание 2 - критерий Пирсона в качестве меры расхождения U берется отклонений частоты 2, равная сумме квадратов m U   2   ci  i  p i 2 i 1 в качестве весов берут c i  n pi Схема применения критерия 1. Определяется мера расхождения теоретических частот 2.  Для выбранного уровня значимости  по таблице распределения находят критическое значение 3. Если критического, т.е. если 202 эмпирических и 2 фактически наблюдаемое   ,k 2 2  2   2 ,k , то гипотеза отвергается,  2   2 ,k то принимается. 2 больше Случайная величина r   2 ni i 1  n  p i 2 n  pi характеризует согласованность гипотезы Н 0 с опытными данными. 2 Схема применения критерия  для непрерывных случайных величин Пусть проведено n ( n  50 ) независимых опытов, в каждом из которых случайная величина  приняла определенное значение. Все значения упорядочены в виде вариационного ряда. Весь интервал значений делим на S частичных одинаковых интервалов [ ai , ai 1 ] и считаем число значений выборки, попавших в i - тый интервал Выдвигаем гипотезу H 0 , состоящую в том, что случайная величина  имеет закон распределения F : В качестве меры расхождения между гипотетическим и статистическим распределениями рассчитывается величина k (ni  npi ) 2 2 ,  набл   npi i 1 где pi  P(ai    ai 1 ) . Число степеней свободы k  m  r  1 где m - число частичных интервалов, на которые разбивается выборка, r – число параметров предполагаемого теоретического распределения, вычисленных по экспериментальным данным. Задаваясь уровнем значимости, по таблице находим 2 2 2 – нет оснований отвергать H 0 , если   кр  кр ( , k ) и если  набл 2 2 – отвергаем гипотезу.  набл   кр Число выборочных значений ni , i  1 r в каждом разряде должно быть не менее 5-10.Если это не выполняется, то разряды 203 надо объединять. В этом случае и соответствующие частоты надо сложить. Пример При 4040 бросаниях монеты французский естествоиспытатель Бюффон получил 2048 выпадений герба и 1992 выпадения цифры. На уровне значимости  = 0,05 проверим гипотезу о том, что монета была правильной. Решение Здесь в результате испытания может произойти одно из двух событий — выпадение герба либо выпадение цифры. Поэтому имеем: A1 = {выпадение герба}, A2 = {выпадение цифры}, n = 4040, m1 = 2048, m2 = 1992. Нулевая гипотеза - H 0 : p  A1   p  A2   т. е. p1  p2  1 , 2 1 2 Вычислим величину  2 . Имеем:  2  m  np1   1 2 np1  2048  2020    m  np2   2 np2 2 2  1992  2020   2  0.776 2020 2020 Число степеней свободы k в данном случае равно r 1  2 1  1 . По известным значениям  = 0.05, k = 1 находим в таблице  2kp  3.8  2   2kp , то нулевая гипотеза принимается монета была правильной. Пример Фирма владеет тремя магазинами. Руководство фирмы решило выяснить, посещают ли покупатели все три магазина одинаково охотно либо имеется некоторое различие. Для проверки была собрана информация о количестве покупателей, сделавших покупки в течение недели. Оказалось, Так как 204 что в первом магазине это число составляет 160 человек, во втором — 225. в третьем —215. Решение Нулевой гипотезой будет равенство вероятностей посещения покупателем первого ( p1 ), второго ( p 2 ) и третьего ( p3 ) магазинов: H0 : p1  p2  p3  1 . 3 В результате испытания получаем m1 =160, m2 =225, m3 =215, n =160+225+215=600 Вычислим величину 2  160  2002  225  2002  215  2002  12.25 200 200 200 Обратимся теперь к таблице критических значений (при k  2 ). Даже на уровне значимости  = 0.01 имеем  2kp =  2   2kp . Поэтому, видимо, разницу в посещаемости магазинов в течение недели нельзя объяснить случайными колебаниями. Пример По выборке из 24 вариант выдвинута гипотеза о нормальном распределении генеральной совокупности. Используя критерий Пирсона при уровне значимости 9.2. Таким образом,   0,025 среди заданных значений  2 = {34, 35, 36, 37, 38} указать: а) наибольшее, для которого нет оснований отвергать гипотезу; б) наименьшее, начиная с которого гипотеза должна быть отвергнута. Решение Найдем число степеней свободы k с помощью формулы: k  S  r  1, где S - число групп выборки (вариант), r - число параметров распределения. Так как нормальное распределение имеет 2 параметра ( m и  ), получаем 205 k  24  2  1  21 . По таблице критических точек распределения  2 , по заданному уровню значимости   0,025 и числу степеней свободы k  21 определяем критическую точку 2  кр  35,5 . В случае а) для значений  2 , равных 34 и 35, нет оснований отвергать гипотезу о нормальном распределении, так как 2 . А наибольшее среди этих значений  2  35 .  2   кр В случае б) для значений 36, 37, 38 гипотезу отвергают, так как 2 . Наименьшее среди них  2  36 .  2   кр Контрольные вопросы 1. Что произойдет со стандартной ошибкой среднего, если размер выборки увеличить в 2 раза? 2. Приведите пример нулевой, конкурирующей гипотезы. 3. Что представляют собой ошибки 1-го и 2-го рода? 4. Дайте определения свойствам эффективности, состоятельности и несмещенности оценок. Задачи для самостоятельного решения Ваш друг утверждает, что он умеет различать на вкус два близких сорта вина если и не всегда, то хотя бы в четырех случаях из пяти. Вы же склонны считать, что он просто угадывает. 2. Сформулируйте оба этих мнения в виде статистических гипотез и предложите какую-либо процедуру проверки. В чем состоят ошибки первого и второго рода? 3. Урна содержит большое количество белых и черных шаров, 100 раз производится следующее действие: из урны 1. 206 наугад достается шар, фиксируется его цвет, затем шар опускается обратно в урну, после чего шары перемешиваются. Оказалось, что 67 раз достали белый шар. 33 раза - черный. Можно ли на 5%-м уровне значимости принять гипотезу о том, что доля белых шаров в урне составляет 0,6? 4. Обычно применяемое лекарство снимает послеоперационные боли у 80% пациентов. Новое лекарство, применяемое для тех же целей, помогло 90 пациентам из первых 100 оперированных. Можно ли на уровне значимости  = 0,05 считать, что новое лекарство лучше? А на уровне  = 0,01? 5. Игральный кубик бросили 60 раз, при этом числа 1, 2, 3, 4,5, 6 выпали соответственно 12, 9, 13, 11, 8, 7 раз. Можно ли на 5%- м уровне значимости отвергнуть гипотезу о симметричности кубика? 6. Трое рабочих работают на трех одинаковых станках. В конце смены первый рабочий изготовил 60 деталей, второй - 80, третий -100 деталей. Можно ли на уровне значимости  = 0,01 принять гипотезу о том, что производительности труда первых двух рабочих равны между собой и в 2 раза меньше производительности третьего рабочего? 7. Используя критерий Пирсона, при уровне значимости 0.05 установить, случайно или значимо расхождение между эмпирическими частотами ni и теоретическими частотами ni' , которые вычислены, исходя из гипотезы о нормальном распределении генеральной совокупности Х: ni 5 10 20 8 7 ni' 6 14 18 7 5 207 Лекция 14 Регрессивный анализ В практике экономических исследований очень часто имеющие данные нельзя считать выборкой из многомерной нормальной совокупности. В этих случаях пытаются определить поверхность, которая дает наилучшее приближение к исходным данным. Соответствующие методы приближения получили название регрессивного анализа. В регрессивном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) неслучайной независимой переменной X . Две случайные величины X и Y могут быть связаны либо функциональной зависимостью, либо статистической, либо быть независимыми. При функциональной зависимости каждому значению переменной X соответствует вполне определенное значение переменной Y . Строгая функциональная зависимость реализуется редко, т.к. обычно величины подвержены еще действию различных случайных факторов. Тогда каждому значению одной переменной соответствует не какое-то определенное, а множество возможных значений другой переменной. Это статистическая (вероятностная, стохастическая) зависимость. Корреляционной зависимостью между двумя случайными величинами, называется функциональная зависимость между значениями одной из них условным математическим ожиданием другой. Рассмотрим двумерную случайную величину ( X , Y ) , где X и Y - зависимые случайные величины. Представим величину Y в виде линейной функции X : Y  g ( X )  aX  b , где a и b - параметры, подлежащие определению. Это можно сделать различными методами, наиболее употребительный из них – метод наименьших квадратов. 208 Функцию называют наилучшим g ( X )  aX  b приближением Y в смысле метода наименьших квадратов, если математическое ожидание принимает M [Y  g ( X )]2 наименьшее возможное значение. Функцию g ( x) называют линейной среднеквадратической регрессией Y на X .  Теорема Линейная среднеквадратическая регрессия Y на имеет вид X g ( X )  my   где mx  M [ X ] , my  M [Y ] ,  x  y ( X  mx ) , x D[ X ] ,  y  D[Y ] ,  -коэффициент корреляции величин Y и X . y Коэффициент    - коэффициент регрессии Y на X , а x прямая называется прямой среднеквадратической регрессии Y на X .  y  m y   y ( x  mx ) x Аналогично можно получить прямую среднеквадратической регрессией X на Y : x ( y  my ) . y Если коэффициент корреляции   1 , то обе прямые x  mx   регрессии совпадают. Для отыскания уравнений регрессии необходимо знать закон распределения двумерной случайной величины ( X , Y ) . На практике обычно располагают выборкой пар значений ( xi , yi ) ограниченного объема. В этом случае речь может идти об оценке функции регрессии по выборке. 209 В качестве оценок условных математических ожиданий, принимают условные средние, которые находят по выборочным данным. Условным средним Yx называют среднее арифметическое наблюдавшихся значений Y , соответствующих X  x. Например, если при x1  2 величина Y приняла значения y1  5, y2  6, y3  10 , то условное среднее Yx1  5  6  10 7. 3 Уравнения Yx  g * ( x ) или X y   * ( y ) называются выборочными уравнениями регрессии, g * ( x) и  * ( y ) - выборочными функциями регрессии, а их графики выборочными линиями регрессии. Метод наименьших квадратов для получения уравнения выборочной линии регрессии Обычно для получения уравнения выборочной линии регрессии Yx  b0  b1 x  b2 x 2  ...  bm x m или X y  c0  c1 y  c2 y 2  ...  cm y m используется метод наименьших квадратов. Мы рассмотрим линейную регрессию, уравнение которой Y  b  b x. Неизвестные параметры чтобы 1 b0 и b1 выбираются таким образом, n S   ( yi  (b0  b1 xi ))  min 2 i 1 210 . Методом коэффициентов наименьших квадратов находим значения b0 и b1 n b1  (X i 1 n  X ) (Yi  Y ) i i 1 n (X i 1 i  X )2 b0  Y  b1 X . Угловой коэффициент b можно представить как 1 n b1   (Y  Y ) i 1 n (X i 1 2 i i  X )2 rr SY SX где r - выборочный коэффициент корреляции, 1 n 1 n SX 2  ( X i  X ) 2 , SY 2   (Yi  Y )2 .  n  1 i 1 n  1 i 1 b1 - выборочный коэффициент регрессии Y на X . Он показывает, на сколько в среднем изменяется переменная X при увеличении переменной X на одну единицу. 211 Линейный регрессионный анализ Термином линейный регрессионный анализ обозначают прогнозирование одной переменной на основании другой, когда между этими переменными существует линейная взаимосвязь . Y  b0  b1 X Разности между фактически полученными значениями Y и вычисленными по уравнению регрессии соответствующими значениями прогнозов Y называются отклонениями e  Y  Y . Величины прогноза являются моделируемыми значениями данных, а отклонения показывают отличия от модели. Пример Анализ зависимости между ценами и объемам продаж молока фермера. Значение выборочного коэффициента корреляции r  0.86 . Уравнение регрессии Задачами регрессионного анализа являются:  установление формы зависимости между переменными;  оценка функции регрессии;  оценка неизвестных значений (прогноз значений) зависимой переменной. В регрессионном анализе рассматривается односторонняя зависимость случайной зависимой переменной Y от одной (или нескольких) независимой переменной X .  также называется функцией отклика, выходной, результирующей, эндогенной переменной; X - входной, объясняющей, предсказывающей, предикторной, экзогенной переменной, фактором, регрессором. 212 Линейная зависимость может быть представлена в виде модельного уравнения регрессии M [Y X ]   0  1 x . В силу воздействия неучтенных случайных факторов отдельные наблюдения y будут в большей или меньшей степени отклоняться от функции регрессии . g ( x)   0  1 x В этом случае уравнение взаимосвязи двух переменных (парная регрессионная модель) может быть представлено в виде Y   0  1 X   . Отклонения  (возмущения, остатки) предполагаются независимыми и нормально распределенными N (0,  2 ) . Неизвестными параметрами являются  0 , 1 и  2 . Оценкой модели Y   0  1 X   по выборке является уравнение регрессии y  b0  b1 x . Параметры этого уравнения b0 и b1 определяются по методу наименьших квадратов. Воздействие случайных факторов и ошибок наблюдений определяется с помощью остаточной дисперсии  2 . Оценкой дисперсии является выборочная остаточная дисперсия s 2 : n s2  n 2  Yi  Yi   ei2 i 1 n2  i 1 n2 , 213 где Yˆ - значение Y, найденное по уравнению регрессии; . Число степеней ei  Yˆi  Yi - выборочная оценка возмущения i свободы n  2 , т.к. две степени свободы теряются при определении двух параметров b и b1 . 0 Y n Величина s e i 1 2 i n2 называется стандартной ошибкой оценки и демонстрирует величину отклонения точек исходных данных от прямой регрессии. Поскольку, как правило, требуется, чтобы прогноз был как можно более точным, значение s должно быть как можно меньшим. Пример Для данных продажи молока s  2.72 . Для величины Y , принимающей значения от 3 до18, значение s довольно велико. Чтобы получить точечный прогноз, или предсказание для данного значения X , надо просто вычислить значение функции регрессии в точке X . Пример Фермер хочет получить прогноз количества молока, которое будет продано при цене 1.63 рублей за литр: Y  32.14  14.54 X Y  32.14  14.54  1.63  8.44 Конечно, реальные значения величины Y не лежат в точности на регрессионной прямой. Есть два источника неопределенности в точечном прогнозе, использующем уравнение регрессии. 214 1. Неопределенность, обусловленная отклонением точек данных от выборочной прямой регрессии. 2. Неопределенность, обусловленная отклонением выборочной прямой регрессии от регрессионной прямой генеральной совокупности. Интервальный прогноз значений переменной можно построить так, что при этом будут учтены оба источника неопределенности. Суммарная дисперсия sY  s 2  sY2 , где sY - стандартная ошибка прогноза, s - стандартная ошибка оценки, sY - стандартная ошибка функции регрессии. Величина sY2 измеряет отклонение выборочной прямой регрессии от регрессионной прямой генеральной совокупности и вычисляется для каждого значения X как.  1 ( X  X )2 sY2  s 2   n n ( X i  X )2   i 1    .    sY зависит от значения X , для которого прогнозируется величина Y . Величина sY будет минимальна, когда X  X , а по мере удаления X от X , будет возрастать. Стандартная ошибка прогноза sYˆ  s 1  1 ( X  X )2  n n  ( X i  X )2 i 1 Границы интервала прогноза величины с надежностью   1   будут равны Y  t  s , где статистика t имеет Y k  n  2 степенями свободы. распределение Стьюдента с 215 Пример Найдем стандартную ошибку прогноза в точке X  1.63 с надежностью   0.95 . Ранее было получено s  2.72 , X  1.44 , n (X i 1 i  X ) 2  0.824 . sYˆ  2.72 1  1 (1.63  1.44) 2   2.91 . 10 0.824 При X  1.63 значение Y  8.44 . Находим интервал прогноза Y  t  sY  8.44  2.306  2.91  8.44  6.71 или 1.73  Y  15.5 Построенные аналогичным образом интервалы значений прогноза по всем значениям X имеют вид: Интервал прогноза очень велик, это связано с тем, что исходная выборка мала, а значение s сравнительно велико. 216 Прогноз значений зависимой переменной по уравнению регрессии оправдан, если значение объясняющей переменной не выходит за диапазон ее значений по выборке (причем тем более точный, чем ближе X к X ). Экстраполяция кривой регрессии, т.е. использование вне пределов обследованного диапазона значений объясняющей переменной может привести к значительным погрешностям. Проблемы применения метода линейной регрессии 1. Если истинная взаимосвязь не линейная, нельзя использовать для прогноза прямую линию. Большинство компьютерных программ не предупреждают об этом. 2. Экстраполяция за пределы имеющихся данных потенциально опасна. Вы не располагаете информацией, чтобы отбросить другие возможности. 217 3.Резко отклоняющееся значение может серьезно повлиять на результаты регрессионного анализа. 4. Большое значение имеет то, какая из двух переменных прогнозируется, а какая служит основанием для прогноза. Каждому из этих подходов соответствует своя линия регрессии. Две линии регрессии сближаются, когда уменьшается фактор случайности точки данных приближаются к прямой линии. Основные предпосылки статистической модели линейной регрессии Y  0  1  X   1.Зависимая переменная Y есть величина случайная, а объясняющая переменная X - величина неслучайная. 2. Математическое ожидание возмущения M [ ]  0 , дисперсия D[ ]   2 . Возмущения являются нормально распределенными. Для заданного значения X генеральная совокупность значений Y имеет нормальное распределение относительно регрессионной прямой совокупности. 218 На практике приемлемые результаты получаются и тогда, когда значения Y имеют нормальное распределение лишь приблизительно. 3. Разброс генеральной совокупности данных относительно регрессионной прямой совокупности остается постоянным всюду вдоль этой прямой (дисперсия зависимой переменной Y остается постоянной: D[Y ]   2 ). 4 Возмущения  , а, следовательно? и значения Y независимы между собой. Уравнение взаимосвязи двух переменных (парная регрессивная модель) может быть представлена y   x    где  - случайная переменная, характеризующая отклонение от функции регрессии.  - называют возмущением. Рассмотрим линейный регрессивный анализ, для которого функция   x  линейна M (Y )  0  1 X Если для оценки параметров линейной функции взята выборка, то парная линейная регрессионная модель имеет вид Yi  0  1 X   Задачи регрессионного анализа Цель регрессионного анализа состоит в определении общего вида уравнения регрессии, построении статистических оценок неизвестных параметров, входящих в уравнение регрессии и проверке статистических гипотез о регрессии. Корреляционный анализ позволяет устанавливать неслучайность (значимость) изменения наблюдений Yi и степень их зависимости от случайных величин X . Регрессионный анализ представляет собой следующий этап статистического анализа. 219 Определяются точные количественные характеристики изменения Y . Статистическая связь Y и X сводится к строгим (неслучайным) соотношениям. На данном этапе решаются следующие основные задачи:  выбор общего вида функции регрессии f  x,    отбор, если необходимо, наиболее информативных факторов; оценивание параметров уравнения регрессии   (1 ,..... n )  анализ точности полученного уравнения регрессии, связанный с построением доверительных интервалов для коэффициентов регрессии, т.е. компонент вектора   (1 ,..... n ) , для условного среднего отклика Y ( X ) и для прогнозов наблюдений отклика Y ( X ) при значениях факторов X  ( X 1 ,....... X n ) . 1. Возмущения есть случайная величина, а объясняющая переменная – неслучайная величина. 2. Математическое ожидание возмущения равно нулю M ( i )  0 3. Дисперсия возмущения постоянна для любого i : D( i )   2 4. Возмущения не коррелированны (независимы) M ( i  j )  0 ; i  j 5. Возмущения есть нормально распределенная случайная величина. Для получения уравнений регрессий достаточно 1-4 условий, 5 условие для оценки точности уравнений регрессии и его параметров Пусть требуется исследовать зависимость Y ( X ) , величины X и Y измеряются в одном эксперименте. Восстановим Y ( X ) по результатам измерений. Точное представление Y ( X ) невозможно. Будем искать приближенную зависимость по методу наименьших квадратов. Y ( X )  g ( x) , 220 g (x) - называется наилучшим приближением, если M Y  g (x) принимает наименьшее значение. Рассмотрим функцию g ( x)  AX  B которая наилучшим образом приближает X к Y . Введем обозначения m1  M X  , m2  M Y  ,  1 2  D X  2  2 2  DY  ,  - корреляционный момент, k- коэффициент корреляции этих величин. Будем искать Y ( X )  g ( x)  AX  BY Найти такие A и B , что Ф( A, B)  M [Y  AX  B] 2 принимает наименьшее значение: Ф( A, B)  M [Y  AX  B ]2   M [Y 2 ]  B 2  A2 M [ X ]2  2 BM [Y ]  2 AM [ XY ]  2 AMB[ X ]   22  m22  B 2  A2 (12  m12 )  2 Bm2  2 A(  m1  m2 )  2 ABm1 Исследуем на экстремум Ф = 2[ A( 12  m12 )  (   m1  m2 )  Bm1 ]  0 А Ф =  2[m2  B  Am1 ]  0 А Коэффициент A - коэффициент регрессии. y  m2 x  m1 – прямая регрессии. k 2 1 Прямая Воздействие неучтенных факторов и ошибок наблюдений в модели определяется с помощью остаточной дисперсии. Минимум равен  22 (1  k 2 ) – остаточная дисперсия, которая характеризует величину ошибки, допускаемой при использовании приближенного равенства Y  g ( x)  AX  B . 221 Пример Найти выборочное уравнение прямой линии регрессии: а) Y на X , б) X на Y , если известны: выборочные средние x  3,6 , y  4 , выборочные дисперсии D x  0,04 , D y  0,25 , выборочный коэффициент корреляции rB  0,6 . Решение а) Выборочное уравнение прямой линии регрессии Y на X имеет вид y  y  rB  где  x  y x x  x , Dx ,  y  D y . Поскольку  x  0,04  0,2 ,  y  0,25  0,5 , получаем уравнение 0,5 x  3,6 , 0,2 или y  1,5 x  1,4 . выборочному уравнению прямой y  4  0,6  б) Согласно регрессии X на Y : x  x  rB  Поэтому x  0,24 y  2,64 получаем линии x  y  y . y x  3,6  0,6  0,2  y  4 , 0,5 или Многомерная нормальная регрессионная модель Когда одна случайная переменная реагирует на изменение другой изменением своего закона распределения, речь идет о так называемой стохастической связи. Частный случай такой связи - когда условное математическое ожидание одной случайной переменной 222 является функцией значения, принимаемого другой случайной переменной, т.е. M (Y / x)  f ( x) , где f x  - теоретическая (истинная) функция или модель регрессии Y относительно X . Статистические связи исследуются по выборкам ограниченного объема. На основании этих данных выполняют поиск подходящих аппроксимаций для f (x) . Чтобы выяснить, как значение одной случайной переменной, в среднем, изменяется в зависимости от того, какие значения принимает другая случайная переменная, используют условное среднее значение y (x) , которое является выборочной оценкой условного математического ожидания, а соответствующее выражение эмпирической функцией регрессии. Практическое значение знания регрессионной зависимости между случайными переменными X и Y заключается в возможности прогнозирования значения зависимой случайной переменной Y , когда независимая случайная переменная X принимает определенное значение. Прогноз не может быть безошибочным, однако можно определить границы вероятности ошибки прогноза. Вариация зависимой переменной и коэффициент детерминации Рассмотрим вариацию (разброс) относительно среднего значения y Tss =  Обозначим yi регрессии значения n  ( yi Tss значений yi  y)2 . i 1 предсказанные с помощью функции  yi : y  a  b xi . 223 n  Rss =  ( yi  y ) 2 означает величину разброса, которая i 1 обусловлена регрессией (ненулевым значением наклона n  Ess =  ( yi  yi ) 2  b ). означает разброс за счет случайных i 1 отклонений от функции регрессии. Оказывается, Tss  Rss  E ss , - полный разброс равен сумме разбросов за счет регрессии и за счет случайных отклонений. Величина Rss Tss – это доля вариации значений yi , обусловленной регрессией (т.е. доля закономерной изменчивости в общей изменчивости).  Определение Коэффициент детерминации – статистика R 1  E ss R 2  ss  Tss Tss показывающая, какая доля дисперсии результативного признака объясняется влиянием объясняющих переменных. Если R 2  0 , это означает, что регрессия ничего не дает, т.е. знание x не улучшает предсказания для y по сравнению с  тривиальным yi  y . Другой крайний случай R 2  1 означает точную подгонку: все точки наблюдений лежат на регрессионной прямой. Чем ближе к 1 значение R 2 , тем лучше качество подгонки. Линейная регрессия имеет следующие общие свойства: 1. Чем ближе значение коэффициента детерминации к 1, тем ближе модель к эмпирическим наблюдениям. 2. С увеличением количества объясняющих переменных увеличивается R2. 224 Контрольные вопросы Что показывает коэффициент регрессии? Что показывает коэффициент корреляции? В чем отличие корреляционной зависимости от функциональной? 4. Каким методом определяются параметры линейной регрессии? 5. При каких значениях коэффициента регрессии зависимость случайных величин является: а) прямой; б) обратной? 6. Чем занимается регрессионный анализ? 7. Перечислите свойства линейной регрессии. 8. Запишите уравнение регрессии. 9. Отчего зависит наклон линии регрессии? 10. Что показывает коэффициент детерминации? 11. В чем отличие многомерной от линейной регрессии? 1. 2. 3. 225 Лекция 15 Статистические оценки параметров распределения Результаты измерений могут рассматриваться законченными, только когда они сопровождаются статистической оценкой полученных данных, поскольку никогда не бывает 100% уверенности в точности определенных значений. Для статистической оценки параметров распределения используют средние значения разных степеней отклонений отдельных величин признака от его средней арифметической величины. Эти показатели называют центральными моментами распределения порядка, соответствующего степени, в которую возводятся отклонения Получив статистические оценки параметров распределения (выборочное среднее, выборочную дисперсию и т.д.), нужно убедиться, что они в достаточной степени служат приближением соответствующих характеристик генеральной совокупности. Определим требования, которые должны при этом выполняться.  Определение Статистическая оценка неизвестного параметра теоретического распределения - функция от наблюдаемых случайных величин. Пусть Θ* - статистическая оценка неизвестного параметра Θ теоретического распределения. Извлечем из генеральной совокупности несколько выборок одного и того же объема n и вычислим для каждой из них оценку параметра Θ: Θ1* ,Θ2* , ,Θk* Тогда оценку Θ* можно рассматривать как случайную величину, принимающую возможные значения Θ1* ,Θ2* , ,Θk* . Если математическое ожидание Θ* не равно оцениваемому параметру, мы будем получать при вычислении оценок систематические ошибки одного знака (с избытком, если M Θ*  Θ, и с недостатком, если M Θ*  Θ).   226   Следовательно, необходимым условием систематических ошибок является требование M Θ*  Θ. отсутствия    Определение Статистическая оценка Θ* называется несмещенной, если ее математическое ожидание равно оцениваемому параметру Θ при любом объеме выборки: M Θ*  Θ  Определение Статистическая оценка называется смещенной оценкой, если математическое ожидание не равно оцениваемому параметру. Однако несмещенность не является достаточным условием хорошего приближения к истинному значению оцениваемого параметра. Если при этом возможные значения Θ* могут значительно отклоняться от среднего значения, то есть дисперсия Θ* велика, то значение, найденное по данным одной выборки, может значительно отличаться от оцениваемого параметра. Следовательно, требуется наложить ограничения на дисперсию.  Определение Статистическая оценка называется эффективной, если она при заданном объеме выборки n имеет наименьшую возможную дисперсию. Эффективность оценки зависит от вида распределения. Можно доказать, что если случайная величина имеет нормальное распределение, то оценка математического ожидания X является и эффективной. При рассмотрении выборок большого объема к статистическим оценкам предъявляется еще и требование состоятельности. Естественно потребовать от оценки  * , чтобы при увеличении числа опытов n она приближалась к искомому параметру   Определение Состоятельной называется статистическая оценка, которая при n   стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при n   ее дисперсия стремится к 0).   lim P{   *   }  1 . n  227  Замечание Т.е чем больше объем выборки, тем больше вероятность того, что ошибка оценки будет очень мала. Убедимся, что среднее арифметическое значение x B представляет собой несмещенную оценку математического ожидания M x  . Будем рассматривать xB как случайную величину, а x1 , x2 ,, xn , то есть значения исследуемой случайной величины, составляющие выборку, – как независимые, одинаково распределенные случайные величины X 1 , X 2 ,, X n , имеющие математическое ожидание a . Из свойств математического ожидания следует, что:  X  X  X n  M X B  M 1 a n   Но, поскольку каждая из величин X 1 , X 2 ,, X n имеет такое   же распределение, что и генеральная совокупность, a  M  X  ,   то есть M X B  M  X  , что и требовалось доказать. Выборочное среднее является не только несмещенной, но и состоятельной оценкой математического ожидания. Если предположить, что X 1 , X 2 ,, X n имеют ограниченные дисперсии, то из теоремы Чебышева следует, что их среднее арифметическое, то есть X B , при увеличении n стремится по вероятности к математическому ожиданию каждой их величин, то есть к M  X  . Следовательно, выборочное среднее есть состоятельная оценка математического ожидания. В отличие от выборочного среднего, выборочная дисперсия является смещенной оценкой дисперсии генеральной совокупности. Можно доказать, что M DB   где Dr – истинное совокупности. 228 n 1 Dr , n значение дисперсии генеральной Можно предложить другую оценку дисперсии – исправленную дисперсию s 2 , вычисляемую по формуле: 2  k   ni x i  x B n . s  D B  i 1 n 1 n 1 Такая оценка будет являться несмещенной. Ей соответствует исправленное среднее квадратическое отклонение 2 k s  s2  Множитель   ni xi  x B i 1 n 1  2 . n называется поправкой Бесселя. n 1  Определение Оценка некоторого признака называется асимптотически несмещенной, если для выборки x1 , x2 ,, xn x  x    xn lim 1 2 X n n где X – истинное значение исследуемой величины. Пример Пусть в n испытаниях Бернулли событие A произошло m раз. В качестве оценки вероятности p принимается частота события m m * . Т.е.   p ,   . Будет n n ли  * несмещенной? Решение Т.к. случайная величина  ( w)  m имеет M [ ]  np , то m 1 1 M [ * ]  M [ ]  M [ m]  np  p . n n n Частота события является несмещенной оценкой. 229 Метод наибольшего правдоподобия Пусть X – дискретная случайная величина, которая в результате n испытаний приняла значения x1 , x2 ,, xn . Предположим, что нам известен закон распределения этой величины, определяемый параметром  , но неизвестно численное значение этого параметра. Найдем его точечную оценку. Пусть p( xi , ) – вероятность того, что в результате испытания величина X примет значение xi . Назовем функцией правдоподобия дискретной случайной величины аргумента  , определяемую по формуле: L  x1 , x2 X функцию , xn ,   p( x1 , )  p( x2 , )  p( xn , )  Тогда в качестве точечной оценки параметра Θ принимают такое его значение  *    x1 , x2 , xn  , при котором функция правдоподобия достигает максимума. Оценку  * называют оценкой наибольшего правдоподобия. Поскольку функции L и ln L достигают максимума при одном и том же значении Θ, удобнее искать максимум ln L – логарифмической функции правдоподобия. Для этого нужно: 1) найти производную d ln L ; d 2) приравнять ее нулю (получим так называемое уравнение правдоподобия) и найти критическую точку; 3) найти вторую производную d 2 ln L , d 2 если она отрицательна в критической точке, то это – точка максимума. Достоинства метода наибольшего правдоподобия: 1) полученные оценки состоятельны (хотя могут быть смещенными), распределены асимптотически нормально при больших значениях n и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками; 230 2) если для оцениваемого параметра  существует эффективная оценка  * , то уравнение правдоподобия имеет единственное решение  * ; 3) метод наиболее полно использует данные выборки и поэтому особенно полезен в случае малых выборок. Важность метода максимального правдоподобия связана с его оптимальными свойствами. Основной недостаток метода — трудность вычисления оценок, связанных с решением уравнений. Кроме того, для построения оценок необходимо точное знание типа закона распределения p( xi , ) , что иногда практически невозможно Для непрерывной случайной величины с известным видом плотности распределения f  x  и неизвестным параметром  функция правдоподобия имеет вид: L  x1 , x2 , xn ,   f ( x1 , )  f ( x2 , )  f ( xn , )  . Оценка наибольшего правдоподобия неизвестного параметра проводится так же, как для дискретной случайной величины. Метод моментов К методу моментов относят все статистические процедуры, основанные на использовании выборочных моментов и функций от них. Метод моментов нахождения оценок в математической статистике - это способ построения оценок, основанный на уравнивании теоретических и выборочных моментов был впервые предложен Пирсоном в 1894г. Метод моментов основан на том, что начальные и центральные эмпирические моменты являются состоятельными оценками соответственно начальных и центральных теоретических моментов, поэтому можно приравнять теоретические моменты соответствующим эмпирическим моментам того же порядка. Если задан вид плотности распределения f ( x, ) , определяемой одним неизвестным параметром  , то для оценки этого параметра достаточно иметь одно уравнение. 231 Например, можно приравнять начальные моменты первого порядка: xв  M  X     x  f ( x, )dx   ( )  получив тем самым уравнение для определения Θ. Его решение  * будет точечной оценкой параметра, которая является функцией от выборочного среднего и, следовательно, и от вариант выборки:     x1 , x2 , xn  . Если известный вид плотности распределения f ( x,1 ,2 ) определяется двумя неизвестными параметрами 1 и  2 , то требуется составить два уравнения, например  1  M1 , 2  m2 ,. M  X   x B Отсюда  - система двух уравнений с двумя  D  X   DB неизвестными 1 и  2 . Ее решениями будут точечные оценки 1* и  2* - функции вариант выборки: 1  1  x1 , x2 , xn  , 2  2  x1 , x2 , xn  . Точечные оценки метода моментов обычно состоятельны, однако по эффективности они не являются наилучшими. Тем не менее, метод моментов часто используется на практике, т.к. приводит к сравнительно простым вычислениям. Пример Методом моментов по выборке 3 4 5 X n 70 20 10 найти точечную оценку параметра  , предполагая, что теоретическое распределение является показательным: e  x , x  0 ; f x    0, x  0 . 232 Решение Согласно методу моментов нужно приравнять начальный теоретический момент первого порядка (математическое ожидание M ( X ) ) к начальному эмпирическому моменту первого порядка (выборочному среднему x ): M ( X )  x . Для показательного распределения имеем: M (X )  1.  Выборочное среднее находим по формуле x 1 k  x n , n i 1 i i где xi - варианта выборки, ni - частота xi , k n   ni - объем i 1 выборки. 1 3  70  4  20  5  10  3,4 . 70  20  10 Приравнивая моменты, находим  : 1 1  0,29 .  3,4 =>    3,4 Получаем x  Бейесовский подход к получению оценок Пусть Y , X  – случайный вектор, для которого известна плотность p  y | x  условного распределения Y при каждом значении X  x . Если в результате эксперимента получены лишь значения Y , а соответствующие значения X неизвестны, то для оценки некоторой заданной функции   x  в качестве ее приближенного значения предлагается математическое ожидание формуле:  Y      x   p Y x   p  x  d  ( x ) , M (  x  Y ) , искать условное вычисляемое по q(Y ) 233 где q(Y )   p  y x   p  x  d  ( x) , px  – плотность безусловного распределения X , q y  – плотность безусловного распределения Y . Задача может быть решена только тогда, когда известна px  . Иногда, однако, удается построить состоятельную оценку для q y  , зависящую только от полученных в выборке значений Y. Контрольные вопросы 1. Дайте определение точечной и интервальной оценок параметра. 2. Какая оценка называется: а) смещенной; б) несмещенной; в) эффективной? 3. Какую оценку называют оценкой наибольшего правдоподобия? 4. Перечислите достоинства метода наибольшего правдоподобия. 5. На каких фактах основан бейесовский подход к получению оценок. 6. Сформулируйте основные положения метода моментов. 7. Методы получения оценок: метод моментов, метод максимального правдоподобия проведите сравнение. 234 Лекция 16 Доверительные интервалы При выборке малого объема точечная оценка может значительно отличаться от оцениваемого параметра, что приводит к грубым ошибкам. Поэтому в таком случае лучше пользоваться интервальными оценками, то есть указывать интервал, в который с заданной вероятностью попадает истинное значение оцениваемого параметра. Разумеется, чем меньше длина этого интервала, тем точнее оценка параметра. Поэтому, если для оценки  * некоторого параметра  справедливо неравенство  *    , число  0 характеризует точность оценки (чем меньше  , тем точнее оценка). Но статистические методы позволяют говорить только о том, что это неравенство выполняется с некоторой вероятностью.  Определение Надежностью (доверительной * вероятностью) оценки  параметра  называется вероятность  того, что выполняется неравенство заменить это неравенство        , то получим: двойным  *     . Если неравенством – * p( *   , *   )   Таким образом,  есть вероятность того, что  попадает в интервал ( *   , *   ) .  Определение Доверительным называется интервал, в который попадает неизвестный параметр с заданной надежностью  . Доверительный интервал строится с помощью случайной выборки из распределения с неизвестным параметром, накрывая данный параметр с заданной вероятностью. 235 Доверительный интервал для оценки математического ожидания нормального распределения при известной дисперсии Пусть исследуемая случайная величина X распределена по нормальному закону с известным средним квадратическим  , и требуется по значению выборочного среднего x оценить математическое ожидание a . Будем рассматривать выборочное среднее x , как случайную величину X , а значения вариант выборки как одинаково распределенные x1 , x2 ,, xn независимые случайные величины X 1 , X 2 ,, X n , каждая из которых имеет математическое ожидание a и среднее квадратическое отклонение  . Оценим вероятность выполнения неравенства X  a   . Применим формулу для вероятности попадания нормально распределенной случайной величины в заданный интервал:    p X  a    2Ф     Тогда, с учетом того, что  X   n  .  ,  n  p X  a    2Ф    2Ф  t  ,     где t    n ,  предыдущее равенство можно переписать так: p (x t t  a  x )  2Ф(t )   . n n Итак, значение математического ожидания вероятностью (надежностью)  попадает в интервал 236 a с (x  t t ,x ), n n где значение t определяется из таблиц для функции Лапласа так, чтобы выполнялось равенство 2Ф(t )   . Пример Найти доверительный интервал для математического ожидания нормально распределенной случайной величины, если объем выборки n  49 , x  28 ,   1.4 , а доверительная вероятность   0.9 . Определим t , при котором Φt   0,9  0,45 : t  1,645 . 2 1,645  1,4 1,645  1,4 Тогда 2,8  , или  a  2,8  49 14 2,471  a  3,129 . Найден доверительный интервал, в который попадает a с надежностью 0,9. Доверительный интервал для оценки математического ожидания нормального распределения при неизвестной дисперсии Если известно, что исследуемая случайная величина X распределена по нормальному закону с неизвестным средним квадратическим отклонением, то для поиска доверительного интервала для ее математического ожидания построим новую случайную величину T xB  a s n где x B - выборочное среднее, s – исправленная дисперсия, n – объем выборки. Эта случайная величина, возможные значения которой будем обозначать t , имеет распределение Стьюдента с k  n  1 степенями свободы. 237 Поскольку плотность распределения Стьюдента  t2   s t , n   Bn 1  n  1    n 2 , n 2 где B  , явным образом не зависит от a и  , n  n 1  n  1Γ   2  можно задать вероятность ее попадания в некоторый Γ    интервал t , t , учитывая четность плотности распределения, следующим образом:   xa p  t  s  n   t    2  s  t , n  dt      . Отсюда получаем: ts t s  p x    a  x      . n n  Таким образом, получен доверительный интервал для a , где t можно найти по соответствующей таблице при заданных n и . Пример Пусть объем выборки n  25 , x B  3 , s  1,5 . Найдем доверительный интервал для a при   0.99 . Из таблицы находим, что t  2.797 . Тогда 2,797  1,5 2,797  1,5 ,  a  3 25 25 2,161  a  3,839 – доверительный интервал, в который попадает a с вероятностью 0,99 . 3 238 Доверительные интервалы для оценки среднего квадратического отклонения нормального распределения Будем искать для среднего квадратического отклонения нормально распределенной случайной величины доверительный интервал вида  s   , s    , где s – исправленное выборочное среднее квадратическое отклонение, а для    выполняется условие: p   s     . Запишем это неравенство в виде:   s(1  )    s(1  ) s s или, обозначив, q   s s(1  q)    s(1  q) . Рассмотрим случайную величину  , определяемую по формуле   s  n  1 , которая распределена по закону «хи- квадрат» с n  1 степенями свободы. Плотность ее распределения  R   , n  2 n 3 2 n2  x2 2 e  n 1  Г   2  не зависит от оцениваемого параметра  , а зависит только от объема выборки n . Преобразуем неравенство s(1  q)    s(1  q) так, чтобы оно приняло вид 1     2 . Вероятность выполнения этого неравенства равна доверительной вероятности  , следовательно 239 2  R   , n d    1 Предположим, что q  1 , тогда неравенство можно записать так: 1 1 1 ,   s 1  q   s 1  q  или, после умножения на s n  1 n 1 s n 1 n 1 .   1 q  1 q Следовательно, n 1 n 1 .  1 q 1 q Тогда n 1 1 q  R   , n d    . n 1 1 q Существуют таблицы для распределения «хи-квадрат», из которых можно найти q по заданным n и  , не решая этого уравнения. Таким образом, вычислив по выборке значение s и определив по таблице значение q , можно найти доверительный интервал, в который значение  попадает с заданной вероятностью  .  Замечание Если q  1 , то с учетом условия   0 доверительный интервал для  будет иметь границы 0    s(1  q) Пример Пусть n  20 , s  1,3 . Найдем доверительный интервал для  при заданной надежности   0,95 . Из соответствующей таблицы находим q  0.37 . Следовательно, границы доверительного интервала: 240 1,31  0,37   0,819 и 1,31  0,37   1,781 . Итак, 0,819    1,781 с вероятностью 0,95 . Контрольные вопросы 1. Запишите доверительный интервал для оценки математического ожидания . 2. От каких величин зависит точность оценки  математического ожидания? 3. Напишите доверительный интервал для оценки среднее квадратическое отклонение  нормально распределенного количественного признака Х. 241 Лекция 17 Случайные процессы и их характеристики Сигналы, способные передать получателю какие-либо сведения, заранее не могут быть известными и представляют собой случайный процесс (последовательность импульсов в системе телеграфной связи или некоторую непрерывную функцию при передаче телефонных сообщений).  Определение Теория случайных процессовматематическая наука, изучающая случайные явления в динамике их развития.  Определение Случайные сигналы (процессы)- сигналы, математическим описанием которых являются случайные функции времени. Пример Случайный процесс - флуктуационные шумы в радиотехнических устройствах. При наблюдении теплового напряжения на выходах идентичных устройств обнаруживается, что функции времени, описывающие эти напряжения, различны. Объясняется же это тем, что в любой момент времени ток в цепи обусловлен большим, но случайным числом вылетающих электронов. Реальные информационные сигналы носят случайный характер, т.к. ряд их параметров меняется во времени случайным образом. Поэтому случайные сигналы (или случайные процессы) описываются статистическими (вероятностными) законами. С практической точки зрения решение о случайности или детерминированности процесса основывается на способности воспроизвести процесс в ходе контролируемого эксперимента. Если это приводит к одним и тем же результатам – то процесс считается детерминированным. Марков Андрей Андреевич (1856-1922) русский математик, является основоположником теории случайных процессов. Существенно расширил сферу применения закона больших чисел и центральной предельной теоремы. 242 Классификация случайных процессов Различают следующие случайные процессы:  Определение Детерминированные процессы – процессы, которые можно описать математическими формулами (т.е. мы можем определить положение системы в любой момент времени). Пример Движение спутника на околоземной орбите, измерение температуры воды при нагревании детерминированные процессы. А процессы, такие как высота волн при шторме, напряжение в нашей электросети, изменение численности жителей в Самаре с течением времени не являются детерминированными – точное положение системы в таких процессах точно определить невозможно. 243 Для описания этих процессов требуются вероятностные понятия и статистические характеристики. Есть еще один вид процессов - хаотические.  Определение Хаотические случайные процессы – детерминированные, нелинейные, с сильной зависимостью от начальных условий. В реальности начальные условия точно повторить нельзя, и поведение системы через некоторое время становится непредсказуемым. На выходе такие системы имеют случайные характеристики и к ним требуются вероятностные подходы. Случайные процессы являются математическими моделями для описания случайных явлений, развивающихся во времени. При этом предполагается, что состояние в текущий момент времени есть случайная величина  (t , w) . На пространстве элементарных событий  определена  алгебра его подмножеств F и для любого события A  F определена его вероятность P( A) . Таким образом задано вероятностное пространство  , F , P  .  Определение Случайный процесс - семейство случайных величин { (t , w)} , определѐнных на  , F , P  , где под параметром t понимается время. Пусть t0 - фиксированный момент.  Определение Сечение случайного процесса в точке  (t0 , w) . случайная величина 244 t0 - Случайный процесс можно рассматривать как совокупность случайных величин, зависящих от параметра t . Мы фиксировали время. А теперь пусть w0   фиксируемый результат испытания.  Определение Неслучайная функция  (t , w0 ) (в которую превращается процесс в результате испытания) называется реализацией (траекторией, выборочной функцией) случайного процесса. С реализациями мы чаще всего имеем дело на практике. Таким образом, случайный процесс можно рассматривать как совокупность всех возможных его реализаций. Случайные процессы классифицируют в зависимости от непрерывности или дискретности  и t :  Определение Случайный процесс называется процессом с дискретным временем (или случайной последовательностью) если система, в которой он протекает, может менять своѐ состояние в дискретные моменты времени. Пример Студент накупил лотерейных билетов. Выигрыши происходят в определѐнные дни. Случайный процесс   t  - число билетов, выигравших до момента времени t .  Определение Случайный процесс называется процессом с непрерывным временем, если переходы системы могут происходить в любой момент t .  Определение Случайный процесс называется процессом с дискретными состояниями, если в любой момент времени множество его состояний конечно или счѐтно (если любое его сечение – дискретная случайная величина). 245 Пример Техническое устройство может иметь три состояния: работает нормально, работает с перебоями, ремонтируется. Случайный процесс   t  - состояние устройства в момент времени t .  Определение Случайный процесс называется процессом с непрерывными состояниями, если множество его состояний несчѐтно (если любое его сечение – непрерывная случайная величина). Законы распределения случайного процесса Универсальной, исчерпывающей характеристикой случайная величины является еѐ функция распределения F ( x)  P(  x) . При любом фиксированном t получим сечение случайного процесса. Это случайная величина, которая имеет закон распределения. F ( x, t )  P( (t )  x) - одномерный закон распределения. Функция зависит от двух аргументов t , x . Является ли F (t , x) исчерпывающей характеристикой? Нет, так как характеризует свойства одного отдельного сечения. Двумерный закон распределения F ( x1 , t1 , x2 , t2 )  P ( (t1 )  x1 ,  (t2 )  x2 ) - функция 4-х аргументов. Теоретически число сечений можно увеличивать неограниченно. Однако на практике очень часто вполне можно ограничиться двумерным законом. В общем случае мы имеем n сечений. Пусть   t  - случайный процесс и задано некоторое произвольное множество моментов времени. Соответствующая совокупность случайных величин  (t1 ), ...,  (tn ) имеет n – мерную функцию распределения: F ( x1 , ..., xn , t1 , ..., tn )  P{ (t1 )  x1 , ...,  (tn )  xn } 246 Семейство конечномерных распределений случайного процесса – это совокупность n -мерных функций распределения для различных n и моментов t . Семейство конечномерных распределений является основной характеристикой случайного процесса, полностью определяющей его свойства. Говорят, что случайный процесс, задан, если задано его семейство конечномерных распределений. Моментные характеристики случайного процесса Функции распределения достаточно полно характеризуют случайный процесс. Однако часто она оказывается довольно сложная или требует для своего определения обработки большого числа экспериментальных данных. Кроме того, часто подробного описания процесса не требуется. Потому в этих случаях ограничиваются при описании процессов лишь некоторыми числовыми характеристиками. К ним относятся средние значения, дисперсии и корреляционные функции. Числовые характеристики случайных процессов аналогичны числовым характеристикам случайных величин, которые используются в теории вероятностей, но имеют ту особенность, что представляют собой в общем случае не числа, а функции времени. Для характеристики случайной величины определяют неслучайные числовые характеристики – математическое ожидание M [ ] - среднее значение случайной величины; дисперсия D[ ] - разброс значений относительно M [ ] ; корреляционный момент COV [ ,  ]  M (  M  )(  M ) , который характеризует степень линейной зависимости между случайными величинами  и  .  Определение Неслучайная функция m  t  , которая t равна математическому ожиданию соответствующего сечения случайного процесса, называется математическим ожиданием случайного процесса. m  t   M   t  247 Его можно найти через одномерный закон распределения.   xp ( x, t )dx . m (t )    Определение Дисперсия случайного процесса – это неслучайная функция, которая равна дисперсии t соответствующего сечения. D (t )  D[ (t )]  M [( (t )  M  (t )) 2 ] - можно найти через одномерный закон распределения.  D (t )  x 2 p ( x, t )dx  m2 (t ) .  Математическое ожидание M [ (t )] и дисперсия D[ (t )] важны, но не характеризуют внутреннюю структуру процессов. 248 Пример x(t )  a    t Задан случайный процесс:  ~ N  m,   Найти его математическое . ожидание и дисперсию. Решение Реализации процесса: mx  t   M  a  t   am  t , Dx  t   D  a  t   D  a   D t   a  2 2 .  Замечание дисперсия определяет степень разброса значений случайного процесса около среднего значения.  Замечание Математическое ожидание и дисперсия характеризуют поведение случайного процесса в отдельные моменты времени. Корреляционная функция В качестве характеристики, учитывающей статистическую зависимость между значениями случайного процесса в различные моменты времени, используется корреляционная функция случайного процесса определяемая как  Определение Корреляционная функция случайного процесса - неслучайная функция равная математическому ожиданию от произведения значений процесса в два различных момента времени. K (t1 , t2 )  M [( (t1 )  m (t1 ))( (t2 )  m (t2 )]  M [( (t1 ) (t2 )]  m (t1 )m (t2 ) 249 Корреляционная функция – функция двух аргументов - для каждой пары чисел t1 и t2 равна корреляционному моменту соответствующих сечений и характеризует степень их линейной зависимости. Для расчѐта корреляционной функции необходимо знать двумерное распределение.   K (t1 , t2 )    (x 1  m (t1 ))( x2  m (t2 )) p ( x1 , x2 , t1 , t2 )dx1 , dx2   Корреляционная функция определяет степень линейной зависимости между значениями случайного процесса в различные моменты времени. Основные свойства корреляционной функции 1. При равенстве аргументов t1  t2  t K (t , t )  D (t ) 2. Корреляционная функция симметрична относительно своих аргументов K (t1 , t2 )  K (t2 , t1 ) т.е. она является симметричной относительно начала отсчета времени. 3. Модуль корреляционной функции не превосходит произведение среднеквадратичных отклонений соответствующих сечений 2 K (t1 , t2 )  D (t1 ) D (t2 ) Пример x(t )  a    t функцию 250 Дан  ~ N  m,   случайный .Найти процесс корреляционную Решение K x  t1 , t2   M  x  t1   mx  t1    x  t2   mx  t2      M  a  t1  am  t1   a  t2  am  t2    2  a 2 M   m    a 2 2   Нормированная корреляционная функция r (t1 , t2 )  K (t1 , t2 )   (t1 )  (t2 ) (аналог - коэффициент корреляции   COV ( X , Y )  x y ). Свойства нормированной корреляционной функции: 1. При равенстве аргументов r  t   2. r  t1 , t2   r  t2 , t1  D  t   t  2 1 r  t1 , t2   1  Определение Случайный процесс  (t ) называется стационарным в узком смысле, если многомерные законы распределения не меняются при сдвиге всех временных переменных на одно и то же число: F ( x1 , ..., xn ; t1 , ..., tn )  F ( x1 , ..., xn ; t1  h, ..., tn  h) n  N h  R . Более обширный класс - стационарные процессы, стационарные в широком смысле Чаще всего под стационарностью понимается стационарность в широком смысле.  Определение Случайный процесс называется стационарным в широком смысле если: 251 m (t )  m  const D (t )  D  const , K (t1 , t2 )  K (t2  t1 )  K ( ) . , Из стационарности в узком смысле следует стационарность в широком. Пример Задан случайный процесс:   t   A cos  t    ,  ~ R  0, 2  252 p ( x)  M t   1 , 2 2 1  2 A cos  t  x   dx   2 A sin  t  x  0 2 K  t1 , t2   M   t1   m  t1     t2   m  t2     2   A cos  t 1  x A cos  t2  x   1 dx  2 2  A2  2     x cos  t1   t2  dx   cos  t1   t2  2 x  dx   2  2  0  2 A2 A2 A2 cos  t1   t2   cos  t1   t2   cos  ( t1  t2 ) 4 2 2 A2 A2 . D (t )  K (t , t )  cos  ( t  t )  2 2  Самыми важными (по прикладному значению) стационарных процессов для нас являются эргодические. из 253  Определение Стационарный случайный процесс называется эргодическим, если для него осреднение по ансамблю реализаций может быть заменено осреднением по времени по одной реализации. Т.е. по любой одной достаточно длинной реализации мы можем судить о свойствах всех реализаций случайного процесса. Достаточное условие эргодичности: Eсли эргодическим. 254 lim K ( )  0 ,то случайный процесс является   Глоссарий К лекции 1 Вероятность события – численная мера, принимающая значения между 0 и 1 и характеризующая степень возможности появления события в данном опыте. P  A  m , n 0  P( A)  1 Генератор случайных чисел - устройство для получения наборов случайных чисел. Достоверное событие – событие, которое в результате опыта обязательно должно произойти. Набор элементарных событий - набор всех возможных отдельных результатов испытаний. Невозможное событие – событие, которое не может иметь место в данном опыте. Несовместные события - события, появление одного из них в данном опыте исключает возможность появления других, т.е. они не могут произойти одновременно в одном и том же опыте. Полная группа событий – группа событий, из которых хотя бы одно непременно должно произойти в данном опыте. Противоположные события - два единственно возможных и несовместных. q( A)  1  P( A) Равновозможные события - два или несколько событий, имеющих больше данных появиться в итоге опыта по сравнению с другими. Случайные события – любые события или факты, относящиеся к результату эксперимента, которые могут происходить или не происходить. Совместные события - события, появление одного из них в данном опыте не исключает возможность появления других. 255 Элементарное событие - отдельное событие или отдельный возможный результат испытания. Комбинаторика - раздел дискретной математики, изучающий комбинации конечных множеств элементов различной природы. Независимые события - события вероятность появления каждого из них не зависит от того , имели ли место другие. Перестановки из n элементов - соединения, различающиеся только порядком входящих в них элементов. Pn  Ann  n! Размещения из n по m - соединения, различающиеся самими элементами или их порядком. Anm  n! n  m ! Сочетания из n элементов по m - соединения, различающиеся только своими элементами. n! С nm  m!  n  m ! Формула Стирлинга 0 приближенная формула для вычисления факториалов асимптотического характера n !  nn  e n  2    n К лекции 2 Абсолютная частота случайного события А в серии из N случайных опытов - число NA , которое показывает, сколько раз в этой серии произошло событие А. Геометрическая вероятность события A - отношение меры области, благоприятствующей появлению события A к мере всей области P A  mes g mesG Относительная частота случайного события -отношение числа появлений этого события к общему числу проведенных экспериментов: W  A  256 NA N где A – случайное событие по отношению к некоторому испытанию, N - количество испытаний и при этом событие A наступило в N A случаях. Статистическая вероятность события - относительная частота события при большом числе испытаний или число близкое к ней: P( A)  lim W ( A) . n  К лекции 3 Зависимые события – события, если появление одного из них влияет на вероятность наступления другого. Независимые события - события, вероятность появления каждого из них не зависит от того, имели ли место другие. Сумма двух событий A1 и A2 - событие, состоящее в появлении хотя бы одного из этих событий. A  A1  A2 Произведением нескольких событий называется событие, состоящие в совместном наступлении всех этих событий в результате испытания. Уровень значимости -достаточно малая вероятность, при которой событие можно считать практически невозможным. Условная вероятность- вероятность одного события, вычисленная в предположении, что другое событие произошло. Априорные гипотезы – гипотезы, полученные до предстоящего опыта, Апостериорные гипотезы – гипотезы, полученные после опыта. Гипотеза – события, в условиях которых только и может появиться событие А . Полная вероятность события A - вероятность события, равная сумме произведений вероятностей гипотез на условные вероятности события, вычисленные соответственно при каждой из гипотез. 257 is P  A   P H i   P  A H i  i 1 Формула Бейеса - формула для вычисления апостериорных вероятностей гипотез после проведения опыта с учетом полученной информации (событие A уже произошло). P H i A  P H i   P  A H i  P  A К лекции 4 Дискретная случайная величина – случайная величина, возможные значения которой отделимы друг от друга, принимающая конечное или счетное множество значений. Закон распределения вероятностей данной случайной величины – соотношение, устанавливающее связь между вероятностями, с которыми данная случайная величина принимает различные значения и самими возможными значениями случайной величины. Многомодальное распределение (двухмодальное) – распределение, имеющее два или несколько максимумов у многоугольника распределения для дискретной случайной величины или на кривой распределения для непрерывной случайной величины. Если распределение имеет минимум, но не имеет максимума, то оно называется антимодальным Многоугольник распределения ( полигон распределения)– график, по оси абсцисс всевозможные значения случайной величины, по оси ординаты вероятности. Мода –значение сл.величины x i , имеющее наибольшую вероятность. Наивероятнейшее значение случайной величины – значение, вероятность которого больше , чем у других. Непрерывная случайная величина – случайная величина, возможные значения которой неотделимы друг от друга и непрерывно заполняют некоторый интервал. 258 Ряд распределения - закон распределения вероятностей дискретной случайной величины, заданный в виде таблицы, в первой строке даны значения случайной величины, а во второй – соответствующие им вероятности. Случайная величина – величина, которая в результате опыта может принять то или иное значение, но неизвестно заранее какое именно. Функцией распределения F(x) случайной величины X вероятность того, что случайная величина примет значение, меньшее x : F x   P X  x  x  x1 0 P  1  P  P F x    1 2   P1  P2    Pn 1  1 x1  x  x2 x2  x  x3 xn 1  x  xn x  xn К лекции 4 Дисперсия – числовая характеристика дискретной случайной величины, характеристика рассеивания, равная математическому ожиданию квадрата разности случайной величины и ее математического ожидания   is D X   M x  mx 2   xi  mx 2  pxi  i 1 Коэффициент ассиметрии случайной величины – числовая характеристика дискретной случайной величины, параметр формы, равный A 3  3 259 Математическое ожидание – числовая характеристика дискретной случайной величины, равная сумме произведений отдельных значений, которые может принимать переменная на соответствующие им вероятности is x  М  X    xi  pxi  i 1 Медиана - числовая характеристика дискретной случайной величины, для которой выполняется условие . P( X  x1 )  P( X  x 1 )  2 2 1 2 Мода – числовая характеристика дискретной случайной величины, значение случайной величины xi , имеющее наибольшую вероятность или наиболее вероятное значение. Наивероятнейшее событие – событие, вероятность осуществления которого не меньше вероятности других событий. np  q  m0  np  p Начальный момент k - порядка сл.величины Х - математическое ожидание k степени этой величины.  k  M  X k    xik  pi n i 1 Отклонение – центрированная случайная величина xi  M  X  Среднеквадратическое отклонение – числовая характеристика дискретной случайной величины, характеристика рассеивания, равная корню квадратному из дисперсии   D X  . Центральный момент k - порядка случайной величины Х математическое ожидание степени отклонение k сл.величины Х от ее математического ожидания. 260 n k  M  X  M  X      xi  a   pi k k i 1 Эксцесс - числовая характеристика дискретной случайной величины, характеризующая крутость распределения случайной величины, параметр формы, равный E 4  4 3 К лекции 5 Двухточечное распределение -закон распределения вероятностей случайной величины: PX  0  1  p , PX  1  p Биноминальный закон (закон Бернулли) - закон распределения вероятностей дискретной случайной величины, которая может принимать только целые неотрицательные значения с вероятностью Pn m   P X  m   Cnm p m q n  m , где - параметры p, q m  0,1,2,3,  , n , p  q  1, биноминального распределения. Закон Пуассона - закон распределения вероятностей дискретной случайной величины, которая принимает целые неотрицательные значения с вероятностями, PX  m  m e m! где   np - параметр распределения Пуассона. Наивероятнейшее значение случайной величины k 0 – число испытаний, при котором достигается максимальная вероятность в n независимых испытаниях np  q  k0  np  p 261 К лекции 6 Дисперсия непрерывной случайной величины x - числовая характеристика непрерывной случайной величины, характеристика рассеивания, возможные значения которой принадлежат отрезку a, b , выражаются через определенный интеграл D x    2  x  M x  f xdx  Математическое ожидание M x  непрерывной случайной величины x - числовая характеристика непрерывной случайной величины, возможные значения которой принадлежат отрезку a, b , выражаются через определенный интеграл M x     x  f x dx  Медиана Me непрерывной случайной величины – числовая характеристика непрерывной случайной величины для которой выполняется: P X  Me  P X  Me т.е. одинаково вероятно окажется ли случайная величина меньше или больше медианы. Мода непрерывной случайной величины – числовая характеристика непрерывной случайной величины, выражает наиболее вероятностное значение, в котором плотность максимальна. Непрерывная случайная величина (НСВ) - случайная величина, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Плотность распределения непрерывной случайной величины – функция f (x) , определяемая по формуле: f ( x)  F x  262 Среднее квадратическое отклонение - числовая характеристика равная корню квадратному из дисперсии:  x   Dx  Функция распределении (интегральный закон распределения) непрерывной случайной величины - функция, которая равна вероятности того, что непрерывная случайная величина приняла значение меньшее заданного х: F ( x)  x  f ( x)dx  К лекции 7 Кривая Гаусса - график плотности нормального распределения или нормальная кривая. Нормальное распределение (гауссовское) - закон распределения непрерывной случайной величины определяемый плотностью распределения,  1  x   e 2   x  a 2 2 2 , где a – математическое ожидание. Правило трех сигм - вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю. Правило k - сигм - вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем k -сигма, практически равна нулю 0.6827, k  1,  P X  m  k   Φk   Φ k   0.9545, k  2, 0.9973, k  3.  Равномерный закон распределения непрерывной случайной величины - закон для которого на интервале, которому 263 принадлежат все возможные значения случайной величины, плотность распределения сохраняет постоянное значение  1 , x  a, b  f x    b  a 0, x  a, b Распределение Вейбулла с параметрами m и a -показательное распределение случайной величины X с плотностью распределения f x   m a  x   m 1  a  x e m Стандартное нормальное распределение N 0,1 - нормальное распределение с математическим ожиданием 0 и стандартным отклонением 1 Функция Лапласа - функция распределения стандартной нормальной случайной величины X ~ N 0,1 2 y y 1 Φ y   e 2 dy  2   Экспоненциальное распределение - показательное распределение случайной величины X имеет с параметром   0 , если плотность распределения .   e   x , x  0 f  x   x0 0, К лекции 8 Ковариация или корреляционный момент K xy случайных величин X и Y - математическое ожидание произведения отклонений этих величин от своих математических ожиданий. K xy  M  X  M  x   Y  M  y  для дискретных случайных величин корреляционный момент 264 K xy    xi  a x    y j  a j  pij n m i 1 j 1 для непрерывных случайных величин корреляционный момент   К ху    ( x  M ( X ))( y  M (Y )) f ( x, y)dxdy.    Корреляционная матрица системы двух случайных величин X и Y - матрица вида D K  q x xy q   D xy y , где q -коэффициент корреляции Коэффициент корреляции - безразмерная характеристика коррелированности двух случайных величин q K xy  x y Некоррелированные случайные величины – величины, коэффициент корреляции которых равен нулю. Плотность совместного распределения вероятностей непрерывной двумерной случайной величины - двумерная плотность, смешанная частная производная 2-го порядка от функции распределения:  2 F ( x, y ) f ( x, y )  xy Произведение независимых случайных величин Х и Y - случайная величина XY, возможные значения которой равны произведениям всех возможных значений X на все возможные значения Y , а соответствующие им вероятности равны произведениям вероятностей сомножителей. Равномерно распределенная на плоскости система двух случайных величин – система, плотность вероятности которой f x, y  = const внутри некоторой области и равна 0 вне ее. Сумма случайных величин Х и Y - случайная величина X  Y , возможные значения которой равны суммам каждого возможного значения X с каждым возможным значением Y ; 265 вероятности таких сумм равны произведениям вероятностей слагаемых (для зависимых случайных величин – произведениям вероятности одного слагаемого на условную вероятность второго). x Условная плотность    распределения составляющих X  y при данном значении Y  y плотность  ( х / у)  f ( x, y )  f 2 ( y) f ( x, y )  .  f ( x, y)dx  Функция распределения F(x, y) двумерной случайной величины  X , Y  - вероятность того, что случайные величины X  x , a Y  y принимают значения: F  x, y   p  X  x , Y  y  . Центральный момент порядка k, s двумерной случайной величины ( X , Y ) - математическое ожидание произведения ( X  M ( X )) k на (Y  M (Y )) s : k ,s  M (( X  M ( X ))k (Y  M (Y ))s ). Для дискретных случайных величин  k , s   ( xi  M ( X )) k ( y j  M (Y )) s pij , i j для непрерывных случайных величин k ,s      ( x  M ( X )) k ( y  M (Y )) s f ( x, y)dxdy.  К лекции 9 Функция случайного аргумента X - единственное возможное значение случайной величины Y , которая соответствует каждому возможному значению случайной величины X . Y   (X) 266 Функция двух случайных аргументов X и Y - единственное возможное значение случайной величины Z , которая соответствует каждой паре возможных значений случайных величин X и Y Z   ( X,Y ) К лекции 10 Равномерный закон на плоскости – закон распределения системы двух случайных величин, у которого плотность вероятности равна f  x, y  = const внутри некоторой области и равна 0 вне ее. Нормальный закон распределения на плоскости - распределение вероятностей двумерной случайной величины (X, Y) с плотностью вида: f  x, y    1 2 x y 1  rxy2 e   x  a1 2  y  a 2 2 x  a1 y  a 2 1    2 xy 2  21 xy   x2  y2 x y     К лекции 11 Закон больших чисел – группа законов распределения суммы случайных величин, каждая из которых может иметь различные распределения, приближенных к нормальному при достаточно большом числе слагаемых. Характеристическая функция случайной величины X - функция вида   g t   M eitX К лекции 12 Бесповторная выборка – отобранный объект в генеральную совокупность не возвращается. Вариационный размах – разность между наибольшим и наименьшим вариантами ряда 267 R  x max  x min Вариационный ряд – ранжированный ряд вариантов с соответствующими весами. Весы – частоты и относительные частоты. Выборка – набор объектов, случайно отобранных из генеральной совокупности. Выборочная (эмпирическая) функция распределения - функция F * x  , определяющая для каждого значения x относительную частоту события X  x . n F * x   x , n где n x – число вариант, меньших x , n – объем выборки. Генеральная совокупность – все множество имеющихся объектов. Гистограмма – прямоугольники, с основаниями, равными интервалам значений признака и высотами, равными частотам. Группировка – разбиение вариантов на различные интервалы Дисперсия – средняя арифметическая квадратов отклонений вариантов от их средней арифметической  xi  x  m s  2 2 i 1  ni , n где s - средне квадратическое отклонение. Интервальные частоты - частоты, в которых признак принял значения, входящие в некоторый интервал. Кумулятивная кривая (кривая сумм) — ломаная, составленная по последовательно суммированным, т.е. накопленным частотам или относительным частотам. Коэффициент ассиметрии – числовая характеристика, выражающая характер распределения выборки  xi  x  m A 268 m3 s3  3 i 1 n  s3  ni Медиана - значение признака, приходящееся на середину ранжированного ряда наблюдений. Мода – варианта соответствующая наибольшей частоте. Объем генеральной совокупности N и объем выборки n – число объектов в рассматриваемой совокупности. Относительная частота – отношение частоты к общему наблюдению Повторная выборка – каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность; Полигон - ломаная линия с координатами  xi , ni  , где xi откладываются на оси абсцисс, а ni – на оси ординат. m n   ni i 1 Ранжирование вариантов ряда – расположение, упорядочивание вариантов в порядке возрастания (убывания) Средней арифметической вариационного ряда называется сумма произведений всех вариантов на соответствующие частоты, деленная на сумму частот. m x  x i  ni i 1 n , где x i - варианты дискретного ряда или середины интервалов вариационного ряда, ni - соответствующие им частоты, Частота – число, показывающее, сколько раз встречаются варианты из данного интервала Эксцесс - числовая характеристика, выражающая характер распределения  xi  x  m E m4 s4 3 4 i 1 n  s4  ni 3 269 К лекции 13 Статистическая гипотеза – гипотеза о виде неизвестного распределения, или о параметрах известных распределений. Нулевая (основная) гипотеза H 0 - выдвинутая гипотеза. Конкурирующая (альтернативная) гипотеза - гипотезу H 1 , которая противоречит нулевой. Простая гипотеза - гипотеза , содержащая только одно предположение. Сложная гипотеза - гипотеза, которая состоит из конечного или бесконечного числа простых гипотез. Статистический критерий - случайная величина К, которая служит для проверки нулевой гипотезы. Наблюдаемое значение K набл - значение критерия, вычисленное по выборкам. Критерий согласия - критерий проверки гипотезы о предполагаемом законе неизвестного распределения К лекции 14 Асимптотически несмещенная оценка – оценка некоторого признака и для выборки x1 , x2 ,, xn lim n x1  x2    xn X n где X – истинное значение исследуемой величины Несмещенная оценка Θ* - статистическая оценка, ожидание которой равно оцениваемому параметру Θ при любом объеме выборки M Θ*  Θ Смещенная оценка – статистическая оценка, ожидание которой не равно оцениваемому параметру. Состоятельная оценка - статистическая оценка, которая при n   стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при n   ее дисперсия стремится к 0).   270 Статистическая оценка неизвестного параметра теоретического распределения - функция от наблюдаемых случайных величин. Эффективная оценка – статистическая оценка, которая при заданном объеме выборки n имеет наименьшую возможную дисперсию. К лекции 16 Доверительный интервал - интервал, в который попадает неизвестный параметр с заданной надежностью  . Надежность (доверительная вероятность) оценки Θ* параметра Θ - вероятность γ того, что выполняется неравенство Θ*  Θ   . К лекции 17 Детерминированные процессы – процессы, которые можно описать математическими формулами, определяя положение системы в любой момент времени с разумной точностью. Дисперсия случайного процесса – неслучайная функция, которая равна дисперсии соответствующего сечения для t :  D (t )  x 2 p ( x, t )dx  m2 (t ) .  Корреляционная функция случайного процесса - неслучайная функция равная математическому ожиданию от произведения значений процесса в два различных момента времени и характеризующая степень их линейной зависимости:   K (t1 , t2 )    (x 1  m (t1 ))( x2  m (t2 )) p ( x1 , x2 , t1 , t2 )dx1 , dx2   Математическое ожидание случайного процесса - неслучайная функция m (t ) , которая t равна математическому ожиданию соответствующего сечения случайного процесса: 271  m (t )   xp ( x, t )dx .  Нормированная корреляционная функция, равная r (t1 , t2 )  функция - неслучайная K (t1 , t2 )   (t1 )  (t2 ) Реализация случайного процесса - неслучайная функция  (t , w0 ) , в которую превращается процесс в результате испытания Случайный процесс - семейство случайных величин { (t , w)} , определѐнных на  , F , P  , где под параметром t понимается время. Случайные сигналы (процессы) - сигналы, математическим описанием которых являются случайные функции времени. Стационарный случайный процесс в узком смысле - случайный процесс  (t ) для которого многомерные законы распределения не меняются при сдвиге всех временных переменных на одно и то же число: F ( x1 , ..., xn ; t1 , ..., tn )  F ( x1 , ..., xn ; t1  h, ..., tn  h) , n  N , h  R . Стационарный случайный процесс в широком смысле случайный процесс, для которого m (t )  m  const D (t )  D  const , , K (t1 , t2 )  K (t2  t1 )  K ( ) . Теория случайных процессов - математическая наука, изучающая случайные явления в динамике их развития. Хаотические случайные процессы – детерминированные, нелинейные случайные процессы, с сильной зависимостью от начальных условий. Эргодический стационарный случайный процесс - стационарный случайный процесс, для которого осреднение по ансамблю реализаций может быть заменено осреднением по времени одной реализации. 272 273 Приложение 1 Таблица значений функции 274 Приложение 2 Таблица значений функции 275 Приложение 3 Таблица критических точек распределения 276 Список основных формул 1. P  A  m , n 0  P( A)  1 классическое определение вероятности случайного события 2. n!  n  e  2 n 3. Anm  А n n формула приближенное вычисление факториала 4. 5. Стирлинга, n! размещение из n по m n  m! Pn  Ann  n! перестановки из n элементов n! сочетаниями из n элементов по Сnm  m!  n  m ! m 6.  x  y n n   Cnm  x m  y n m разложение бинома m0 Ньютона 7. P  A  mes g геометрическое mesG вероятности события 8. N W  A  A N определение A статическое определение вероятности случайного события A 9. P A1  A2   P A1   P A2  вероятность суммы двух несовместных событий 10. P A1  A2   P A1   P A2   P A1  A2  вероятность суммы двух совместных событий 11. P A1  A2   P A1  P A2  вероятность произведения независимых событий 277 P A1  A2   P A1   P A2 / А1  вероятность 12. произведения зависимых событий       P A  1  P A1  P A 2   P A n  1  q1  q2   qn 13. вероятность появления хотя независимых в совокупности бы P H i   P  A H i  P A 14. PH i A  15. P A   PH i   PA H i  одного из событий, формула Бейеса is полная вероятность i 1 события A F x   P X  x  16. функция случайной величины X распределения F(x) x  x1 0 P  1   P  P2 F x    1   P1  P2    Pn 1  1  x1  x  x2 x2  x  x3 xn 1  x  xn x  xn is x  М  X    xi  pxi  17. математическое i 1 ожидание дискретной случайной величины   is D X   M x  mx 2   xi  mx 2  pxi  дисперсия 18. i 1 дискретной случайной величины D X  Y   D X   DY  19. дисперсия двух независимых случайных величин D X  Y   D X   DY  дисперсия разности двух независимых случайных величин 21. M  X  Y   M  X   M Y  математическое ожидание суммы двух случайных величин 20. 278 суммы математическое M  XY   M  X M Y  ожидание произведения двух независимых случайных 23.   D X  среднеквадратическое отклонение 22.  k  M  X k    xik  pi n 24. начальный момент i 1 степени k 25. n k  M  X  M  X      xi  a   pi k k i 1 центральный момент степени k 3 26. A 27. E 28. PX  m  Cnm  p m  1  p n m 3 4  4 коэффициент ассиметрии 3 эксцесс закон распределения (закон Бернулли) 29. математическое M  X   np биноминальный ожидание случайной величины, распределенной по биноминальному закону 30. PX  m  m m! e закон Пуассона f ( x)  F x  плотность распределения непрерывной случайной величины x 31. в 32. P(a  X  в )   f ( x)dx вероятность попадания а непрерывной случайной величины X в интервал  a, b 33. M x     x  f x dx математическое ожидание  непрерывной случайной величины x 279 D( X )  34.  x 2 f ( x)dx  М 2 ( X ) дисперсия непрерывной  случайной величины X  1 , x  a, b  f x    b  a 0, x  a, b 35. равномерный закон распределения  ex , x  0 экспоненциальное f x     0, x  0 36. (показательное) распределение 1 37. M ( X )  , , математическое ожидание случайной  величины X ,распределенной по экспоненциальному закону 1 D( X )  2 38. дисперсия случайной величины  X ,распределенной по экспоненциальному закону P(a  X  в)  е а  е в 39. вероятность непрерывной случайной величины X попадания в интервал  a, b  , распределенной по экспоненциальному закону f x   40. f ( x)  41. m a  x   m 1  a  x e 1  2 m распределение Вейбулла ( xm)2 e 2 2 , нормальное (гауссовское) распределение M  X   m , D X    2 математическое ожидание и дисперсия непрерывной случайной величины X , распределенной 42. по нормальному закону 280 43.  m   m  P(  X   )      ,       вероятность попадания непрерывной случайной величины X  a, b , распределенной по нормальному закону в интервал 44. 45. 46. 1 Φ y   2 2 y y e 2 dy  функция Лапласа  1  x  1 Φ ( x)  Φ  2  2 2 x t e 2 /2 dt; нормированная функция Лапласа  2 F ( x, y ) f ( x, y )  xy 47. плотность совместного распределения двумерной случайной величины  X , Y  p(( X , Y )  D)   f ( x, y)dxdy. 48. вероятность D попадания точки в область D 49.  ( х / у)  f ( x, y )  f 2 ( y) f ( x, y )  условная  f ( x, y)dx  плотность распределения 50.  k , s  M ( X kY s ) начальный момент порядка k , s двумерной случайной величины  k ,s  xik y sj pij начальный момент порядка k , s для  i j дискретных случайных величин  k ,s     x k y s f ( x, y )dxdy начальный момент порядка k , s   для непрерывных случайных величин 281  k , s  M (( X  M ( X )) k (Y  M (Y )) s ) 51. центральный момент порядка k, s двумерной случайной величины ( X , Y ) k ,s   ( xi  M ( X ))k ( y j  M (Y )) s pij i центральный j момент порядка k, s для дискретных случайных величин k , s      ( x  M ( X )) ( y  M (Y )) k s f ( x, y )dxdy центральный   момент порядка k, s для непрерывных случайных величин K xy  1,1  M (( X  M ( X ))(Y  M (Y ))) 52. корреляционный момент или ковариация K xy   xi  ax   y j  a j  pij корреляционный момент для n m i 1 j 1 дискретных случайных величин   К ху    ( x  M ( X ))( y  M (Y )) f ( x, y)dxdy корреляционный   момент для непрерывных случайных величин K xy 53. rxy  54. D K  k x xy k   D f  x, y   55. коэффициент корреляции  x y xy корреляционная матрица y 1 2 2 x y 1  rxy  e   x  a1 2  y  a 2 2 x  a1 y  a2 1    2 xy 2  21 xy   x2  y2 x y нормальный закон распределения на плоскости (закон Гаусса)  P X , Y   R     f x, y dxdy 56.  попадания в прямоугольник 282 вероятность     D X  57.  p X  M  X   ε 58. X1  X 2    X n M  X1   M  X 2     M  X n   ε n n неравенство Чебышева 2 ε теорема Чебышева 59. 60. m  lim p  p  ε   1 n   n    g t   M eitX теорема Бернулли Характеристическая функция случайной величины X n 61. g t    e itxk pk X – дискретная случайная k 1 величина, заданная рядом распределения  62. g t    e itx f x dx характеристическая функция для  непрерывной случайной величины с плотностью распределения f (x) n 63. Yn   X k центральная предельная теорема для k 1 одинаково распределенных слагаемых n b 64. lim n  65. k 1 k     Dk   k 1  n 3 2 теорема Ляпунова   Y  np p α  β  Φ β  Φα теорема Муавра  npq   Лапласа 283 ni n 66. wi  67. F * x   относительная частота nx выборочная функция распределения n m x 68.  xi  ni i 1 среднее арифметическое вариационного n ряда ni n 69. wi  70. F * x   относительная частота nx выборочная функция распределения n m x 71.  xi  ni i 1 среднее арифметическое вариационного n ряда  xi  x  m 72. s  2 2 i 1  ni дисперсия n  xi  x  m A 73. m3 s3  3 i 1  ni коэффициент n  s3 ассиметрии  xi  x  m E 74. 284 m4 s4 3  4 i 1 n  s4  ni 3 эксцесс m 75. U   2   ci  i  pi 2 критерий Пирсона i 1 76. 77. r ni  n  pi 2 i 1 n  pi 2   y   x    случайная величина уравнение взаимосвязи двух переменных 2  ni xi  x B  k 78. n s2  DB  n 1 i 1 n 1 исправленная дисперсия k 79. s  s2    ni xi  x B  i 1 n 1 2 исправленное среднее квадратическое отклонение 80. x1  x2    xn X n n lim несмещенная оценка 81.  асимптотически  p Θ*    Θ Θ*     доверительная вероятность 285 Список литературы 1. Венцель Е.С. Теория вероятностей. М.: Академия, 2005 2. Гмурман В.Е. Теория вероятностей и математическая статистика: учеб пособие. - М.: Образование, 2007. 479с. 3. Вентцель Е.С. Задачи и упражнения по теории вероятностей. – М.: Высшая школа, 2002. – 448 с. 4. Кремер Н.Ш. Теория вероятностей и математическая статистика: Учебник для вузов. – М.: ЮНИТИ-ДАНА, 2001. 5. Калинина В.Н., Панкин В.Ф. Математическая статистика. - М.: Высшая школа, 2001. 6. Гмурман В.Е. Руководство к решению задач по теории вероятностей и математической статистике. - М. Высшая школа , 2001 -400с. 286
«Теория вероятностей и математическая статистика.Задачи.» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot