Справочник от Автор24
Поделись лекцией за скидку на Автор24

Медиана распределения случайной величины

  • 👀 677 просмотров
  • 📌 653 загрузки
Выбери формат для чтения
Статья: Медиана распределения случайной величины
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Медиана распределения случайной величины» pdf
Лекция 8. Тема: Случайные величины (продолжение). Медианой распределения случайной величины 𝑋 называется такое число m, что 1 1 𝑃(𝑋 ≤ 𝑚) ≥ 2 , 𝑃(𝑋 ≥ 𝑚) ≥ 2. Число m существует. Пусть 𝐹(𝑥) – функция распределения случайной величины 𝑋. Тогда 1 1 𝑃(𝑋 ≤ 𝑚) ≥ ⟺ 𝐹(𝑚 + 0) ≥ , 2 2 1 1 1 𝑃(𝑋 ≥ 𝑚) ≥ 2 ⟺ 1 − 𝐹(𝑚) ≥ 2 ⟺ 𝐹(𝑚) ≤ 2. Так как 𝑙𝑖𝑚 𝐹(𝑥) = 0, 𝑙𝑖𝑚 𝐹(𝑥) = 1 и функции 𝐹(𝑥) является неубывающей (см. лекцию 𝑥→−∞ 𝑥→+∞ 6), то существует такая точка m, в которой 1 1 𝐹(𝑚) ≤ 2, 𝐹(𝑚 + 0) ≥ 2. Если уравнение 𝐹(𝑥) = 0,5 имеет решение, то любое его решение является медианой. F 1 0,5 x x 𝑥 – точка непрерывности функции 𝐹(𝑥). F 1 0,5 x x 𝑥 – точка разрыва функции 𝐹(𝑥). F 1 0,5 x b a Любая точка 𝑥 ∈ [𝑎, 𝑏] является медианой Если у уравнения 𝐹(𝑥) = 0,5 нет решений, медианой является наибольшее решение неравенства 𝐹(𝑥) < 0,5 (легко доказать, что оно существует). F 1 0,5 x x 𝑥 – медиана распределения. 1 В общем случае медиана определяется неоднозначно. Но если случайная величина является абсолютно непрерывной и имеет строго возрастающую функцию распределения 𝐹(𝑥), то медиана равна единственному корню уравнения 𝐹(𝑥) = 0,5. F 1 0,5 x x Модой абсолютно непрерывного распределения называют любую точку локального максимума плотности распределения. Для дискретных распределений модой называют то значение случайной величины, вероятность которого больше вероятностей соседних значений. Рассмотрим только абсолютно непрерывный тип распределения с некоторой плотностью 𝑓(𝑥). Распределения с одной, двумя или большим числом мод называются соответственно унимодальными, бимодальными и мультимодальными. f f x x b a Бимодальное распределение. a Унимодальное распределение. Если математическое ожидание абсолютно непрерывной случайной величины существует, то можно доказать, что в случае унимодального и симметричного относительно некоторой точки a распределения математическое ожидание, мода и медиана равны a. Пример 1. Случайная величина 𝑋 в интервале (3, 5) задана плотностью распределения − 3⁄4𝑥 2 + 6𝑥 − 45⁄4 при 𝑥 ∈ (3, 5), 𝑓(𝑥) = { 0 при 𝑥 ∉ (3, 5). Найдите моду, математическое ожидание и медиану 𝑋. +∞ 5 Решение. Ясно, что 𝑀(𝑋) = ∫−∞ 𝑥𝑓(𝑥)𝑑𝑥 = ∫3 𝑥𝑓(𝑥)𝑑𝑥 существует. График квадратного трехчлена 𝑓(𝑥) = − 3⁄4𝑥 2 + 6𝑥 − 45⁄4 симметричен относительно прямой 𝑥 = 𝑥в , где 𝑏 6 абсцисса вершины 𝑥в = − 2𝑎 = − 2(−3⁄4) = 4. Эта точка является единственной точкой локального максимума плотности. Интервал (3, 5) симметричен относительно вертикальной прямой 𝑥 = 4. Следовательно, мы имеем симметричное относительно точки 𝑥 = 4 унимодальное распределение. f 3⁄4 x 3 5 4 Мода, математическое ожидание и медиана 𝑋 равны 4. 2 Из оставшихся числовых характеристик распределений нам понадобятся квантили. Они нам понадобятся только в случае абсолютно непрерывных распределений со строго возрастающей функцией распределения 𝐹(𝑥). Квантилью уровня 𝛾, где 𝛾 – любое число из интервала (0, 1), называется решение уравнения (оно существует и является единственным) 𝐹(𝑥) = 𝛾. F 1 𝛾 x 𝑥𝛾 Квантиль уровня 𝛾 обозначается через 𝑥𝛾 . Таким образом, медиана является квантилью 1 уровня 2. Квантили делятся на разные группы. Например, квантили 𝑥1⁄4 , 𝑥1⁄2 , 𝑥3⁄4 называются квартилями (ясно, что 𝑥1⁄2 – медиана). Перейдем к рассмотрению пар случайных величин. Пусть случайные величины 𝑋 и 𝑌 определены на одном и том же вероятностном пространстве и имеют конечные абсолютные моменты второго порядка 𝑀(𝑋 2 ) и 𝑀(𝑌 2 ). Ковариацией случайных величин 𝑋 и 𝑌 называется число 𝑐𝑜𝑣( 𝑋, 𝑌) = 𝑀[(𝑋 − 𝑀(𝑋))(𝑌 − 𝑀(𝑌))]. Заметим, что 𝑐𝑜𝑣( 𝑋, 𝑌) = 𝑀[(𝑋 − 𝑀(𝑋))(𝑌 − 𝑀(𝑌))] = 𝑀(𝑋𝑌 − 𝑌𝑀(𝑋) − 𝑋𝑀(𝑌) + 𝑀(𝑋)𝑀(𝑌)) = = 𝑀(𝑋𝑌) − 𝑀(𝑋)𝑀(𝑌). Если случайные величины 𝑋 и 𝑌 независимы, то 𝑀(𝑋𝑌) = 𝑀(𝑋)𝑀(𝑌), следовательно, 𝑐𝑜𝑣( 𝑋, 𝑌) = 0. Таким образом, если ковариация 𝑐𝑜𝑣( 𝑋, 𝑌) отлична от нуля, то случайные величины 𝑋 и 𝑌 не является независимыми. Как известно, если случайные величины 𝑋 и 𝑌 независимы, то 𝐷(𝑋 + 𝑌) = 𝐷(𝑋)+ 𝐷(𝑌). В общем случае 2 𝐷(𝑋 + 𝑌) = 𝑀 ((𝑋 + 𝑌 − 𝑀(𝑋 + 𝑌)) ) = 𝑀{[(𝑋 − 𝑀(𝑋)) + (𝑌 − 𝑀(𝑌))]2 } = 𝑀[(𝑋 − 𝑀(𝑋))2 + (𝑌 − 𝑀(𝑌))2 + 2(𝑋 − 𝑀(𝑋))(𝑌 − 𝑀(𝑌))] = 𝐷(𝑋) + 𝐷(𝑌) + 2 𝑐𝑜𝑣( 𝑋, 𝑌). Ковариация имеет ряд недостатков. Эта величина имеет размерность. Если случайные величины 𝑋 и 𝑌 измеряются, например, в метрах, то их ковариация будет измеряться в м2 . Если мы перейдем к другой системе измерения величин 𝑋, 𝑌, то их ковариация изменится, так как легко проверить, что 𝑐𝑜𝑣( 𝑎𝑋 + 𝑏, 𝑐𝑌 + 𝑑) = 𝑎𝑐 𝑐𝑜𝑣( 𝑋, 𝑌). Коэффициентом корреляции случайных величин 𝑋 и 𝑌 называется число 𝑐𝑜𝑣(𝑋,𝑌) 𝑀[(𝑋−𝑀(𝑋))(𝑌−𝑀(𝑌))] 𝑟(𝑋, 𝑌) = = . 2 2 √𝐷(𝑋)√𝐷(𝑌) √𝑀([𝑋−𝑀(𝑋)] )√𝑀([𝑌−𝑀(𝑌)] ) Коэффициент корреляции является безразмерной величиной и не меняется при переходе к другой системе измерения величин 𝑋, 𝑌. Легко проверить, что при 𝑎 > 0 и 𝑐 > 0 𝑟(𝑎𝑋 + 𝑏, 𝑐𝑌 + 𝑑) = 𝑟(𝑋, 𝑌). Легко доказать следующие свойства коэффициента корреляции: 1. |𝑟(𝑋, 𝑌)| ≤ 1. 2. |𝑟(𝑋, 𝑌)| = 1 тогда и только тогда, когда существуют такие постоянные 𝑎 и 𝑏, что 𝑌 = 𝑎𝑋 + 𝑏. 3. Если случайные величины 𝑋 и 𝑌 независимы, то 𝑟(𝑋, 𝑌) = 0. Из свойства 3 следует, что отличный от нуля коэффициент корреляции 𝑟(𝑋, 𝑌) является признаком отсутствия независимости случайных величин 𝑋 и 𝑌. Если коэффициент 3 корреляции случайных величин 𝑋 и 𝑌 равен нулю, то такие величины называются некоррелированными. В противном случае случайные величины 𝑋 и 𝑌 называются коррелированными. Коррелированные случайные величины не являются независимыми. Если коэффициент корреляции 𝑟(𝑋, 𝑌) > 0, то случайные величины 𝑋 и 𝑌 называются положительно коррелированными. Если коэффициент корреляции 𝑟(𝑋, 𝑌) < 0, то случайные величины 𝑋 и 𝑌 называются отрицательно коррелированными. Из некоррелированности случайных величин не следует их независимость. 𝜋 Пример 2. Пусть Ω = {0, 2 , 𝜋} и все исходы равновозможны. Пусть 𝑋 = 𝑠𝑖𝑛𝜔, 𝑌 = 𝑐𝑜𝑠𝜔. Эти случайные величины имеют следующие распределения: -1 1 𝑋 1 𝑌 2/3 1/3 1/3 1/3 1/3 P P 1 Ясно, что 𝑀(𝑋) = 1/3, 𝑀(𝑌) = 0. Заметим, что 𝑋𝑌 = 2 𝑠𝑖𝑛2𝜔 = 0 ∀𝜔𝜖Ω. Следовательно, 𝑀(𝑋𝑌) = 0, 𝑀(𝑋)𝑀(𝑌) = 0, 𝑐𝑜𝑣( 𝑋, 𝑌) = 0, 𝑟(𝑋, 𝑌) = 0. Таким образом, случайные величины 𝑋 и 𝑌 некоррелированы. Но эти величины не являются независимыми. Действительно, 𝑃(𝑋 = 0) = 2/3, 𝑃(𝑌 = −1) = 1/3. Благоприятным для события {𝑋 = 0, 𝑌 = −1} является единственный исход 𝜔 = 𝜋, так как 𝑠𝑖𝑛𝜔=0 и 𝑐𝑜𝑠𝜔 = −1 только при 𝜔 = 𝜋. Следовательно, по классической схеме, 𝑃(𝑋 = 0, 𝑌 = −1) = 1/3. В случае независимых случайных 𝑋 и 𝑌 должно выполняться равенство 𝑃(𝑋 = 0, 𝑌 = −1) = 𝑃(𝑋 = 0)𝑃(𝑌 = −1). Но в нашем случае, 1 2 𝑃(𝑋 = 0, 𝑌 = −1) = 3 ≠ 9 = 𝑃(𝑋 = 0)𝑃(𝑌 = −1). Следовательно, некоррелированные случайные величины 𝑋 и 𝑌 не являются независимыми. Пусть случайные величины 𝑋 и 𝑌 коррелированы, т.е. 𝑟(𝑋, 𝑌) ≠ 0. Тогда случайные величины 𝑋 и 𝑌 не являются независимыми. Естественно ожидать, что знание значения случайной величины 𝑋 позволяет вынести некоторые суждения и о значении случайной величины 𝑌. Пусть 𝑓(𝑥) – борелевская функция одной переменной (напомним, что все непрерывные функции являются борелевскими). Случайную величину 𝑓(𝑋) будем называть оценкой для 𝑌. Меняя функцию 𝑓(𝑥), мы можем получить разные оценки. Выделим из них одну оценку. Оценку 𝑓 ∗ (𝑋) для 𝑌 назовем оптимальной в среднеквадратическом смысле, если 𝑀(𝑌 − 𝑓 ∗ (𝑋))2 ≤ 𝑀(𝑌 − 𝑓(𝑋))2 для любой оценки 𝑓(𝑋) для 𝑌. Перед общим методом построения оптимальной оценки, рассмотрим один простой приближенный метод. Ясно, что удобно работать с оценками, имеющими простой вид. Самыми удобными для использования являются линейные функции. Для нахождения оптимальной оценки для 𝑌 в классе линейных функций вида 𝑓(𝑋) = 𝑎 + 𝑏𝑋, рассмотрим функцию двух переменных 𝑎 и 𝑏 𝑔(𝑎, 𝑏) = 𝑀(𝑌 − (𝑎 + 𝑏𝑋))2. Легко найти методами математического анализа точку минимума (𝑎 ∗ , 𝑏 ∗ ) этой функции: 𝑎 ∗ = 𝑀(𝑌) − 𝑟(𝑋, 𝑌) 𝑏 ∗ = 𝑟(𝑋, 𝑌) √𝐷(𝑌) √𝐷(𝑋) √𝐷(𝑌) 𝑀(𝑋), . √𝐷(𝑋) Следовательно, оптимальной в среднеквадратическом смысле линейной оценкой для значения случайной величины 𝑌 по значению случайной величины 𝑋 является 𝑓 ∗ (𝑋) = 𝑀(𝑌) + 𝑟(𝑋, 𝑌) √𝐷(𝑌) √𝐷(𝑋) (𝑋 − 𝑀(𝑋)). (1) Полученная линейная аппроксимация оптимальной оценки позволяет лучше понять значение коэффициента корреляции 𝑟(𝑋, 𝑌) при изучении пары случайных величин. Из уравнения (1) видно, почему при 𝑟(𝑋, 𝑌) > 0 случайные величины 𝑋 и 𝑌 называются 4 положительно коррелированными, а при 𝑟(𝑋, 𝑌) < 0 - отрицательно коррелированными. Из уравнения (1) следует, что 𝑀(𝑌 − 𝑓 ∗ (𝑋))2 = [1 − 𝑟 2 (𝑋, 𝑌)]𝐷(𝑌). (2) Эта величина характеризует качество нашей оценки 𝑓 ∗ (𝑋) для 𝑌 (расхождение нашего прогноза 𝑓 ∗ (𝑋) для 𝑌 от реальной ситуации с 𝑌). Из формулы (2) следует, что чем больше по модулю коэффициент корреляции, тем сильнее линейная зависимость между 𝑋 и 𝑌. Если 𝑟(𝑋, 𝑌) = ±1, то из формулы (2) следует, что 𝑀(𝑌 − 𝑓 ∗ (𝑋))2 = 0. Но это равенство возможно тогда и только тогда, когда 𝑌 − 𝑓 ∗ (𝑋) = 0 с вероятностью 1, т.е. мы можем считать, что 𝑌 = 𝑎∗ + 𝑏 ∗ 𝑋. В этом случае мы имеем линейную зависимость 𝑌 от 𝑋. Заметим, что если 𝑟(𝑋, 𝑌) = 0, т.е. случайные величины некоррелированы, то 𝑓 ∗ (𝑋) = 𝑀(𝑌). Мы рассмотрели приближенный метод для построения оптимальной оценки. Вернемся к общему методу для решения этой задачи. Для этого введем так называемые условные распределения. Сначала рассмотрим дискретный тип совместного распределения пары 𝑋 и 𝑌. Пусть дан совместный закон их распределения. 𝑋 𝑌 … 𝑦1 𝑦𝑛 … 𝑥1 𝑝11 𝑝1𝑛 … … …. … …. 𝑥𝑚 𝑝𝑚1 𝑝𝑚𝑛 Ясно, что ∑𝑛𝑗=1 𝑝𝑖𝑗 = 𝑝𝑖 = 𝑃(𝑋 = 𝑥𝑖 ), ∑𝑚 𝑖=1 𝑝𝑖𝑗 = 𝑞𝑗 = 𝑃(𝑌 = 𝑦𝑗 ). Из совместного закона распределения можно найти частные распределения 𝑋 и 𝑌. … … 𝑋 𝑥1 𝑥2 𝑥𝑚 𝑌 𝑦1 𝑦2 𝑦𝑛 … … 𝑝1 𝑝2 𝑝𝑚 𝑞1 𝑞2 𝑞𝑛 P P Зафиксируем значение случайной величины 𝑋: пусть 𝑋 = 𝑥𝑖 . Построим новый закон распределения: … 𝑌 𝑦1 𝑦2 𝑦𝑛 |𝑥 |𝑥 … 𝑝(𝑦|𝑥𝑖 ) 𝑝(𝑦1 𝑖 ) 𝑝(𝑦2 𝑖 ) 𝑝(𝑦𝑛 |𝑥𝑖 ) где 𝑝(𝑦𝑗 |𝑥𝑖 ) = 𝑃(𝑌 = 𝑦𝑗 |𝑋 = 𝑥𝑖 ) = 𝑃(𝑋=𝑥𝑖 ,𝑌=𝑦𝑗 ) 𝑃(𝑋=𝑥𝑖 ) = 𝑝𝑖𝑗 𝑝𝑖 . Этот закон распределения называют условным распределением 𝑌 при условии 𝑋 = 𝑥𝑖 . Условным математическим ожиданием дискретной случайной величины 𝑌 при условии 𝑋 = 𝑥𝑖 называется число 𝑀(𝑌|𝑋 = 𝑥𝑖 ) = ∑𝑛𝑗=1 𝑦𝑗 𝑝(𝑦𝑗 |𝑥𝑖 ). Аналогично, зафиксируем значение случайной величины 𝑌: пусть 𝑌 = 𝑦𝑗 . Построим новый закон распределения: 𝑋 𝑥1 𝑥2 𝑝(𝑥|𝑦𝑗 ) 𝑝(𝑥1 |𝑦𝑗 ) 𝑝(𝑥2 |𝑦𝑗 ) где … … 𝑥𝑚 𝑝(𝑥𝑛 |𝑦𝑗 ) 𝑝(𝑥𝑖 |𝑦𝑗 ) = 𝑃(𝑋 = 𝑥𝑖 |𝑌 = 𝑦𝑗 ) = 𝑃(𝑋=𝑥𝑖 ,𝑌=𝑦𝑗 ) 𝑃(𝑌=𝑦𝑗 ) = 𝑝𝑖𝑗 𝑞𝑗 . Этот закон распределения называют условным распределением 𝑋 при условии 𝑌 = 𝑦𝑗 . Условным математическим ожиданием дискретной случайной величины 𝑋 при условии 𝑌 = 𝑦𝑗 называется число 𝑀(𝑋|𝑌 = 𝑦𝑗 ) = ∑𝑚 𝑖=1 𝑥𝑖 𝑝(𝑥𝑖 |𝑦𝑗 ). Рассмотрим теперь абсолютно непрерывный тип совместного распределения пары 𝑋 и 𝑌. Пусть дана их совместная плотность распределения 𝑓(𝑥, 𝑦). Как мы знаем, из совместной плотности распределения случайных величин 𝑋, 𝑌 можно найти плотности распределения случайных величин 𝑋, 𝑌: 5 +∞ 𝑓𝑋 (𝑥) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑦, +∞ 𝑓𝑌 (𝑦) = ∫−∞ 𝑓(𝑥, 𝑦)𝑑𝑥. Зафиксируем значение случайной величины 𝑋: пусть 𝑋 = 𝑥. Условной плотностью распределения 𝑌 при 𝑋 = 𝑥 называется функция 𝜙(𝑦|𝑥) = 𝑓(𝑥, 𝑦)⁄𝑓𝑋 (𝑥). Условным математическим ожиданием 𝑌 при 𝑋 = 𝑥 называется функция +∞ 𝑀𝑥 (𝑌) = ∫−∞ 𝑦𝜙(𝑦|𝑥) 𝑑𝑦. Аналогично, зафиксируем значение случайной величины 𝑌: пусть 𝑌 = 𝑦. Условной плотностью распределения 𝑋 при 𝑌 = 𝑦 называется функция 𝜙(𝑥|𝑦) = 𝑓(𝑥, 𝑦)⁄𝑓𝑌 (𝑦). Условным математическим ожиданием 𝑋 при 𝑌 = 𝑦 называется функция +∞ 𝑀𝑦 (𝑋) = ∫−∞ 𝑥𝜙(𝑥|𝑦) 𝑑𝑥. Введенные условные математические ожидания используются при построении оптимальных оценок. Пусть дана пара случайных величин 𝑋 и 𝑌 с конечными моментами второго порядка 𝑀(𝑋 2 ) и 𝑀(𝑌 2 ). Пусть одна из них, например 𝑋, наблюдаема, а другая, в данном случае 𝑌, наблюдению не подлежит. Вернемся к вопросу об оптимальной оценке для ненаблюдаемой случайной величины 𝑌 по наблюдениям над значениями 𝑋. Так как 𝑀(𝑌 2 ) < +∞, то естественно искать оценки 𝑓(𝑋) для 𝑌 только среди случайных величин с конечными вторыми моментами, т.е. будем считать, что 𝑀(𝑓 2 (𝑋)) < +∞. Ясно, что в этом классе находятся и линейные оценки 𝑓(𝑋) = 𝑎 + 𝑏𝑋, так как 𝑀(𝑋 2 ) < +∞. Можно доказать, что оптимальную в среднеквадратическом смысле оценку 𝑓 ∗ (𝑋) для 𝑌 можно получить, если в качестве функции 𝑓 ∗ (𝑥) взять функцию 𝑀𝑥 (𝑌). Эта функция 𝑀𝑥 (𝑌) называется функцией регрессии 𝑌 на 𝑋. Аналогично можно ввести определение функции регрессии 𝑋 на 𝑌. На следующей лекции мы рассмотрим один частный случай, в котором можно получить точное выражение для функции 𝑀𝑥 (𝑌). На практике в общем случае используются различные аппроксимации для этой зависимости. Например, если использовать линейную аппроксимацию для функции регрессии 𝑀𝑥 (𝑌), то мы опять придем к результату, что наилучшей линейной аппроксимацией для функции регрессии 𝑀𝑥 (𝑌)является функция 𝑓 ∗ (𝑥) = 𝑀(𝑌) + 𝑟(𝑋, 𝑌) √𝐷(𝑌) √𝐷(𝑋) (𝑥 − 𝑀(𝑋)). Эту функцию называют линейной средней квадратической регрессией 𝑌 на 𝑋. Перейдем к рассмотрению основных видов распределений случайных величин. Начнем с нормального распределения. Говорят, что абсолютно непрерывная случайная величина X имеет нормальное (гауссовское) распределение с параметрами a и 𝜎 2 , если ее плотность распределения 𝑓𝑋 (𝑥) имеет вид 1 𝑓𝑋 (𝑥) = 𝜎√2𝜋 𝑒 − (𝑥−𝑎)2 2𝜎2 , (3) где 𝑎 – произвольная постоянная, а 𝜎 – произвольная положительная постоянная. Название этого распределения связано с тем, что многие случайные величины имеют плотность такого вида. Это название не говорит о «ненормальности» других распределений, а выделяет это распределение из других, отводит для него особое место. Подробнее об этом будет сказано при рассмотрении центральной предельной теоремы. Запись 𝑋 ∼ 𝒩(𝑎, 𝜎 2 ) означает, что случайная величина X имеет нормальное распределение с параметрами a и 𝜎 2 . 1 В правой части формулы (3) присутствуют множитель 𝜎√2𝜋. Для объяснения 1 происхождения этого множителя, представим плотность 𝑓𝑋 (𝑥) = 𝜎√2𝜋 𝑒 𝑓𝑋 (𝑥) = 𝐶𝑒 (𝑥−𝑎)2 − 2𝜎2 +∞ − (𝑥−𝑎)2 2𝜎2 в виде и найдем постоянную 𝐶 из свойства плотности ∫−∞ 𝑓𝑋 (𝑥)𝑑𝑥 = 1. Итак, 6 𝑡= +∞ 1 = ∫−∞ 𝐶𝑒 +∞ ∫−∞ 𝑒 −𝑡 Интеграл 2 +∞ ∫−∞ 𝑒 −𝑡 /2 𝑑𝑡 2 /2 (𝑥−𝑎)2 − 2𝜎2 𝑥−𝑎 𝑑𝑡 = 𝑑𝑥 = 𝜎 𝑑𝑥 𝜎 , +∞ , = 𝐶𝜎 ∫−∞ 𝑒 −𝑡 2 /2 𝑑𝑡. 𝜎𝑑𝑡 = 𝑑𝑥, [−∞ < 𝑡 < +∞.] называется интегралом Пуассона. Можно 𝑑𝑡 доказать, что 1 = √2𝜋. Таким образом, 1 = 𝐶𝜎√2𝜋. Отсюда 𝐶 = 𝜎√2𝜋. 0,25 f 0,2 0,15 0,1 0,05 x -5 -4 -3 -2 -1 1 2 3 4 5 6 7 8 9 10 11 График плотности нормального распределения с параметрами a=3 и 𝜎 2 = 4. Можно доказать, что если 𝑋 ∼ 𝒩(𝑎, 𝜎 2 ), то 𝑀(𝑋) = 𝑎, 𝐷(𝑋) = 𝜎 2 . Нормальное распределение с параметрами a=0 и 𝜎 2 = 1 называется стандартным нормальным распределением. Плотность стандартного нормального распределения имеет вид 𝜑(𝑥) = 1 √2𝜋 𝑒 − 𝑥2 2 . Эту функцию мы ввели при рассмотрении локальной теоремы Муавра-Лапласа и назвали функцией Гаусса. 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 -5 -4 -3 +∞ Ясно, что ∫−∞ 𝜑(𝑥)𝑑𝑥 = -2 -1 1 2 3 4 5 График функции 𝜑(𝑥). +∞ = ∫0 𝜑(𝑥)𝑑𝑥 = 0,5. По определению, функция 1, ∫−∞ 𝜑(𝑥)𝑑𝑥 𝑥 стандартного нормального распределения имеет вид 𝑁(𝑥) = ∫−∞ 𝜑(𝑡)𝑑𝑡. Эту функцию 7 𝑥 𝑥 можно выразить через функцию Лапласа: 𝑁(𝑥) = ∫−∞ 𝜑(𝑡)𝑑𝑡 = ∫−∞ 𝜑(𝑡)𝑑𝑡 + ∫0 𝜑(𝑡)𝑑𝑡 = 𝑥 0,5 + 𝛷(𝑥), где 𝛷(𝑥) = ∫0 𝜑(𝑡)𝑑𝑡 = 1 𝑥 ∫ 𝑒 −𝑡 √2𝜋 0 1,1 2 ⁄2 𝑑𝑡 – функция Лапласа. N 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 -5 -4 -3 -2 -1 1 2 3 4 x 5 График функции стандартного нормального распределения. Пусть 𝑋 ∼ 𝒩(𝑎, 𝜎 2 ). Тогда для функции распределения 𝐹𝑋 (𝑥) случайной величины 𝑋 справедлива формула: 𝑡−𝑎 𝑑𝑡 𝑥−𝑎 𝑥 (𝑡−𝑎)2 𝑦= , 𝑑𝑦 = 𝜎 1 1 −𝑦 2 − 𝜎 𝜎 2 2 𝐹𝑋 (𝑥) = ∫ 𝑒 2𝜎 𝑑𝑡 = [ 𝑥 − 𝑎 ] = ∫−∞ √2𝜋 𝑒 𝑑𝑦 = −∞ 𝜎√2𝜋 𝜎𝑑𝑦 = 𝑑𝑡, −∞ < 𝑡 < . 𝜎 𝑥−𝑎 𝑥−𝑎 =𝑁( 𝜎 )= 0,5 + Φ( 𝜎 ). Отсюда следует, что если 𝑋 ∼ 𝒩(𝑎, 𝜎 2 ), то 𝑥−𝑎 𝑥−𝑎 𝑃(𝑋 ≤ 𝑥) = 𝑃(𝑋 < 𝑥)= 0,5 + Φ( 𝜎 ), 𝑃(𝑋 ≥ 𝑥) = 𝑃(𝑋 > 𝑥) = 0,5 − Φ( 𝜎 ), 𝑃(𝑥1 ≤ 𝑋 ≤ 𝑥2 ) = 𝑃(𝑥1 < 𝑋 ≤ 𝑥2 ) = 𝑥 −𝑎 𝑥 −𝑎 = 𝑃(𝑥1 ≤ 𝑋 < 𝑥2 ) = 𝑃(𝑥1 < 𝑋 < 𝑥2 ) = Φ ( 2𝜎 ) − Φ( 1𝜎 ). (4) 1 0,9 0,8 0,7 0,6 0,5 0,4 0,3 0,2 0,1 -4 -3 -2 -1 𝐹𝑋 (𝑥) x 1 2 3 4 5 6 7 8 9 График функции нормального распределения с параметрами a=3 и 𝜎 2 = 4. Из формулы (4) следует «правило трех сигм»: если 𝑋 ∼ 𝒩(𝑎, 𝜎 2 ), то практически достоверно, что значения случайной величины 𝑋 заключены в интервале (𝑎 − 3𝜎, 𝑎 + 3𝜎). Действительно, 𝑎+3𝜎−𝑎 𝑎−3𝜎−𝑎 𝑃(𝑎 − 3𝜎 < 𝑋 < 𝑎 + 3𝜎) = Φ ( 𝜎 ) − Φ ( 𝜎 ) = Φ(3) − Φ(−3) = 2Φ(3) ≈ 0,9973. 8
«Медиана распределения случайной величины» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot