Многомерные случайные величины
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Задание:
10
1. Производится два выстрела по мишени в неизменных условиях. Вероятность
попадания в мишень при одном выстреле равна 0,9. Случайные величины: Х
– число выстрелов до первого попадания (включительно), Y – число
промахов.
a. Найти центр рассеивания данного распределения и значения дисперсий
с.в.;
b. Вычислить коэффициент корреляции, записать ковариационную
матрицу;
c. Найти Р (Х≥ 𝑌 + 1);
d. Построить функцию распределения случайного вектора (Х, Y).
2. Случайные величины Х и Y независимы и распределены по законам
R (-1, 1) и R (0,2) соответственно. Найти выражение для плотности
f (x, y), вычислить вероятность события А = {(x, y) ϵ G), где G –
треугольник с вершинами в точках (-1,0), (0,1), (1,0).
3.
Пусть Х⁓ N (0,1) и Y=𝑋 2 . Исследуйте величины Х и Y на независимость и
некоррелированность.
11
В практических применениях теории вероятностей очень часто приходится сталкиваться с
задачами, в которых результат опыта описывается не одной случайной величиной, а двумя или более
случайными величинами, образующими систему случайных величин.
Например, точка попадания снаряда определяется не одной, а двумя случайными
величинами: абсциссой и ординатой. Случайное отклонение точки разрыва от цели при
дистанционной стрельбе определяется системой трех случайных величин – тремя координатами этой
точки.
Совместное распределение двух или нескольких случайных величин приводит к системе
случайных величин. Условимся систему нескольких случайных величин Х, Y, …, W обозначать (X, Y,
…, W). При изучении системы случайных величин недостаточно изучить в отдельности случайные
величины, составляющие систему, необходимо учитывать еще и связи или зависимости между
этими величинами. Здесь возникают новые, отличные от рассмотренных ранее, задачи.
12
МНОГОМЕРНЫЕ СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
При изучении систем случайных величин ограничимся подробным изучением системы двух
случайных величин, так как все положения, касающиеся системы двух случайных величин, можно
легко распространить на систему n случайных величин.
ОПРЕДЕЛЕНИЯ
13
• Упорядоченный набор (Х1, Х2, …Хn ) случайных величин Хi (i=1, 𝑛 ) ,заданных на одном и том же ПЭС, называется
n – мерной случайной величиной или системой n случайных величин.
• Одномерные случайные величины Х1, Х2, … Хn называются компонентами или составляющими
n – мерной случайной величины (Х1, Х2 ,…Хn ) .
• Упорядоченная пара (Х,Y) двух случайных величин Х и Y называется двумерной случайной величиной или
системой двух одномерных случайных величин Х и Y.
Законом распределения системы случайных величин называется любое соотношение, устанавливающее
связь между областями возможных значений системы случайных величин и вероятностями появления системы в
этих областях.
Из этого определения следует, что закон распределения системы случайных величин может быть задан в
различных формах.
Функция распределения. Свойства функции распределения
14
Функцией распределения F(x, y) двумерной случайной величины (X, Y) называется
вероятность совместного выполнения двух неравенств: X 𝟐
y≤0
0< 𝐲 ≤1
4
36
8
36
𝟏
𝟒
1< 𝐲 ≤2
16
36
26
36
𝟑
𝟒
y> 𝟐
𝟐𝟓
𝟑𝟔
𝟑𝟓
𝟑𝟔
1
27 УСТАНОВИТЬ ЗАВИСИМЫ ИЛИ НЕЗАВИСИМЫ С.В. Х И Y
• События A и B называются независимыми, если
P(AB) = P(A)·P(B).
• Случайные величины X и Y называются независимыми, если закон распределения каждой
из них не зависит от того, какое значение приняла другая.
• Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно,
чтобы функция распределения системы (X, Y) была равна произведению функций
распределения составляющих
F(x,y) = FХ(x)·FY(y).
28
УСТАНОВИТЬ ЗАВИСИМЫ ИЛИ НЕЗАВИСИМЫ С.В. Х И Y
ПУСТЬ X И Y
ПУСТЬ X И Y
ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
НЕПРЕРЫВНЫЕ СЛУЧАЙНЫЕ
ВЕЛИЧИНЫ
• Случайные величины X и Y
независимы тогда и только
тогда, когда для любых
значений xi и yj выполнено
• Случайные величины X и
Y независимы тогда и
только тогда, когда
P(X = xi,Y = yj) = P(X = xi)·P(Y = yj).
fXY(x,y) = fX(x)·fY(y).
29
yj
1
2
P( X= xi )
3. УСТАНОВИТЬ ЗАВИСИМЫ ИЛИ НЕЗАВИСИМЫ С.В. Х И Y
(ПРИМЕР)
1
2
P( Y= yj )
4
36
12
36
9
36
𝟐𝟓
𝟑𝟔
4
36
6
36
1
36
𝟏𝟎
𝟑𝟔
𝟏
𝟑𝟔
𝟏
𝟒
𝟐
𝟒
𝟏
𝟒
1
• P(X = xi,Y = yj) = P(X = xi)·P(Y = yj).
• P(X = 0,Y = 0) =
•
𝟒
𝟑𝟔
≠
𝟐𝟓
𝟏𝟒𝟒
𝟒
𝟑𝟔
P(X = 0)·P(Y = 0) =
𝟐𝟓 𝟏
∙
𝟑𝟔 𝟒
=
𝟐𝟓
𝟏𝟒𝟒
с.в. Х и Y не являются независимыми.
КОВАРИАЦИЯ И КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ
30
• Ковариацией (смешанный второй центральный момент,
корреляционный момент) случайных величин X и Y называют
число
• cov(X,Y) = M((X−MX)·(Y−MY))
• cov(X,Y) = MXY−MX·MY.
Свойства математического ожидания и дисперсии можно дополнить:
MXY=MX·MY+ cov(X,Y)
D(X + Y) = DX +DY + 2cov(X,Y)
СВОЙСТВА КОВАРИАЦИИ
31
1. Ковариация не меняется при перестановке случайных величин:
cov(X,Y) = cov(Y,X).
2. Если C =const, то cov(X,C) = 0.
3. Если случайные величины X и Y независимы, то
cov(X,Y) = 0.
4. cov(X,X) = DX, cov(Y,Y) = DY.
5. Ковариация линейна по каждому из своих аргументов:
cov(C1X1 + C2X2 ,Y) = C1cov(X1,Y) + C2cov(X2,Y),
где C1 ,C2 =const.
6. |cov(X,Y)|≤ 𝐷𝑋 ∙ 𝐷𝑌
КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ
32
• Коэффициентом корреляции величин X и Y называют отношение ковариации к произведению
средних квадратических отклонений этих величин
𝝆𝑿𝒀 =
𝒄𝒐𝒗(𝑿,𝒀)
𝝈𝑿 𝝈𝒀
• Коэффициент корреляции—безразмерная величина, причем
𝝆𝑿𝒀 ≤ 𝟏.
• Коэффициент корреляции служит для оценки тесноты линейной связи между X и Y:
чем ближе абсолютная величина коэффициента корреляции к единице, тем связь сильнее;
чем ближе абсолютная величина коэффициента корреляции к нулю, тем связь слабее.
• Коэффициент корреляции равен 1 тогда и только тогда, когда случайные величины линейно
связаны.
•
КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ
33
•
Если коэффициент корреляции равен нулю, то величины называют некоррелированными.
Равенство нулю коэффициента корреляции является только необходимым, но не достаточным
условием для независимости случайных величин. Это значит, что может существовать система
зависимых случайных величин, коэффициент корреляции которых равен нулю.
• Из независимости двух величин следует их некоррелированность, но из некоррелированности еще
нельзя сделать вывод о независимости этих величин.
• Для некоторых распределений понятия независимости и некоррелированности являются
эквивалентными.
• В частности, если случайные величины X и Y имеют нормальное распределение и ρXY = 0, то
они независимы.
КОВАРИАЦИЯ СЛУЧАЙНЫХ ВЕЛИЧИН X И Y, КОЭФФИЦИЕНТ КОРРЕЛЯЦИИ
(ПРИМЕР)
𝒄𝒐𝒗(𝑿,𝒀)
• 𝝆𝑿𝒀 =
𝝈𝑿 𝝈𝒀
34
• cov(X,Y) = MXY−MX·MY.
• cov(X,Y) =σ σ 𝑥𝑖 𝑦𝑗 𝑝𝑖𝑗 − σ 𝑥𝑖 𝑝𝑖 ∙ σ 𝑦𝑗 𝑝𝑗 =
=0∙0∙
+ 0∙1∙
4
36
12
36
+ 0∙2∙
+ 1∙0∙
+ 1∙1∙
9
36
4
36
𝟔
𝟑𝟔
+ 2∙0∙
1
36
+
+ 1∙2∙ 0 + 2∙2∙ 0 −
𝝆𝑿𝒀 =
− 𝟓𝟔
𝟓 𝟏
∙
𝟏𝟖 𝟐
=-
𝟓
𝟓
2
1
3
∙1=-
𝟓
𝟔
1
2
P( Y= yj )
4
36
12
36
9
36
𝟐𝟓
𝟑𝟔
4
36
6
36
1
36
𝟏𝟎
𝟑𝟔
𝟏
𝟑𝟔
𝟏
𝟒
𝟐
𝟒
𝟏
𝟒
1
yj
1
+ 2∙1∙ 0 +
P( X= xi )
35
КОВАРИАЦИОННАЯ И КОРРЕЛЯЦИОННАЯ МАТРИЦЫ
(ПРИМЕР)
𝐷𝑋
•
𝑐𝑜𝑣(𝑋, 𝑌)
•
1
𝝆𝑿𝒀
𝝆𝑿𝒀
1
𝑐𝑜𝑣(𝑋, 𝑌)
𝐷𝑌
𝟓
𝟏𝟖
𝟓
−
𝟔
𝟏
𝟐
𝟓
𝟓
−
1
−
−
𝟓
𝟔
𝟓
𝟓
1
Условные законы распределения
36
Опр. Условным законом распределения одной из одномерных составляющих двумерной случайной
величины (Х,Y) называется ее закон распределения, вычисленный при условии, что другая
составляющая приняла определенное значение.
Условная вероятность того, что с.в. Y примет значение 𝑦𝑗 , при условии, что 𝑋 = 𝑥𝑖 определяется
равенством:
𝑃(𝐴𝐵)
𝑃(𝑌=𝑦𝑗 ,𝑋=𝑥𝑖 )
Условная вероятность: P(A/B) = 𝑃(В)
𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 ) =
, 𝑖 = 1,2, … 𝑛; 𝑗 = 1,2, … 𝑚.
𝑃(𝑋=𝑥𝑖 )
✓ Для всякого фиксированного i, условные вероятности удовлетворяют условию нормировки и
определяют условное распределение вероятностей.
Опр. Условным математическим ожиданием случайной величины Y при условии, что Х приняла
одно из своих возможных значений 𝑥𝑖 , называется действительное число
х𝑖 = М(Y/𝑋 = 𝑥𝑖 ) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 ),
i = 0,1,…n.
Аналогично определяются условные вероятности, условный закон распределения с.в. Х при условии
𝑌 = 𝑦𝑗 , 𝑗 = 1,2, … 𝑚.
37
Условные законы распределения Y , при условии, что 𝑿 = 𝒙𝒊 i = 0,1,2
Условные математические ожидания
хi
yj
Таблица распределения
вероятностей (Х,Y)
1
2
P( X= xi )
1
2
P( Y= yj )
4
36
4
36
1
36
𝟏
𝟒
12
36
6
36
𝟐
𝟒
9
36
𝟏
𝟒
𝟐𝟓
𝟑𝟔
𝟏𝟎
𝟑𝟔
𝟏
𝟑𝟔
1
Условный закон распределения Y при условии, что 𝑿 =0
38
• 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 0) =
𝑃(𝑌=𝑦𝑗 ,𝑋=0)
𝑌 = 𝑦𝑗
𝑃(𝑌 = 𝑦𝑗 /𝑋 = 0)
𝑃(𝑋=0)
𝟒
𝟐𝟓
=
𝑃(𝑌=𝑦𝑗 ,𝑋=0)
1
𝟏𝟐
𝟐𝟓
25/36
2
𝟗
𝟐𝟓
• х𝑖 = М(Y/𝑋 = 𝑥𝑖 ) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 )
• х෦0 = М(Y/𝑋 = 0) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 0) =
= 0∙
𝟒
𝟐𝟓
+1∙
𝟏𝟐
𝟐𝟓
+ 2∙
𝟗
𝟐𝟓
= 1,2
Условный закон распределения Y при условии, что 𝑿 = 𝟏
39
• Распределение Y при условии, что 𝑿 = 𝟏
• 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 1) =
𝑌 = 𝑦𝑗
𝑃(𝑌 = 𝑦𝑗 /𝑋 = 1)
𝑃(𝑌=𝑦𝑗 ,𝑋=1)
𝑃(𝑋=1)
𝟒
𝟏𝟎
=
𝑃(𝑌=𝑦𝑗 ,𝑋=1)
1
𝟔
𝟏𝟎
10/36
2
• х𝑖 = М(Y/𝑋 = 𝑥𝑖 ) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 )
• х1 = М(Y/𝑋 = 1) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 1) =
= 0∙
𝟒
𝟏𝟎
+1∙
𝟔
𝟏𝟎
+ 2∙ 0 = 0,6
Условный закон распределения Y при условии, что 𝑿 = 𝟐
40
• Распределение Y при условии, что 𝑿 = 𝟐
• 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 2) =
𝑌 = 𝑦𝑗
𝑃(𝑌 = 𝑦𝑗 /𝑋 = 2)
𝑃(𝑌=𝑦𝑗 ,𝑋=2)
𝑃(𝑋=2)
=
𝑃(𝑌=𝑦𝑗 ,𝑋=2)
1/36
1
2
1
• х𝑖 = М(Y/𝑋 = 𝑥𝑖 ) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 𝑥𝑖 )
• х෦2 = М(Y/𝑋 = 2) =σ 𝑦𝑗 𝑃(𝑌 = 𝑦𝑗 /𝑋 = 2) =
= 0∙ 1+1∙ 0+ 2∙ 0 = 0
41
Если дискретные случайные величины Х и Y независимы, то условное распределение одной
из них относительно другой величины совпадает с безусловным распределением первой
величины.
Условное математическое ожидание случайной величины Y относительно случайной величины Х
1,2, если 𝑋 = 0
• М(Y/X) = М(Y/𝑋 = 𝑥𝑖 ) =ቐ0,6, если Х = 1
0, если Х = 2
Числовые характеристики условных распределений: условные
математические ожидания, условные дисперсии, находятся по обычным
формулам математического ожидания и дисперсии, в которых вместо
вероятностей событий используются условные вероятности.
෨
Опр. Условным математическим ожиданием случайной величины Y при условии Х называется случайная величина 𝑋,
обозначаемая также М(Y/X), возможные значения которой х𝑖 = М(Y/𝑋 = 𝑥𝑖 ), а соответствующие вероятности равны
෩ = х𝑖 ) = Р (𝑋 = 𝑥𝑖 ), i = 0,1,…n.
Р(Х
Опр. Функция М(Y/𝑋 = 𝑥 ) = 𝜓 х , заданная на множестве значений случайной величины Х называется регрессией величины Y
на Х.
!!! Характеризует изменение среднего значения с.в. Y при изменении значений с.в. Х.
Задание: записать условные распределения случайной величины Х,
найти условные математические ожидания.
42
Функция М(Y/𝑋 = 𝑥 ) = 𝜓 х , заданная на множестве значений случайной величины Х - регрессия величины Y на Х.
График функции 𝜓 х называется линией (или кривой) регрессии Y на Х. Если обе функции регрессии Х на Y и Y на Х
линейны, то говорят, что с.в. Х и Y связаны линейной корреляционной зависимостью.
•
1,2, если 𝑋 = 0
𝜓 х = М(Y/X) = М(Y/𝑋 = 𝑥𝑖 ) =ቐ0,6, если Х = 1
0, если Х = 2
х
𝜓 х
1,2
1
0,6
2
Область определения функции 𝝍 х совпадает с
множеством значений случайной величины Х.
Задание: записать регрессию Х на Y.
43
Линейная
Корреляционная
зависимость
Рассмотрим двумерную с.в. (Х,Y), где Х и Y –
зависимые с.в.
Представим одну из величин как функцию
другой Y ≈ 𝑔 𝑋
(точное приближение
невозможно).
Функцию
𝑔 𝑋 = 𝑎𝑋 + 𝑏
называют
«наилучшим приближением» Y в смысле метода
наименьших квадратов, если М(Y - 𝑔 𝑋 )2
принимает наименьшее возможное значение;
функцию 𝑔 𝑋 называют среднеквадратической
регрессией Y на Х.
нелинейная
Y≈ 𝑔(𝑋)
𝒈 𝑿 = 𝒂𝑿 + 𝒃
𝒈(𝑿) – линейная среднеквадратическая регрессияY на Х
𝒈 𝑿 = 𝒎𝒚 + 𝝆
𝝈𝒚
𝝈𝒙
(X-𝒎𝒙 )
ФОРМУЛА ПОЛНОГО МАТЕМАТИЧЕСКОГО ОЖИДАНИЯ
44
М(М(Y/X) = M(Y)
х𝑖 = М(Y/𝑋 = 𝑥𝑖 )
Р(෩
Х = х𝑖 ) = Р (𝑋 = 𝑥𝑖 ), i = 0,1,2.
𝑌
случайная величина
1,2, если 𝑋 = 0
𝑌 = 𝜓 Х =ቐ0,6, если Х = 1
0, если Х = 2
𝜓 х
P (X= xi)
1,2
0,6
𝟐𝟓
𝟑𝟔
𝟏𝟎
𝟑𝟔
𝟏
𝟑𝟔
Задание: Проверьте формулу полного математического ожидания.
45
НЕПРЕРЫВНЫЕ ДВУМЕРНЫЕ
РАСПРЕДЕЛЕНИЯ ВЕРОЯТНОСТЕЙ
46
➢ Двумерная случайная величина {X,Y} называется непрерывной, если каждая из случайных
величин X и Y является непрерывной. Система двух НСВ обычно описывается плотностью
распределения:
Свойства плотности распределения f(x,y):
47
ДВУМЕРНОЕ НОРМАЛЬНОЕ РАСПРЕДЕЛЕНИЕ ВЕРОЯТНОСТЕЙ
48
Нормальным законом распределения на плоскости называют распределение вероятностей
двумерной случайной величины (Х,Y), если
r - коэффициент корреляции случайных величин X и Y;
σx - среднее квадратическое отклонение случайной
величины X; σy - среднее квадратическое отклонение
случайной величины Y;
mx- математическое ожидание случайной величины X;
my - математическое ожидание случайной величины Y
Если двумерная случайная величина (Х,Y) распределена нормально, то Х и Y связаны линейной
корреляционной зависимостью.
49
Если компоненты двумерного нормального
вектора некоррелированы (ρXY = 0), то они и
независимы, в этом случае совместная плотность
вероятности имеет вид:
𝜙 𝑥, 𝑦 = 𝜙(𝑥)𝜙(𝑦)
r = 0; σx = 2; σy = 2; mx = -1; my = 1
Оси координат Ох и Оу называются главными
осями рассеивания.
Если σx = σy, то рассеивание называется
круговым.
В общем случае эллипсом рассеивания
называется эллипс, в каждой точке которого
плотность имеет одно и то же постоянное
значение.
51
23.11 – практика «Случайные величины. Подготовка к контрольной работе»
8:30-10:00, понедельник