Принятие решений в условиях неопределенности финансового рынка
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Лекция 1
Принятие решений в условиях
неопределенности финансового рынка
1
Рекомендуемая литература
а) основная:
1. Ширяев А. Н. Основы стохастической финансовой математики.
Т.1: Факты, модели. М. Фазис, 2004
2. Миллер Б.М., Панков А.Р. Теория случайных процессов. М.:
ФИЗМАТЛИТ, 2002.
3. Пугачев
В.С.,
Синицын
И.Н.
дифференциальные системы. М.: Наука, 1990.
2
Стохастические
б) дополнительная:
1. Булинский А. В., Ширяев А.Н. Теория случайных процессов. М.:
ФИЗМАТЛИТ, 2003.
2. Тихонов В.И., Миронов М.А. Марковские процессы. М.:
Советское радио, 1977.
3. Александров
В.В.,
Болтянский
В.Г.,
Лемак С.С.
и
Оптимальное управление движением – М.: ФИЗМАТЛИТ, 2005.
3
др.
1.1. Постановка задачи. Основные положения.
Как известно, значения всех финансовых индексов, цен акций и т.
п., меняются весьма замысловатым хаотическим образом.
Первая попытка математического описания эволюции стоимости
акций S(t), опирающаяся на теорию вероятностей, была предпринята
Л. Башелье в 1900 г. Анализируя экспериментальную динамику цен,
( )
( )
∆
он замети, что приращения 𝑆𝑡 ∆ − 𝑆𝑡−∆
имеют нулевые средние и
дисперсии порядка ∆. Таким свойством обладают, например,
случайные блуждания
4
(∆ )
𝑆𝑡
= 𝑆0 +
(∆ )
∑𝑘≤[ 𝑡 ] 𝜉𝑘 ,
где
(∆)
з-н распределения сл. величины 𝜉𝑘
( )
𝜉𝑘∆
−𝜎√∆
𝜎√∆
P
0,5
0,5
5
∆
Предельный переход при ∆→ 0 приводит к случайному процессу
𝑆𝑡 = 𝑆0 + 𝜎𝑊𝑡 , 𝑡 ≥ 0,
где 𝑊𝑡 – броуновское движение (или винеровский процесс).
Дальнейшим развитием исследований начатых Л. Башелье
является
формула Блэка – Шоулса
𝑆𝑡 = 𝑆0
𝜎2
𝜎𝑊𝑡 +(𝜇− )𝑡
2 .
𝑒
Проблема описания различных финансовых индексов (например,
цен акций) является предметом многочисленных исследований
теоретико-вероятностного или статистического характера.
6
1.2. Необходимые сведения из теории вероятностей.
1.2.1. Алгебра событий
Элементарные события (исходы) – это равновозможные, попарно
несовместные события, образующие полную группу событий.
Событие A называется элементарным, если не существует
события, отличного от A, такого чтобы A являлось его следствием.
Например, события
А выпадение герба, А выпадение цифры
являются элементарными событиями и образуют полную группу
событий.
7
Пространство элементарных исходов Ω.
Событие A можно представить
𝐴 = {𝜔1 , 𝜔2 , … , 𝜔𝑚 }.
Аксиомы событий.
Пусть класс ℑ содержит подмножества пространства Ω:
1) если 𝐴1 , 𝐴2 , … ∈ ℑ, то
𝐴1 + 𝐴2 + ⋯ ∈ ℑ;
2) если A ∈ ℑ, то 𝐴̅ ∈ ℑ.
8
Определение.
Совокупность
подмножеств
множества Ω, удовлетворяющая аксиомам 1), 2),
фиксированного
называется 𝜎 −
алгеброй множеств.
1.2.2. Аксиомы вероятностей и вероятностное пространство.
1. Каждому событию A ∈
ℑ
поставлено в соответствие
неотрицательное число 𝑃(𝐴), называемое вероятностью события A.
2. 𝑃(𝛺 ) = 1.
3. Если события 𝐴1 , 𝐴2 , … попарно несовместны, то
𝑃(𝐴1 + 𝐴2 + ⋯ ) = 𝑃 (𝐴1 ) + 𝑃(𝐴2 ) + ⋯.
9
При этом количество событий конечно или счетно, в последнем случае
в правой части формулы стоит сумма ряда.
Все теоремы теории вероятностей выводятся из этих аксиом.
Вероятностное пространство – это математическая модель для
исследования конкретных теоретико-вероятностных задач.
1)
множество Ω (пространство элементарных событий или исходов
опыта);
2)
система
ℑ
подмножеств
алгебра подмножеств);
10
множества
Ω
(𝜎 −
3)
функция 𝑃(𝐴), определенная на алгебре множеств ℑ и
удовлетворяющая аксиомам вероятностей.
( Ω, ℑ, P ).
1.2.3. Случайные величины
Случайная величина X, связанная с некоторым испытанием,
которое описывается пространством элементарных событий, - это
функция,
отображающая
пространство
действительных чисел.
11
Ω
на
подмножество
Функцией распределения случайной величины X называется
функция, определяемая формулой
𝐹 (𝑥 ) = 𝑃 (𝑋 < 𝑥 ).
Для любых 𝑎 < 𝑏 выполняется равенство
𝑃 (𝑎 ≤ 𝑋 < 𝑏 ) = 𝐹 (𝑏 ) − 𝐹 (𝑎 ).
12
Свойства функции распределения:
1. 0 ≤ 𝐹 (𝑥) ≤ 1;
2. 𝑃(𝑎 ≤ 𝑋 < 𝑏) = 𝐹 (𝑏) − 𝐹 (𝑎);
3. 𝐹 (𝑥1 ) ≤ 𝐹 (𝑥2 ) для любых 𝑥1 < 𝑥2 ;
4. 𝐹 (−∞) = 0, 𝐹 (+∞) = 1,
5. Функция распределения непрерывна слева.
13
Независимые дискретные случайные величины
Определение. Дискретные случайные величины X и Y называются
независимыми, если независимы события {𝑋 ∈ 𝐴} и {𝑌 ∈ 𝐵} для
любых множеств возможных значений указанных случайных величин.
Аналогично, дискретные случайные величины X1, X2,…, Xn
называются независимыми, если независимы события {𝑋𝑖 ∈ 𝐴𝑖 }, 𝑖 =
1,2, … , 𝑛 для любых множеств возможных значений указанных
случайных величин.
14
Дискретные случайные величины X и Y являются независимыми,
если для всех возможных значений 𝑥𝑖 и 𝑦𝑗 выполняется равенство
𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) = 𝑃 (𝑋 = 𝑥𝑖 ) ∙ 𝑃(𝑌 = 𝑦𝑗 )
15
Числовые характеристики дискретных случайных величин
Математическое ожидание
𝐸 (𝑋) = 𝑥1 𝑝1 + 𝑥2 𝑝2 + ⋯ + 𝑥𝑛 𝑝𝑛 .
𝐸 ( 𝑋 ) = ∑∞
𝑖=1 𝑥𝑖 𝑝𝑖 ,
16
Свойства математического ожидания
1.Математическое ожидание константы C равно этой константе:
E(C) =C.
2. Постоянный множитель можно выносить за знак математического
ожидания:
E(c X) =cE(X).
3. Математическое ожидание суммы случайных величин равно сумме
математических ожиданий слагаемых:
17
E(X 1 + X 2 +. . . + X n) = E(X 1)+E(X 2)+. . . +E(X n).
4. Математическое ожидание произведения независимых случайных
величин равно произведению математических ожиданий сомножителей:
E(X 1 ・X 2 ・. . . ・X n) = E(X 1) ・E(X 2) ・. . . ・E(X n).
5. Если 𝜑(x) – числовая функция и X – дискретная случайная величина, то
E[𝜑(X )] = 𝜑(x1)p1 +𝜑(x2)p2 +. . . .
18
6. Если 𝜑(x) – выпуклая функция, то для любой случайной величины X
выполняется неравенство Йенсена:
E[𝜑(X )] ≥ 𝜑 (E[X ]) .
19
Дисперсией случайной величины X называется математическое
ожидание квадрата отклонения этой случайной величины от ее
математического ожидания E(X ):
D(X ) = E([X −E(X )]2).
Стандартное (среднее квадратичное) отклонение случайной
величины X определяется как корень из дисперсии и обозначается 𝜎𝑋 или
𝜎(𝑋),
𝜎(𝑋) = √𝐷(𝑋).
20
Свойства дисперсии:
1. D(X ) = E(X 2)−[E(X )]2.
2. Дисперсия константы равна нулю: D(C) = 0.
3. D(X )≥ 0.
4. Постоянный множитель выносится из под знака дисперсии в квадрате:
D(CX ) =C2D(X ).
5. Дисперсия суммы независимых случайных величин равна сумме
дисперсий слагаемых:
D(X1 +X2 +. . . +Xn) = D(X1)+D(X2)+. . . +D(Xn).
21
Ковариация и коэффициент корреляции
Ковариация Cov(X ,Y ) случайных величин X , Y задается формулой
Cov(X ,Y ) = E[(X −E(X ))(Y −E(Y ))].
Ковариация обладает следующими свойствами:
1. Cov(X , Y ) = E(XY )−E(X )E(Y ).
2. Cov(X , X ) = D(X ).
3. D(X +Y ) = D(X )+D(Y )+2Cov(X , Y ).
4. Если X и Y независимы, то Cov(X , Y ) = 0.
5. Cov(X , Y ) = Cov(Y,X ).
6. Cov(aX , Y ) = Cov(X , aY ) = aCov(X , Y ), где a = const.
7. Cov(X +Y, Z) = Cov(X , Z)+Cov(Y, Z).
8. Cov(X , Y +Z) = Cov(X , Y )+Cov(X , Z).
22
Коэффициент корреляции, определяется формулой
𝜌𝑋𝑌
𝐶𝑜𝑣 (𝑋, 𝑌)
= 𝜌(𝑋, 𝑌 ) =
.
𝜎 (𝑋 )𝜎 (𝑌 )
Свойства коэффициента корреляции:
1. 𝜌𝑋𝑌 = 𝜌𝑌𝑋 .
2. | 𝜌𝑋𝑌 | ≤ 1 .
3. Условие | 𝜌𝑋𝑌 | = 1 равнозначно существованию таких констант a и
b отличных от 0, что равенство Y = a +b X выполняется с
вероятностью 1.
23
Некоторые распределения дискретных случайных величин
1. Распределение Бернулли
𝑋 (𝑡 )
1
𝑃
𝑞
𝑝
𝐸 (𝑋) = 0 ∙ 𝑞 + 1 ∙ 𝑝 = 𝑝;
𝐷(𝑋) = 𝐸 (𝑋 2 ) − 𝐸 2 (𝑋) = 0 ∙ 𝑞 + 1 ∙ 𝑝 − 𝑝2 = 𝑝(1 − 𝑝) = 𝑝𝑞.
24
2. Биномиальное распределение
𝑋 = 𝑋1 + ⋯ + 𝑋𝑛 .
𝐸 (𝑋) = 𝐸 (𝑋1 + ⋯ + 𝑋𝑛 ) = 𝑛𝑝;
𝐷(𝑋) = 𝐷(𝑋1 + ⋯ + 𝑋𝑛 ) = 𝑛𝑝𝑞.
25
Непрерывные случайные величины и их характеристики
Определение. Случайная величина X называется непрерывной, если
ее функция распределения F(x) = P(X < x) непрерывна в любой точке x.
Примеры: время ожидания, рост человека, диаметр детали.
Для непрерывной функции F(x) справедливо:
F(x+0)= F(x-0)= F(x),
поэтому
P(X=x)= F(x+0) - F(x-0)=0.
.
26
Другое определение, случайная величина называется непрерывной,
если вероятность каждого ее отдельного значения равна нулю.
Определение. Непрерывная случайная величина называется
абсолютно непрерывной, если ее функция распределения имеет
производную 𝑓 (𝑥) = 𝐹′(𝑥) всюду, за исключением, может быть,
конечного числа точек.
Функция 𝑓(𝑥) непрерывна всюду, за исключением указанных
точек.
Функция 𝑓(𝑥) называется плотностью вероятности непрерывной
случайной величины X:
27
𝑃(𝑥 < 𝑋 < 𝑥 + ∆𝑥) = 𝑓 (𝑥) ∙ ∆𝑥.
Свойства плотности вероятности случайной величины:
1. 𝑓(𝑥) ≥ 0..
2. 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 (𝑎 < 𝑋 < 𝑏) =
𝑏
= ∫ 𝑓(𝑥)𝑑𝑥 = 𝐹 (𝑏) − 𝐹 (𝑎);
𝑎
+∞
3. ∫−∞ 𝑓 (𝑥)𝑑𝑥
𝑥
4.∫−∞ 𝑓 (𝑡) 𝑑𝑡 =
= 1 (свойство нормировки).
𝐹 (𝑥 ).
28
Случайная величина Х называется сосредоточенной на отрезке [a,
b], если она может принимать значения, только принадлежащие этому
отрезку
P(X ∈ [a, b]) = 1.
Математическим ожиданием непрерывной случайной величины
с плотностью вероятности 𝑓 (𝑥) называется число
+∞
𝑚 = 𝐸 (𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 ,
−∞
29
если этот интеграл сходится,
а для случайной величины X , сосредоточенной на отрезке [a, b]:
𝑏
𝑚 = 𝐸 (𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 .
𝑎
Пусть Y — случайная величина вида 𝑌 = 𝜑(𝑋 ). Математическое
ожидание Y вычисляется в общем случае по формуле
+∞
𝐸 (𝑌) = ∫ 𝜑(𝑥) ∙ 𝑓 (𝑥)𝑑𝑥 ,
−∞
30
а для случайной величины, сосредоточенной на отрезке [a, b],—по
формуле
𝑏
𝐸 (𝑌) = ∫ 𝜑(𝑥) ∙ 𝑓(𝑥)𝑑𝑥 .
𝑎
Дисперсией непрерывной случайной величины с плотностью
вероятности 𝑓 (𝑥) называется число
+∞
𝐷 (𝑋) = 𝐸 [(𝑋 − 𝑚)2 ] = ∫ (𝑥 − 𝑚)2 ∙ 𝑓 (𝑥)𝑑𝑥.
−∞
31
Так же, как и для дискретной случайной величины справедлива
формула
𝐷(𝑋) = 𝐸 [𝑋 2 ] − 𝐸 2 [𝑋],
т. е. дисперсию непрерывной случайной величины можно
вычислить по формуле:
+∞
𝐷(𝑋) = 𝐸 [(𝑋 − 𝑚)2 ] = ∫ 𝑥 2 ∙ 𝑓(𝑥)𝑑𝑥 − 𝑚2 .
−∞
32
Начальные и центральные моменты непрерывной случайной
величины
Начальные и центральные моменты непрерывной случайной
величины определяются следующим образом.
Начальные 𝜈𝑘 = 𝐸(𝑋 𝑘 )
центральные 𝜇𝑘 = 𝐸((𝑋 − 𝜈1 )𝑘 ) :
33
+∞
𝜈𝑘 = ∫ 𝑥 𝑘 𝑓 (𝑥)𝑑𝑥,
−∞
+∞
𝜇𝑘 = ∫ (𝑥 − 𝜈1 )𝑘 𝑓 (𝑥)𝑑𝑥.
−∞
𝑘 = 1,2, … .
Асимметрия
𝜇3
𝐴𝑠 = 3 ;
𝜎
34
35
Эксцесс
𝜇4
𝐸𝑥 = 4 − 3;
𝜎
36
Примеры распределения непрерывной случайной
величины
1. Равномерное распределение на отрезке [a, b] .
Непрерывная случайная величина X называется равномерно
распределенной на отрезке [a, b] , если ее плотность вероятности
постоянна на этом отрезке и равна нулю вне этого отрезка:
C , x [a, b]
f ( x)
0, x [a, b] .
Значение параметра
C
определяется из условия нормированности:
37
b
b
a f ( x)dx 1; a Cdx C (b a) 1
1
C
ba.
Следовательно,
1
, x [ a, b]
f ( x) b a
0, x [a, b] .
Проинтегрировав плотность распределения, найдем выражение для
функции распределения случайной величины X.
1
1
xa
F ( x)
dt
( x a)
x[ a ,b ] b a
b
a
ba .
a
x
38
0, x a
x a
F ( x)
, x ( a, b]
b a
.
1, x b
39
𝛽−𝛼
𝑃 (𝛼 < 𝑋 < 𝛽 ) =
;
𝑏−𝑎
при 𝑎 < 𝛼 < 𝛽 < 𝑏.
40
Если случайная величина X равномерно распределена на отрезке
[ a, b] ,
то
ab
(b a) 2
E[ X ]
; D[ X ]
2
12
.
2. Показательное (экспоненциальное) распределение.
Случайная величина распределена по показательному закону на
[0;) , если функция плотности вероятности имеет вид
41
e x , x 0
f ( x)
0, x 0 ,
0 параметр.
Функция распределения такой величины имеет вид
x
F ( x) e
t
dt e
42
t x
1 e x
.
Если случайная величина X распределена по показательному
закону, то
E[ X ]
1
1
D[ X ] 2 .
,
Вероятность того, что случайная величина X, распределенная по
показательному закону с параметром λ примет значение на отрезке
[𝛼, 𝛽 ] определяется формулой
𝑃(𝛼 < 𝑋 < 𝛽 ) = 𝑒 −𝛼λ − 𝑒 −𝛽λ .
43
Действительно
𝑃 (𝛼 < 𝑋 < 𝛽 ) = 𝐹 (𝛽 ) − 𝐹 (𝛼 ) = 1 − 𝑒 −𝛽λ − (1 − 𝑒 −𝛼λ ) =
= 𝑒 −𝛼λ − 𝑒 −𝛽λ .
В частном случае
𝑃 (𝜏 < 𝑋 < ∞) = 𝑒 −𝜏λ .
44
3. Нормально распределенные случайные величины.
Случайная
величина
имеет
X
нормальное
(гауссово)
распределение на промежутке (; ) , если функция плотности
случайной величины существует и имеет вид
1
f ( x)
e
2
( x a )2
2 2
, x (,)
.
45
Функция плотности зависит от двух параметров
a
и
. Можно
показать, что все функции такого вида удовлетворяют условию
нормированности:
f ( x)dx 1.
46
X~ 𝑁(𝑎, 𝜎 2 ).
47
4. Распределения функций от случайных величин
Теорема.
Пусть
абсолютно
непрерывная
случайная
величина X имеет функцию распределения F(x) и плотность
распределения
f(x). Тогда случайная величина
(𝑎 ≠ 0) имеет функцию распределения
𝐺 (𝑥 ) = {
𝑥−𝑏
) 𝑛𝑝𝑢 𝑎 >
𝑎
𝑥−𝑏
𝐹 ( ) 𝑛𝑝𝑢 𝑎
𝑎
𝐹(
1−
0;
< 0.
и плотность распределения
48
𝑌 = 𝑎𝑋 + 𝑏,
1
𝑥−𝑏
𝑔 (𝑥 ) =
𝑓(
).
|𝑎 |
𝑎
Теорема.
Пусть
абсолютно
непрерывная
случайная
величина X имеет функцию распределения F(x) и плотность
распределения f(x), функция 𝜑(х) монотонна. Тогда случайная
величина
𝑌 = 𝜑 (𝑋 )
имеет функцию распределения
𝐹(𝜑 −1 (𝑥)),
если 𝜑(𝑋) − возрастающая,
𝐺 (𝑥 ) = {
1 − 𝐹(𝜑 −1 (𝑥)),
если 𝜑(𝑋) − убывающая,
49
и плотность распределения
𝑔(𝑥)=|(𝜑 −1 (𝑥))′| ∙ 𝑓(𝜑 −1 (𝑥)).
Доказательство.
𝐺 (𝑥 ) = 𝑃 (𝑌 < 𝑥 ) = 𝑃 (𝜑 (𝑋 ) < 𝑥 ) =
= 𝑃(𝑋 < 𝜑 −1 (𝑥)) = 𝐹(𝜑 −1 (𝑥)),
если 𝜑(𝑋) − возрастающая;
𝐺 (𝑥) = 𝑃(𝑌 < 𝑥) = 𝑃 (𝜑(𝑋) < 𝑥) = 𝑃(𝑋 > 𝜑 −1 (𝑥)) =
= 1 − 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − убывающая;
50
то есть
𝐹(𝜑 −1 (𝑥)),
если 𝜑(𝑋) − возрастающая,
𝐺 (𝑥 ) = {
1 − 𝐹(𝜑 −1 (𝑥)),
если 𝜑(𝑋) − убывающая.
Найдем плотность распределения:
𝑔(𝑥) = 𝐺 ′ (𝑥) = |(𝜑 −1 (𝑥))′| ∙ 𝑓(𝜑 −1 (𝑥)).
51
Нормальные случайные векторы
В общем случае плотность нормального распределения двух
случайных величин выражается формулой
.
Этот закон зависит от пяти параметров: 𝑚𝑋 , 𝑚𝑌 , 𝜎𝑋 , 𝜎𝑌 , 𝑟
Смысл этих параметров:
𝑚𝑋 , 𝑚𝑌 −математические ожидания величин
и
𝜎𝑋 , 𝜎𝑌 — их средние квадратические отклонения;
𝑟 — коэффициент корреляции величин
52
и
.
;
1.3. Вероятностные распределения случайных процессов.
Пусть задано вероятностное пространство ( Ω, ℑ, P )
где
4)
множество Ω (пространство элементарных событий или исходов
опыта);
5)
система ℑ подмножеств множества Ω (𝜎 − алгебра подмножеств);
6)
функция 𝑃(𝐴), определенная на алгебре множеств ℑ и
удовлетворяющая аксиомам вероятностей.
Пусть 𝑇 – непустое подмножество ℝ.
Определение.
Семейство
случайных
величин
𝑋 ≜ {𝑋(𝑡), 𝑡𝜖𝑇},
определенных на ( Ω, ℑ, P ), называется случайным процессом.
53
При фиксированном t0 𝜖𝑇 случайная величина 𝑋(𝜔) = 𝑋𝑡0 называется
сечением случайного процесса 𝑋 в точке t0 𝜖𝑇.
Детерминированная функция 𝑥𝜔 (𝑡) называется реализацией процесса.
Если
𝑇
конечное или счетное, то 𝑋 называется случайным
процессом с дискретным временем.
Если
𝑇
промежуток действительной оси, то 𝑋 называется
случайным процессом с непрерывным временем.
Определение.
Семейством
конечномерных
распределений
случайного процесса {𝑋(𝑡), 𝑡𝜖𝑇} называется совокупность к-мерных
функций распределения
54
𝐹 (𝑥1 , … , 𝑥𝑘 ; 𝑡1 , … , 𝑡𝑘 ) = 𝑃 (𝑋(𝑡1 ) < 𝑥1 , … , 𝑋(𝑡𝑘 ) < 𝑥𝑘 ).
Определение. Cлучайный процесс называется гауссовым, если все его
конечномерные распределения являются гауссовыми.
Например,
если
∀ 𝑛𝜖𝑁
вектор
(𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 ))
гауссовым:
𝑓 (𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) =
1
√(2𝜋)𝑛 𝑑𝑒𝑡𝐾𝑛
1
× 𝑒𝑥𝑝 {− (𝑥 − 𝑚)𝑇 𝐾𝑛−1 (𝑥 − 𝑚)},
2
где
55
×
является
𝑥 𝑇 = (𝑥1 , … , 𝑥𝑛 ),
𝐾𝑛 − ковариационная матрица
𝑘11
𝐾𝑛 = ( ⋮
𝑘𝑛1
⋯ 𝑘1𝑛
⋱
⋮ ),
⋯ 𝑘𝑛𝑛
𝑘𝑖𝑗 = 𝐸 [(𝑋(𝑡𝑖 ) − 𝑚𝑥 (𝑡𝑖 )) (𝑋(𝑡𝑗 ) − 𝑚𝑥 (𝑡𝑗 ))],
𝑚𝑥 (𝑡𝑖 ) = 𝐸 [𝑋(𝑡𝑖 )],
𝑚𝑇 = (𝑚𝑥 (𝑡1 ), … , 𝑚𝑥 (𝑡𝑛 )).
56
Условия согласованности.
Для любого случайного процесса {𝑋(𝑡), 𝑡𝜖𝑇} выполнено условие
согласованности семейства конечномерных распределений:
1) для любого набора моментов {𝑡𝑖 } ⊂ 𝑇 и точек {𝑥𝑖 } ⊂ ℝ
𝐹 (𝑥1 , … , 𝑥𝑛−1 , +∞; 𝑡1 , … , 𝑡𝑛−1 , 𝑡𝑛 ) = 𝐹 (𝑥1 , … , 𝑥𝑛−1 ; 𝑡1 , … , 𝑡𝑛−1 );
2) для любой перестановки {𝑘1 , … , 𝑘𝑛 } индексов {1, … , 𝑛}
𝐹 (𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) = 𝐹(𝑥𝑘1 , … , 𝑥𝑘𝑛 ; 𝑡𝑘1 , … , 𝑡𝑘𝑛 ).
57
Примеры случайных процессов.
Пример 1. Пусть случайный процесс задан соотношением:
𝑋(𝑡) = 𝜑(𝑡) ∙ 𝑌, 𝑡 ∈ [0, 1],
где
𝑌 − случайная величина с известным законом распределения 𝐹𝑌 (𝑦),
𝜑(𝑡) − положительная детерминированная функция.
Найти конечномерные распределения случайного процесса 𝑋 (имеет ли
его 𝑛 -мерная функция распределения плотность?)
58
Решение:
𝐹 (𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) = 𝑃(𝑋(𝑡1 ) < 𝑥1 , … , 𝑋(𝑡𝑛 ) < 𝑥𝑛 ) =
𝑥𝑖
= 𝑃(𝜑(𝑡𝑖 )𝑌 < 𝑥𝑖 , 𝑖 = 1, … , 𝑛) = 𝑃 (𝑌 <
, 𝑖 = 1, … , 𝑛) =
(
)
𝜑 𝑡𝑖
𝑥𝑖
)
(
)
𝜑
𝑡
𝑖=1,…,𝑛
𝑖
= 𝑃 (𝑌 < min
𝑥𝑖
).
(
)
𝜑
𝑡
𝑖=1,…,𝑛
𝑖
= 𝐹𝑌 ( min
Если функция распределения 𝐹𝑌 (𝑦) имеет плотность распределения 𝑓𝑌 (𝑦), то
существует плотность одномерного распределения. В самом деле,
𝑥
⁄𝜑(𝑡)
𝑥
𝐹 (𝑥, 𝑡) = 𝐹𝑌 (
)= ∫
𝜑 (𝑡 )
−∞
𝑥
1
𝑧
𝑓𝑌 (𝑦)𝑑𝑦 = ∫
∙ 𝑓𝑌 (
) 𝑑𝑧 ⇒
𝜑 (𝑡 )
𝜑 (𝑡 )
−∞
59
1
𝑥
𝑓 (𝑥; 𝑡) = 𝜑(𝑡) ∙ 𝑓𝑌 (𝜑(𝑡));
𝑧
〈𝑦 =
; 𝑑𝑦 = 𝑑𝑧〉.
𝜑 (𝑡 )
Однако, при 𝑛 ≥ 2 𝑛 -мерная функция распределения не имеет плотности.
Действительно, уже при 𝑛 = 2, для процесса 𝑋 имеет место равенство
𝑋(𝑡1 ) 𝑋(𝑡2 )
=
= 𝑌,
𝜑(𝑡1 ) 𝜑(𝑡2 )
поэтому совместное распределение величин (𝑋(𝑡1 ), 𝑋(𝑡2 ))
сосредоточено на прямой в ℝ2 :
𝑥1
𝜑(𝑡1 )
=
60
𝑥2
,
𝜑(𝑡2 )
такое распределение не имеет плотности, т. к. не дифференцируемо.
Пример 2. Пусть 𝑌 и 𝑈 – независимые случайные величины ~ 𝑁 (0, 1).
Для случайного процесса
𝑋(𝑡) = 𝑌 + 𝑈 ∙ 𝑡, 𝑡 ≥ 0:
1) описать траектории и сечения;
2) найти конечномерные распределения;
3) вычислить вероятность события 𝐴 = {𝜔 ∈ Ω}: траектория 𝑥𝜔 (𝑡) не
проходит через состояние 0.
61
Решение:
1) Траектории 𝑥𝜔 (𝑡), 𝑡 ≥ 0 представляют собой прямые, исходящие из
точек 𝑌 с угловыми коэффициентами 𝑈.
2) Найдем конечномерные распределения, т. е. распределения вектора
(𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 )).
Поскольку 𝑋(𝑡𝑖 ) задается двумя параметрами 𝑌 и 𝑈, то столбец
1 𝑡1
𝑌
(𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 )) = ( ⋮ ) ∙ ( ) = 𝐵𝑊,
𝑈
1 𝑡𝑛
𝑇
62
1 𝑡1
𝐵 = ( ⋮ ),
1 𝑡𝑛
𝑌
𝑊 = ( ).
𝑈
Вектор 𝑊 – гауссов вектор
1
𝑊~𝑁(𝑂, 𝐼 ) = 𝑁 (( ) , (
)).
1
Следовательно, вектор 𝐵𝑊 –тоже имеет гауссово распределение.
Найдем его математическое ожидание и ковариационную матрицу
63
𝑚 = 𝐸 {𝐵𝑊 } = 𝐵 ∙ 𝐸 (𝑊 ) = 𝐵 ∙ ( ) = ( ⋮ ),
𝐾𝑛 = 𝐵 ∙ 𝑐𝑜𝑣 (𝑊, 𝑊 ) ∙ 𝐵 𝑇 = 𝐵 ∙ 𝐵 𝑇
1 𝑡1
1…1
=( ⋮ )∙(
)=
𝑡1 … 𝑡𝑛
1 𝑡𝑛
1 + 𝑡12 … 1 + 𝑡1 ∙ 𝑡𝑛
=(
),
⋱
1 + 𝑡𝑛 ∙ 𝑡1 … 1 + 𝑡𝑛2
𝐸(Ỷ, Ỷ)
𝐸(Ỷ, Ů )
𝑐𝑜𝑣 (𝑊, 𝑊 ) = (
𝐸(Ů , Ỷ)
𝐸(Ů, Ů)
где Ỷ = 𝑌 − 𝐸 (𝑌).
64
1 0
) = 𝐼.
0 1
)=(
Т. о., плотность конечномерного распределения
𝑓(𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) =
1
√(2𝜋)𝑛 𝑑𝑒𝑡𝐾𝑛
1
− 𝑥 𝑇 𝐾𝑛−1 𝑥
∙𝑒 2
,
В частности, при 𝑛 = 1:
𝑓(𝑥, 𝑡) =
1
√2𝜋(1+𝑡 2 )
65
∙𝑒
𝑥2
−
2(1+𝑡2 )
.
3) Найдем вероятность события А: траектория не пересекает ось абсцисс
𝑃(𝐴) = 𝑃{𝑌 < 0, 𝑈 ≤ 0} + 𝑃 {𝑌 > 0, 𝑈 ≥ 0} =
= 𝑃(𝑌 < 0) ∙ 𝑃(𝑈 ≤ 0) + 𝑃(𝑌 > 0) ∙ 𝑃 (𝑈 ≥ 0) = 0,5 ∙ 0,5 + 0,5 ∙ 0,5
= 0,5.
Т. к. 𝑃 (𝑌 < 0) = Φ(0) = 0,5.
Φ(𝑥 ) =
𝑥
1
√2𝜋
66
𝑡2
∫ 𝑒 − 2 𝑑𝑡
−∞
.
Пример 3. (процесс с одним скачком).
Случайный процесс задан на [0; +∞) следующим образом:
1, если 𝑡 < 𝜏(𝜔),
𝑋𝜔 (𝑡) = {
0, если 𝑡 ≥ 𝜏(𝜔).
где 𝜏~𝐸 (1);
0, 𝑥 < 0;
(
)
𝑓 𝑥 = { −𝜆𝑥
𝜆𝑒 , 𝑥 ≥ 0.
Требуется
1) описать траектории и сечения данного процесса;
2) найти одномерное и двумерное распределения;
67
3) вычислить вероятность 𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} 𝑛𝑝𝑢 𝑡 > 𝑠.
Решение:
1) Сечения 𝑋(𝑡) распред. по з-ну Бернулли с параметром 𝑝 = 𝑒 −1 , т. к.
𝑋(𝑡) ∈ {0, 1} причем
+∞
−𝑡
𝑃{𝑋(𝑡) = 1} = 𝑃{𝜏 > 𝑡} = ∫ 𝑒 −𝜃 𝑑𝜃 = −𝑒 −𝜃 |+∞
=
𝑒
.
𝑡
𝑡
Траектории
𝑥𝜔 (𝑡)=1 на [0, 𝜏𝜔 ]
𝑥𝜔 (𝑡) = 0 на [𝜏𝜔 , +∞].
68
2) Одномерное распределение имеет вид
𝑋 (𝑡 )
1
𝑃
1 − 𝑒 −𝑡
𝑒 −𝑡
Двумерное распределение – это распределение вектора (𝑋(𝑡), 𝑋(𝑠)),
принимающего значения (0, 0), (0, 1), (1, 0), (1, 1).
𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 1}
𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} =
.
𝑃 {𝑋(𝑠) = 1}
Найдем вероятности
69
𝑃 {𝑋(𝑡) = 0, 𝑋(𝑠) = 0} = 𝑃{𝜏 ≤ 𝑡, 𝜏 ≤ 𝑠} = 𝑃{𝜏 ≤ min(𝑡, 𝑠)} =
= 1 − 𝑒 −min(𝑡,𝑠) ;
𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 1} = 𝑃 {𝜏 ≥ 𝑡, 𝜏 ≥ 𝑠} = 𝑃 {𝜏 ≥ mах(𝑡, 𝑠)} =
+∞
−mах(𝑡,𝑠)
= ∫mах(𝑡,𝑠) 𝑒 −𝜃 𝑑𝜃 = −𝑒 −𝜃 |+∞
=
𝑒
.
mах(𝑡,𝑠)
𝑡
Для 𝑡 > 𝑠 имеем 𝑃{𝑋(𝑡) = 0, 𝑋(𝑠) = 1} = 𝑃{𝑠 ≤ 𝜏 < 𝑡} = ∫𝑠 𝑒 −𝜃 𝑑𝜃 =
−𝑒 −𝜃 |𝑡𝑠 = 𝑒 −𝑠 − 𝑒 −𝑡 .
Для 𝑡 > 𝑠 имеем 𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 0} = 0, (переключение уже было).
Для 𝑡 ≤ 𝑠 имеем 𝑃{𝑋(𝑡) = 0, 𝑋(𝑠) = 1} = 0, (переключение уже было).
Для 𝑡 ≤ 𝑠 имеем 𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 0} = 𝑒 −𝑡 − 𝑒 −𝑠 .
70
Двумерное распределение задается таблицей
𝒕>𝒔
𝑋 (𝑡 ) = 0
𝑋 (𝑡 ) = 1
𝑋 (𝑠 ) = 0
1-𝑒 −𝑠
𝑋 (𝑠 ) = 1
𝑒 −𝑠 − 𝑒 −𝑡
𝑒 −𝑡
𝒕≤𝒔
𝑋 (𝑡 ) = 0
𝑋 (𝑡 ) = 1
𝑋 (𝑠 ) = 0
1-𝑒 −𝑡
𝑒 −𝑡 − 𝑒 −𝑠
𝑋 (𝑠 ) = 1
𝑒 −𝑠
71
3) Вычислим вероятность 𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} 𝑛𝑝𝑢 𝑡 > 𝑠.
𝑃 {𝑋(𝑡) = 1, 𝑋(𝑠) = 1}
𝑒 −𝑡
𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} =
= −𝑠
{
(
)
}
𝑃 𝑋 𝑠 =1
𝑒 − 𝑒 −𝑡 + 𝑒 −𝑡
= 𝑒 𝑠−𝑡 .
Пример
4.
(Дискретный
процесс
-
симметричное
случайное
блуждание)
Положение частицы в момент 𝑡𝑛 = 𝑛 ∙ ∆𝑡 , 𝑛 = 0, 1, 2, … является
случайным и определяется значениями
72
𝑥𝑚 = 𝑚 ∙ ∆𝑥,
𝑚∈ℤ
1) считая, что 𝑥0 = 0 - начальное положение точки, описать ее движ.
с пом. дискретного сл. проц. {𝑋(𝑡), 𝑡𝜖𝑇}; с дискретным временем
𝑇 ≜ {𝑡𝑛 | 𝑛 ≥ 0} найти одномерное распределение;
2) указать интервал (−𝑎, 𝑎) , в котором с вер. 0,95 содержится ср. скор.
движ.
𝑋 (𝑡 ) − 𝑋 (𝑠 )
𝑣≜
𝑡−𝑠
на промежутке [𝑠, 𝑡], 𝑠, 𝑡𝜖𝑇, а число 𝑁 ≜
73
𝑡−𝑠
∆𝑡
достаточно велико;
3) на сколько изменится искомый интервал, если промежуток увеличится в
100 раз?
Решение:
1) Пусть 𝑋(𝑡) - положение частицы в момент времени 𝑡. Тогда
𝑋(𝑡0 ) = 𝑥0 , 𝑋(𝑡𝑛+1 ) = 𝑋(𝑡𝑛 ) + 𝑉𝑛+1 , 𝑛𝑝𝑢 𝑛 ≥ 0 (*)
где 𝑉𝑛+1 - случ. величина
𝑉𝑛 -∆𝑥 ∆𝑥
P
0,5
0,5
74
𝑉𝑛+1 не зависит от 𝑋(𝑡𝑛 ), 𝑋(𝑡𝑛−1 ), … предыдущих положений частицы.
Т.
к.
𝑉𝑛 = 𝑋(𝑡𝑛 ) − 𝑋(𝑡𝑛−1 ), 𝑉𝑛−1 = 𝑋(𝑡𝑛−1 ) − 𝑋(𝑡𝑛−2 ), … , 𝑉1 = 𝑋(𝑡1 ) − 𝑥0 ,
то 𝑉𝑛+1 не зависит от 𝑉1 , 𝑉2 , … , 𝑉𝑛
⇒ величины 𝑉1 , 𝑉2 , … , 𝑉𝑛+1
независимы в совокупности.
Запишем (*) в виде суммы
𝑋(𝑡𝑛 ) = 𝑉1 + 𝑉2 + ⋯ + 𝑉𝑛
Пронормируем 𝑉𝑘 а именно 𝑉𝑘 = (2𝐵𝑘 − 1)∆𝑥,
75
(**)
где величины 𝐵𝑘 ∈ {0, 1}
1
𝐵𝑘
P
0,5
0,5
теперь
𝑋(𝑡𝑛 ) = (2𝐵1 − 1)∆𝑥 + (2𝐵2 − 1)∆𝑥 + ⋯ + (2𝐵𝑛 − 1)∆𝑥 =
= [2(𝐵1 + ⋯ + 𝐵𝑛 ) − 𝑛]∆𝑥 = [2𝑣 (𝑛) − 𝑛]∆𝑥,
где
𝑣 (𝑛)=𝐵1 + ⋯ + 𝐵𝑛
Величина 𝑣(𝑛)
распределение
76
имеет биномиальное
одномерное распределение с параметрами 𝑛, 0,5. ⇒ Одномерное
распределение
𝑃{ 𝑋(𝑡𝑛 ) = 𝑚 ∙ ∆𝑥} =
𝑚+𝑛
= 𝑃 {𝑣(𝑛) =
}={
2
0,
𝑚+𝑛
𝐶𝑛 2
1 𝑛
∙( ) ,𝑚
2
иначе.
= −𝑛, −𝑛 + 2, … , 𝑛 − 2, 𝑛;
2) Найдем число 𝑎 > 0: 𝑃 { |𝑣| < 𝑎} = 0,95.
77
Заметим,
𝑋 (𝑡 ) − 𝑋 (𝑠 )
что
представляет
собой
сумму
независимых одинаково распределенных случайных величин
средними и дисперсиями (∆𝑥 )2
𝑉𝑛
-∆𝑥
∆𝑥
P
0,5
0,5
𝐸 (𝑉𝑛 ) = 0; 𝐷(𝑉𝑛 ) = (∆𝑥)2
𝑋 (𝑡 ) − 𝑋 (𝑠 )
𝑣≜
𝑡−𝑠
78
𝑉𝑘
𝑁=
𝑡−𝑠
∆𝑡
с нулевыми
𝐸 (𝑣) = 0; 𝐷(𝑣) = 𝑁 ∙ (∆𝑥)2 , 𝜎𝑣 = ∆𝑥√𝑁.
При больших 𝑁 в силу ЦПТ
𝑃{ |𝑣| < 𝑎} = 𝑃{−𝑎 < 𝑣 < 𝑎} ≈
𝑎−0
Φ( 𝜎 )
𝑣
−
−𝑎−0
Φ( 𝜎 )
𝑣
=
𝑎
2 Φ (𝜎 )
𝑣
=
0,95, ⇒
𝑎 = 1,96 ∙ 𝜎𝑣 = 1,96 ∙ ∆𝑥√𝑁 = 1,96 ∙ ∆𝑥 ∙ √
𝑡−𝑠
∆𝑡
.
⇒ 3) Если время 𝑡 − 𝑠 увеличить в 100 раз, то 𝑎 увеличится в 10 раз.
79
1.4. Моментные характеристики случайных процессов.
Пусть {𝑋(𝑡), 𝑡𝜖𝑇} − случайный процесс.
Определение. Функция 𝑚𝑋 (𝑡) = 𝐸 {𝑋(𝑡)}, 𝑡𝜖𝑇, наз. Математическим
ожиданием процесса 𝑋(𝑡) или его средним. Если 𝑚𝑋 (𝑡) = 0, то сл. пр.
наз. центрированным.
Аналогично,
𝐷𝑋 (𝑡) = 𝐷{𝑋(𝑡)} – дисперсия процесса 𝑋(𝑡).
Определение. Функция
𝑅𝑋 (𝑡, 𝑠) = 𝑐𝑜𝑣{𝑋(𝑡), 𝑋( 𝑠)} – ковариационная функция процесса 𝑋(𝑡).
Функция вторых моментов
80
Γ𝑋 (𝑡, 𝑠) = 𝐸 {𝑋(𝑡)𝑋(𝑠)}.
Эти характеристики вычисляются для одномерных и двумерных
распределений
+∞
+∞
2
𝑚𝑋 (𝑡) = ∫ 𝑥𝑓 (𝑥, 𝑡)𝑑𝑥 ; 𝐷𝑋 (𝑡) = ∫ (𝑥 − 𝑚𝑋 (𝑡)) 𝑓(𝑥, 𝑡)𝑑𝑥 ;
−∞
−∞
∞∞
𝑅𝑋 (𝑡1 , 𝑡2 ) =
∬ (𝑥1 − 𝑚𝑋 (𝑡1 ))(𝑥2 − 𝑚𝑋 (𝑡2 )) 𝑓( 𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 )𝑑𝑥1 𝑑𝑥2 ;
−∞−∞
Γ𝑋 (𝑡, 𝑠) =
∞∞
∬−∞−∞ 𝑥1 𝑥2
𝑓( 𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 )𝑑𝑥1 𝑑𝑥2 .
81
Очевидно,
𝐷𝑋 (𝑡) = 𝑅𝑋 ( 𝑡, 𝑡) = Γ𝑋 (𝑡, 𝑡) − 𝑚𝑋 2 (𝑡);
𝑅𝑋 (𝑡, 𝑠) = Γ𝑋 (𝑡, 𝑠) − 𝑚𝑋 (𝑡)𝑚𝑋 (𝑠).
Определение. Случайный процесс называется гильбертовым, если
𝐸 {|𝑋(𝑡)|2 } < ∞, ∀ 𝑡 ∈ 𝑇.
В этом случае существуют 𝑚𝑋 (𝑡), 𝐷𝑋 (𝑡), 𝑅𝑋 (𝑡, 𝑠), Γ𝑋 (𝑡, 𝑠), т. е. работает
корреляционная теория. Это самая практически значимая область
исследований.
82
Определение. Функция
𝑅𝑋𝑌 (𝑡, 𝑠) = 𝑐𝑜𝑣 {𝑋(𝑡), 𝑌( 𝑠)} – ковариационная функция процессов
𝑋 (𝑡 ) 𝑌 ( 𝑡 ).
Если 𝑅𝑋𝑌 (𝑡, 𝑠) = 0, то процессы наз. некоррелированными.
Определение.
(дискретного
белого
шума)
Бесконечную
последовательность {𝑉𝑛 } некоррелированных сл. вел-н с нулевыми мат.
ож. и конечной дисперсией называют дискретным белым шумом.
Если 𝐷𝑋 (𝑡) = 1 при любом 𝑛, то 𝑉𝑛 – стандартный белый шум.
83
Определение. Процессом броуновского движения называется гауссов
процесс
{𝑤 (𝑡), 𝑡 ≥ 0}
с
нулевыми
мат.
ож.
𝑚𝑤 ( 𝑡 ) = 0
ковариационной функцией
𝑅𝑤 (𝑡, 𝑠) = min(𝑡, 𝑠).
Винеровский случайный процесс
Пример.
Пусть
𝑋(𝑡) = 𝜑0 (𝑡) + ∑𝑘𝑗=1 𝜑𝑗 (𝑡)𝑌𝑗 , 𝑡 ∈ 𝑇,
где
𝜑𝑗 (𝑡) −заданные функции,
84
и
𝑌𝑗 −некоррелированные сл.величины с нулевыми средними и
дисперсиями =1.
Найти
𝑚𝑋 (𝑡), 𝐷𝑋 (𝑡), 𝑅𝑋 (𝑡, 𝑠), Γ𝑋 (𝑡, 𝑠).
Решение:
∀ 𝑡, 𝑠 ∈ 𝑇 имеем 𝐸{𝑌𝑗 } = 0,
𝑚𝑋 (𝑡) = 𝐸{𝜑0 (𝑡) + ∑𝑘𝑗=1 𝜑𝑗 (𝑡)𝑌𝑗 } = 𝜑0 (𝑡),
𝑘
𝑘
𝑅𝑋 (𝑡, 𝑠) = 𝑐𝑜𝑣 {∑ 𝜑𝑖 (𝑡)𝑌𝑖 , ∑ 𝜑𝑗 ( 𝑠)𝑌𝑗 } =
𝑖=1
𝑗=1
85
𝑘
𝑘
= ∑ ∑ 𝜑𝑖 (𝑡) 𝜑𝑗 ( 𝑠) 𝑐𝑜𝑣(𝑌𝑖 , 𝑌𝑗 ) =
𝑖=1 𝑗=1
𝑘
= ∑ 𝜑𝑖 ( 𝑡 ) 𝜑𝑖 ( 𝑠 ) .
𝑖=1
т. к.
𝑚𝑌𝑖 (𝑡) = 0, 𝑐𝑜𝑣(𝑌𝑖 , 𝑌𝑗 ) = 0, 𝑖 ≠ 𝑗;
𝑐𝑜𝑣(𝑌𝑖 , 𝑌𝑖 ) = 𝐷(𝑌𝑖 ) = 1.
Γ𝑋 (𝑡, 𝑠) = 𝑅𝑋 (𝑡, 𝑠) .
86
𝐷𝑋 (𝑡) = ∑
𝑘
𝑖=1
𝜑𝑖2 (𝑡).
Пример. Определить распределение приращения броуновского
движения.
Решение.
Процесс броуновского движения {𝑊𝑡 , 𝑡 ≥ 0} гауссовский. Поэтому
любое его приращение ∆𝑊 = 𝑊𝑡 − 𝑊𝑠 есть нормально распределенная
сл. величина как линейное преобразование гауссовского вектора.
Найдем моментные характеристики сл. величины ∆𝑊.
87
Во-первых,
𝐸 (∆𝑊 ) = 𝑚𝑊 (𝑡) − 𝑚𝑊 (𝑠) = 0, 𝑚. 𝑘. 𝑚𝑊 (𝑡) = 0.
Во-вторых, в силу
𝑅𝑤 (𝑡, 𝑠) = min(𝑡, 𝑠)
при 𝑡 = 𝑠 получаем
𝐷 (∆𝑊) = 𝐷(𝑊 (𝑡)) + 𝐷(𝑊 (𝑠)) − 2𝑐𝑜𝑣 (𝑊 (𝑡) , 𝑊 (𝑠) ) =
= 𝑅𝑤 (𝑡, 𝑡) + 𝑅𝑤 ( 𝑠, 𝑠) − 2𝑅𝑤 (𝑡, 𝑠) = 𝑡 + 𝑠 − 2𝑠 = 𝑡 − 𝑠.
Отсюда
𝐷(∆𝑊 ) = |𝑡 − 𝑠|, ∀ 𝑡, 𝑠 ≥ 0.
88
Итак, 𝑊𝑡 − 𝑊𝑠 ~𝑁(0, |𝑡 − 𝑠|).
Можно доказать, что приращения броуновского движения на различных
интервалах времени независимы.
89