Справочник от Автор24
Поделись лекцией за скидку на Автор24

Принятие решений в условиях неопределенности финансового рынка

  • 👀 373 просмотра
  • 📌 319 загрузок
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Принятие решений в условиях неопределенности финансового рынка» pdf
Лекция 1 Принятие решений в условиях неопределенности финансового рынка 1 Рекомендуемая литература а) основная: 1. Ширяев А. Н. Основы стохастической финансовой математики. Т.1: Факты, модели. М. Фазис, 2004 2. Миллер Б.М., Панков А.Р. Теория случайных процессов. М.: ФИЗМАТЛИТ, 2002. 3. Пугачев В.С., Синицын И.Н. дифференциальные системы. М.: Наука, 1990. 2 Стохастические б) дополнительная: 1. Булинский А. В., Ширяев А.Н. Теория случайных процессов. М.: ФИЗМАТЛИТ, 2003. 2. Тихонов В.И., Миронов М.А. Марковские процессы. М.: Советское радио, 1977. 3. Александров В.В., Болтянский В.Г., Лемак С.С. и Оптимальное управление движением – М.: ФИЗМАТЛИТ, 2005. 3 др. 1.1. Постановка задачи. Основные положения. Как известно, значения всех финансовых индексов, цен акций и т. п., меняются весьма замысловатым хаотическим образом. Первая попытка математического описания эволюции стоимости акций S(t), опирающаяся на теорию вероятностей, была предпринята Л. Башелье в 1900 г. Анализируя экспериментальную динамику цен, ( ) ( ) ∆ он замети, что приращения 𝑆𝑡 ∆ − 𝑆𝑡−∆ имеют нулевые средние и дисперсии порядка ∆. Таким свойством обладают, например, случайные блуждания 4 (∆ ) 𝑆𝑡 = 𝑆0 + (∆ ) ∑𝑘≤[ 𝑡 ] 𝜉𝑘 , где (∆) з-н распределения сл. величины 𝜉𝑘 ( ) 𝜉𝑘∆ −𝜎√∆ 𝜎√∆ P 0,5 0,5 5 ∆ Предельный переход при ∆→ 0 приводит к случайному процессу 𝑆𝑡 = 𝑆0 + 𝜎𝑊𝑡 , 𝑡 ≥ 0, где 𝑊𝑡 – броуновское движение (или винеровский процесс). Дальнейшим развитием исследований начатых Л. Башелье является формула Блэка – Шоулса 𝑆𝑡 = 𝑆0 𝜎2 𝜎𝑊𝑡 +(𝜇− )𝑡 2 . 𝑒 Проблема описания различных финансовых индексов (например, цен акций) является предметом многочисленных исследований теоретико-вероятностного или статистического характера. 6 1.2. Необходимые сведения из теории вероятностей. 1.2.1. Алгебра событий Элементарные события (исходы) – это равновозможные, попарно несовместные события, образующие полную группу событий. Событие A называется элементарным, если не существует события, отличного от A, такого чтобы A являлось его следствием. Например, события А  выпадение герба, А  выпадение цифры являются элементарными событиями и образуют полную группу событий. 7 Пространство элементарных исходов Ω. Событие A можно представить 𝐴 = {𝜔1 , 𝜔2 , … , 𝜔𝑚 }. Аксиомы событий. Пусть класс ℑ содержит подмножества пространства Ω: 1) если 𝐴1 , 𝐴2 , … ∈ ℑ, то 𝐴1 + 𝐴2 + ⋯ ∈ ℑ; 2) если A ∈ ℑ, то 𝐴̅ ∈ ℑ. 8 Определение. Совокупность подмножеств множества Ω, удовлетворяющая аксиомам 1), 2), фиксированного называется 𝜎 − алгеброй множеств. 1.2.2. Аксиомы вероятностей и вероятностное пространство. 1. Каждому событию A ∈ ℑ поставлено в соответствие неотрицательное число 𝑃(𝐴), называемое вероятностью события A. 2. 𝑃(𝛺 ) = 1. 3. Если события 𝐴1 , 𝐴2 , … попарно несовместны, то 𝑃(𝐴1 + 𝐴2 + ⋯ ) = 𝑃 (𝐴1 ) + 𝑃(𝐴2 ) + ⋯. 9 При этом количество событий конечно или счетно, в последнем случае в правой части формулы стоит сумма ряда. Все теоремы теории вероятностей выводятся из этих аксиом. Вероятностное пространство – это математическая модель для исследования конкретных теоретико-вероятностных задач. 1) множество Ω (пространство элементарных событий или исходов опыта); 2) система ℑ подмножеств алгебра подмножеств); 10 множества Ω (𝜎 − 3) функция 𝑃(𝐴), определенная на алгебре множеств ℑ и удовлетворяющая аксиомам вероятностей. ( Ω, ℑ, P ). 1.2.3. Случайные величины Случайная величина X, связанная с некоторым испытанием, которое описывается пространством элементарных событий, - это функция, отображающая пространство действительных чисел. 11 Ω на подмножество Функцией распределения случайной величины X называется функция, определяемая формулой 𝐹 (𝑥 ) = 𝑃 (𝑋 < 𝑥 ). Для любых 𝑎 < 𝑏 выполняется равенство 𝑃 (𝑎 ≤ 𝑋 < 𝑏 ) = 𝐹 (𝑏 ) − 𝐹 (𝑎 ). 12 Свойства функции распределения: 1. 0 ≤ 𝐹 (𝑥) ≤ 1; 2. 𝑃(𝑎 ≤ 𝑋 < 𝑏) = 𝐹 (𝑏) − 𝐹 (𝑎); 3. 𝐹 (𝑥1 ) ≤ 𝐹 (𝑥2 ) для любых 𝑥1 < 𝑥2 ; 4. 𝐹 (−∞) = 0, 𝐹 (+∞) = 1, 5. Функция распределения непрерывна слева. 13 Независимые дискретные случайные величины Определение. Дискретные случайные величины X и Y называются независимыми, если независимы события {𝑋 ∈ 𝐴} и {𝑌 ∈ 𝐵} для любых множеств возможных значений указанных случайных величин. Аналогично, дискретные случайные величины X1, X2,…, Xn называются независимыми, если независимы события {𝑋𝑖 ∈ 𝐴𝑖 }, 𝑖 = 1,2, … , 𝑛 для любых множеств возможных значений указанных случайных величин. 14 Дискретные случайные величины X и Y являются независимыми, если для всех возможных значений 𝑥𝑖 и 𝑦𝑗 выполняется равенство 𝑃(𝑋 = 𝑥𝑖 , 𝑌 = 𝑦𝑗 ) = 𝑃 (𝑋 = 𝑥𝑖 ) ∙ 𝑃(𝑌 = 𝑦𝑗 ) 15 Числовые характеристики дискретных случайных величин Математическое ожидание 𝐸 (𝑋) = 𝑥1 𝑝1 + 𝑥2 𝑝2 + ⋯ + 𝑥𝑛 𝑝𝑛 . 𝐸 ( 𝑋 ) = ∑∞ 𝑖=1 𝑥𝑖 𝑝𝑖 , 16 Свойства математического ожидания 1.Математическое ожидание константы C равно этой константе: E(C) =C. 2. Постоянный множитель можно выносить за знак математического ожидания: E(c X) =cE(X). 3. Математическое ожидание суммы случайных величин равно сумме математических ожиданий слагаемых: 17 E(X 1 + X 2 +. . . + X n) = E(X 1)+E(X 2)+. . . +E(X n). 4. Математическое ожидание произведения независимых случайных величин равно произведению математических ожиданий сомножителей: E(X 1 ・X 2 ・. . . ・X n) = E(X 1) ・E(X 2) ・. . . ・E(X n). 5. Если 𝜑(x) – числовая функция и X – дискретная случайная величина, то E[𝜑(X )] = 𝜑(x1)p1 +𝜑(x2)p2 +. . . . 18 6. Если 𝜑(x) – выпуклая функция, то для любой случайной величины X выполняется неравенство Йенсена: E[𝜑(X )] ≥ 𝜑 (E[X ]) . 19 Дисперсией случайной величины X называется математическое ожидание квадрата отклонения этой случайной величины от ее математического ожидания E(X ): D(X ) = E([X −E(X )]2). Стандартное (среднее квадратичное) отклонение случайной величины X определяется как корень из дисперсии и обозначается 𝜎𝑋 или 𝜎(𝑋), 𝜎(𝑋) = √𝐷(𝑋). 20 Свойства дисперсии: 1. D(X ) = E(X 2)−[E(X )]2. 2. Дисперсия константы равна нулю: D(C) = 0. 3. D(X )≥ 0. 4. Постоянный множитель выносится из под знака дисперсии в квадрате: D(CX ) =C2D(X ). 5. Дисперсия суммы независимых случайных величин равна сумме дисперсий слагаемых: D(X1 +X2 +. . . +Xn) = D(X1)+D(X2)+. . . +D(Xn). 21 Ковариация и коэффициент корреляции Ковариация Cov(X ,Y ) случайных величин X , Y задается формулой Cov(X ,Y ) = E[(X −E(X ))(Y −E(Y ))]. Ковариация обладает следующими свойствами: 1. Cov(X , Y ) = E(XY )−E(X )E(Y ). 2. Cov(X , X ) = D(X ). 3. D(X +Y ) = D(X )+D(Y )+2Cov(X , Y ). 4. Если X и Y независимы, то Cov(X , Y ) = 0. 5. Cov(X , Y ) = Cov(Y,X ). 6. Cov(aX , Y ) = Cov(X , aY ) = aCov(X , Y ), где a = const. 7. Cov(X +Y, Z) = Cov(X , Z)+Cov(Y, Z). 8. Cov(X , Y +Z) = Cov(X , Y )+Cov(X , Z). 22 Коэффициент корреляции, определяется формулой 𝜌𝑋𝑌 𝐶𝑜𝑣 (𝑋, 𝑌) = 𝜌(𝑋, 𝑌 ) = . 𝜎 (𝑋 )𝜎 (𝑌 ) Свойства коэффициента корреляции: 1. 𝜌𝑋𝑌 = 𝜌𝑌𝑋 . 2. | 𝜌𝑋𝑌 | ≤ 1 . 3. Условие | 𝜌𝑋𝑌 | = 1 равнозначно существованию таких констант a и b отличных от 0, что равенство Y = a +b X выполняется с вероятностью 1. 23 Некоторые распределения дискретных случайных величин 1. Распределение Бернулли 𝑋 (𝑡 ) 1 𝑃 𝑞 𝑝 𝐸 (𝑋) = 0 ∙ 𝑞 + 1 ∙ 𝑝 = 𝑝; 𝐷(𝑋) = 𝐸 (𝑋 2 ) − 𝐸 2 (𝑋) = 0 ∙ 𝑞 + 1 ∙ 𝑝 − 𝑝2 = 𝑝(1 − 𝑝) = 𝑝𝑞. 24 2. Биномиальное распределение 𝑋 = 𝑋1 + ⋯ + 𝑋𝑛 . 𝐸 (𝑋) = 𝐸 (𝑋1 + ⋯ + 𝑋𝑛 ) = 𝑛𝑝; 𝐷(𝑋) = 𝐷(𝑋1 + ⋯ + 𝑋𝑛 ) = 𝑛𝑝𝑞. 25 Непрерывные случайные величины и их характеристики Определение. Случайная величина X называется непрерывной, если ее функция распределения F(x) = P(X < x) непрерывна в любой точке x. Примеры: время ожидания, рост человека, диаметр детали. Для непрерывной функции F(x) справедливо: F(x+0)= F(x-0)= F(x), поэтому P(X=x)= F(x+0) - F(x-0)=0. . 26 Другое определение, случайная величина называется непрерывной, если вероятность каждого ее отдельного значения равна нулю. Определение. Непрерывная случайная величина называется абсолютно непрерывной, если ее функция распределения имеет производную 𝑓 (𝑥) = 𝐹′(𝑥) всюду, за исключением, может быть, конечного числа точек. Функция 𝑓(𝑥) непрерывна всюду, за исключением указанных точек. Функция 𝑓(𝑥) называется плотностью вероятности непрерывной случайной величины X: 27 𝑃(𝑥 < 𝑋 < 𝑥 + ∆𝑥) = 𝑓 (𝑥) ∙ ∆𝑥. Свойства плотности вероятности случайной величины: 1. 𝑓(𝑥) ≥ 0.. 2. 𝑃(𝑎 ≤ 𝑋 ≤ 𝑏) = 𝑃 (𝑎 < 𝑋 < 𝑏) = 𝑏 = ∫ 𝑓(𝑥)𝑑𝑥 = 𝐹 (𝑏) − 𝐹 (𝑎); 𝑎 +∞ 3. ∫−∞ 𝑓 (𝑥)𝑑𝑥 𝑥 4.∫−∞ 𝑓 (𝑡) 𝑑𝑡 = = 1 (свойство нормировки). 𝐹 (𝑥 ). 28 Случайная величина Х называется сосредоточенной на отрезке [a, b], если она может принимать значения, только принадлежащие этому отрезку P(X ∈ [a, b]) = 1. Математическим ожиданием непрерывной случайной величины с плотностью вероятности 𝑓 (𝑥) называется число +∞ 𝑚 = 𝐸 (𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 , −∞ 29 если этот интеграл сходится, а для случайной величины X , сосредоточенной на отрезке [a, b]: 𝑏 𝑚 = 𝐸 (𝑋) = ∫ 𝑥𝑓(𝑥)𝑑𝑥 . 𝑎 Пусть Y — случайная величина вида 𝑌 = 𝜑(𝑋 ). Математическое ожидание Y вычисляется в общем случае по формуле +∞ 𝐸 (𝑌) = ∫ 𝜑(𝑥) ∙ 𝑓 (𝑥)𝑑𝑥 , −∞ 30 а для случайной величины, сосредоточенной на отрезке [a, b],—по формуле 𝑏 𝐸 (𝑌) = ∫ 𝜑(𝑥) ∙ 𝑓(𝑥)𝑑𝑥 . 𝑎 Дисперсией непрерывной случайной величины с плотностью вероятности 𝑓 (𝑥) называется число +∞ 𝐷 (𝑋) = 𝐸 [(𝑋 − 𝑚)2 ] = ∫ (𝑥 − 𝑚)2 ∙ 𝑓 (𝑥)𝑑𝑥. −∞ 31 Так же, как и для дискретной случайной величины справедлива формула 𝐷(𝑋) = 𝐸 [𝑋 2 ] − 𝐸 2 [𝑋], т. е. дисперсию непрерывной случайной величины можно вычислить по формуле: +∞ 𝐷(𝑋) = 𝐸 [(𝑋 − 𝑚)2 ] = ∫ 𝑥 2 ∙ 𝑓(𝑥)𝑑𝑥 − 𝑚2 . −∞ 32 Начальные и центральные моменты непрерывной случайной величины Начальные и центральные моменты непрерывной случайной величины определяются следующим образом. Начальные 𝜈𝑘 = 𝐸(𝑋 𝑘 ) центральные 𝜇𝑘 = 𝐸((𝑋 − 𝜈1 )𝑘 ) : 33 +∞ 𝜈𝑘 = ∫ 𝑥 𝑘 𝑓 (𝑥)𝑑𝑥, −∞ +∞ 𝜇𝑘 = ∫ (𝑥 − 𝜈1 )𝑘 𝑓 (𝑥)𝑑𝑥. −∞ 𝑘 = 1,2, … . Асимметрия 𝜇3 𝐴𝑠 = 3 ; 𝜎 34 35 Эксцесс 𝜇4 𝐸𝑥 = 4 − 3; 𝜎 36 Примеры распределения непрерывной случайной величины 1. Равномерное распределение на отрезке [a, b] . Непрерывная случайная величина X называется равномерно распределенной на отрезке [a, b] , если ее плотность вероятности постоянна на этом отрезке и равна нулю вне этого отрезка: C , x  [a, b] f ( x)    0, x  [a, b] . Значение параметра C определяется из условия нормированности: 37 b b a f ( x)dx  1; a Cdx  C  (b  a)  1   1 C ba. Следовательно,  1  , x  [ a, b] f ( x)   b  a  0, x  [a, b] . Проинтегрировав плотность распределения, найдем выражение для функции распределения случайной величины X. 1 1 xa F ( x)   dt   ( x  a)  x[ a ,b ] b  a b  a ba . a x 38 0, x  a  x  a F ( x)   , x  ( a, b] b  a . 1, x  b  39 𝛽−𝛼 𝑃 (𝛼 < 𝑋 < 𝛽 ) = ; 𝑏−𝑎 при 𝑎 < 𝛼 < 𝛽 < 𝑏. 40 Если случайная величина X равномерно распределена на отрезке [ a, b] , то ab (b  a) 2 E[ X ]  ; D[ X ]  2 12 . 2. Показательное (экспоненциальное) распределение. Случайная величина распределена по показательному закону на [0;) , если функция плотности вероятности имеет вид 41  e  x , x  0 f ( x)    0, x  0 ,   0  параметр. Функция распределения такой величины имеет вид x F ( x)    e t dt  e 42 t x  1  e x . Если случайная величина X распределена по показательному закону, то E[ X ]  1 1 D[ X ]  2 . ,   Вероятность того, что случайная величина X, распределенная по показательному закону с параметром λ примет значение на отрезке [𝛼, 𝛽 ] определяется формулой 𝑃(𝛼 < 𝑋 < 𝛽 ) = 𝑒 −𝛼λ − 𝑒 −𝛽λ . 43 Действительно 𝑃 (𝛼 < 𝑋 < 𝛽 ) = 𝐹 (𝛽 ) − 𝐹 (𝛼 ) = 1 − 𝑒 −𝛽λ − (1 − 𝑒 −𝛼λ ) = = 𝑒 −𝛼λ − 𝑒 −𝛽λ . В частном случае 𝑃 (𝜏 < 𝑋 < ∞) = 𝑒 −𝜏λ . 44 3. Нормально распределенные случайные величины. Случайная величина имеет X нормальное (гауссово) распределение на промежутке (;  ) , если функция плотности случайной величины существует и имеет вид  1 f ( x)  e  2 ( x a )2 2 2 , x  (,) . 45 Функция плотности зависит от двух параметров a и  . Можно показать, что все функции такого вида удовлетворяют условию нормированности:   f ( x)dx  1. 46 X~ 𝑁(𝑎, 𝜎 2 ). 47 4. Распределения функций от случайных величин Теорема. Пусть абсолютно непрерывная случайная величина X имеет функцию распределения F(x) и плотность распределения f(x). Тогда случайная величина (𝑎 ≠ 0) имеет функцию распределения 𝐺 (𝑥 ) = { 𝑥−𝑏 ) 𝑛𝑝𝑢 𝑎 > 𝑎 𝑥−𝑏 𝐹 ( ) 𝑛𝑝𝑢 𝑎 𝑎 𝐹( 1− 0; < 0. и плотность распределения 48 𝑌 = 𝑎𝑋 + 𝑏, 1 𝑥−𝑏 𝑔 (𝑥 ) = 𝑓( ). |𝑎 | 𝑎 Теорема. Пусть абсолютно непрерывная случайная величина X имеет функцию распределения F(x) и плотность распределения f(x), функция 𝜑(х) монотонна. Тогда случайная величина 𝑌 = 𝜑 (𝑋 ) имеет функцию распределения 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − возрастающая, 𝐺 (𝑥 ) = { 1 − 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − убывающая, 49 и плотность распределения 𝑔(𝑥)=|(𝜑 −1 (𝑥))′| ∙ 𝑓(𝜑 −1 (𝑥)). Доказательство. 𝐺 (𝑥 ) = 𝑃 (𝑌 < 𝑥 ) = 𝑃 (𝜑 (𝑋 ) < 𝑥 ) = = 𝑃(𝑋 < 𝜑 −1 (𝑥)) = 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − возрастающая; 𝐺 (𝑥) = 𝑃(𝑌 < 𝑥) = 𝑃 (𝜑(𝑋) < 𝑥) = 𝑃(𝑋 > 𝜑 −1 (𝑥)) = = 1 − 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − убывающая; 50 то есть 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − возрастающая, 𝐺 (𝑥 ) = { 1 − 𝐹(𝜑 −1 (𝑥)), если 𝜑(𝑋) − убывающая. Найдем плотность распределения: 𝑔(𝑥) = 𝐺 ′ (𝑥) = |(𝜑 −1 (𝑥))′| ∙ 𝑓(𝜑 −1 (𝑥)). 51 Нормальные случайные векторы В общем случае плотность нормального распределения двух случайных величин выражается формулой . Этот закон зависит от пяти параметров: 𝑚𝑋 , 𝑚𝑌 , 𝜎𝑋 , 𝜎𝑌 , 𝑟 Смысл этих параметров: 𝑚𝑋 , 𝑚𝑌 −математические ожидания величин и 𝜎𝑋 , 𝜎𝑌 — их средние квадратические отклонения; 𝑟 — коэффициент корреляции величин 52 и . ; 1.3. Вероятностные распределения случайных процессов. Пусть задано вероятностное пространство ( Ω, ℑ, P ) где 4) множество Ω (пространство элементарных событий или исходов опыта); 5) система ℑ подмножеств множества Ω (𝜎 − алгебра подмножеств); 6) функция 𝑃(𝐴), определенная на алгебре множеств ℑ и удовлетворяющая аксиомам вероятностей. Пусть 𝑇 – непустое подмножество ℝ. Определение. Семейство случайных величин 𝑋 ≜ {𝑋(𝑡), 𝑡𝜖𝑇}, определенных на ( Ω, ℑ, P ), называется случайным процессом. 53 При фиксированном t0 𝜖𝑇 случайная величина 𝑋(𝜔) = 𝑋𝑡0 называется сечением случайного процесса 𝑋 в точке t0 𝜖𝑇. Детерминированная функция 𝑥𝜔 (𝑡) называется реализацией процесса. Если 𝑇 конечное или счетное, то 𝑋 называется случайным процессом с дискретным временем. Если 𝑇 промежуток действительной оси, то 𝑋 называется случайным процессом с непрерывным временем. Определение. Семейством конечномерных распределений случайного процесса {𝑋(𝑡), 𝑡𝜖𝑇} называется совокупность к-мерных функций распределения 54 𝐹 (𝑥1 , … , 𝑥𝑘 ; 𝑡1 , … , 𝑡𝑘 ) = 𝑃 (𝑋(𝑡1 ) < 𝑥1 , … , 𝑋(𝑡𝑘 ) < 𝑥𝑘 ). Определение. Cлучайный процесс называется гауссовым, если все его конечномерные распределения являются гауссовыми. Например, если ∀ 𝑛𝜖𝑁 вектор (𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 )) гауссовым: 𝑓 (𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) = 1 √(2𝜋)𝑛 𝑑𝑒𝑡𝐾𝑛 1 × 𝑒𝑥𝑝 {− (𝑥 − 𝑚)𝑇 𝐾𝑛−1 (𝑥 − 𝑚)}, 2 где 55 × является 𝑥 𝑇 = (𝑥1 , … , 𝑥𝑛 ), 𝐾𝑛 − ковариационная матрица 𝑘11 𝐾𝑛 = ( ⋮ 𝑘𝑛1 ⋯ 𝑘1𝑛 ⋱ ⋮ ), ⋯ 𝑘𝑛𝑛 𝑘𝑖𝑗 = 𝐸 [(𝑋(𝑡𝑖 ) − 𝑚𝑥 (𝑡𝑖 )) (𝑋(𝑡𝑗 ) − 𝑚𝑥 (𝑡𝑗 ))], 𝑚𝑥 (𝑡𝑖 ) = 𝐸 [𝑋(𝑡𝑖 )], 𝑚𝑇 = (𝑚𝑥 (𝑡1 ), … , 𝑚𝑥 (𝑡𝑛 )). 56 Условия согласованности. Для любого случайного процесса {𝑋(𝑡), 𝑡𝜖𝑇} выполнено условие согласованности семейства конечномерных распределений: 1) для любого набора моментов {𝑡𝑖 } ⊂ 𝑇 и точек {𝑥𝑖 } ⊂ ℝ 𝐹 (𝑥1 , … , 𝑥𝑛−1 , +∞; 𝑡1 , … , 𝑡𝑛−1 , 𝑡𝑛 ) = 𝐹 (𝑥1 , … , 𝑥𝑛−1 ; 𝑡1 , … , 𝑡𝑛−1 ); 2) для любой перестановки {𝑘1 , … , 𝑘𝑛 } индексов {1, … , 𝑛} 𝐹 (𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) = 𝐹(𝑥𝑘1 , … , 𝑥𝑘𝑛 ; 𝑡𝑘1 , … , 𝑡𝑘𝑛 ). 57 Примеры случайных процессов. Пример 1. Пусть случайный процесс задан соотношением: 𝑋(𝑡) = 𝜑(𝑡) ∙ 𝑌, 𝑡 ∈ [0, 1], где 𝑌 − случайная величина с известным законом распределения 𝐹𝑌 (𝑦), 𝜑(𝑡) − положительная детерминированная функция. Найти конечномерные распределения случайного процесса 𝑋 (имеет ли его 𝑛 -мерная функция распределения плотность?) 58 Решение: 𝐹 (𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) = 𝑃(𝑋(𝑡1 ) < 𝑥1 , … , 𝑋(𝑡𝑛 ) < 𝑥𝑛 ) = 𝑥𝑖 = 𝑃(𝜑(𝑡𝑖 )𝑌 < 𝑥𝑖 , 𝑖 = 1, … , 𝑛) = 𝑃 (𝑌 < , 𝑖 = 1, … , 𝑛) = ( ) 𝜑 𝑡𝑖 𝑥𝑖 ) ( ) 𝜑 𝑡 𝑖=1,…,𝑛 𝑖 = 𝑃 (𝑌 < min 𝑥𝑖 ). ( ) 𝜑 𝑡 𝑖=1,…,𝑛 𝑖 = 𝐹𝑌 ( min Если функция распределения 𝐹𝑌 (𝑦) имеет плотность распределения 𝑓𝑌 (𝑦), то существует плотность одномерного распределения. В самом деле, 𝑥 ⁄𝜑(𝑡) 𝑥 𝐹 (𝑥, 𝑡) = 𝐹𝑌 ( )= ∫ 𝜑 (𝑡 ) −∞ 𝑥 1 𝑧 𝑓𝑌 (𝑦)𝑑𝑦 = ∫ ∙ 𝑓𝑌 ( ) 𝑑𝑧 ⇒ 𝜑 (𝑡 ) 𝜑 (𝑡 ) −∞ 59 1 𝑥 𝑓 (𝑥; 𝑡) = 𝜑(𝑡) ∙ 𝑓𝑌 (𝜑(𝑡)); 𝑧 〈𝑦 = ; 𝑑𝑦 = 𝑑𝑧〉. 𝜑 (𝑡 ) Однако, при 𝑛 ≥ 2 𝑛 -мерная функция распределения не имеет плотности. Действительно, уже при 𝑛 = 2, для процесса 𝑋 имеет место равенство 𝑋(𝑡1 ) 𝑋(𝑡2 ) = = 𝑌, 𝜑(𝑡1 ) 𝜑(𝑡2 ) поэтому совместное распределение величин (𝑋(𝑡1 ), 𝑋(𝑡2 )) сосредоточено на прямой в ℝ2 : 𝑥1 𝜑(𝑡1 ) = 60 𝑥2 , 𝜑(𝑡2 ) такое распределение не имеет плотности, т. к. не дифференцируемо. Пример 2. Пусть 𝑌 и 𝑈 – независимые случайные величины ~ 𝑁 (0, 1). Для случайного процесса 𝑋(𝑡) = 𝑌 + 𝑈 ∙ 𝑡, 𝑡 ≥ 0: 1) описать траектории и сечения; 2) найти конечномерные распределения; 3) вычислить вероятность события 𝐴 = {𝜔 ∈ Ω}: траектория 𝑥𝜔 (𝑡) не проходит через состояние 0. 61 Решение: 1) Траектории 𝑥𝜔 (𝑡), 𝑡 ≥ 0 представляют собой прямые, исходящие из точек 𝑌 с угловыми коэффициентами 𝑈. 2) Найдем конечномерные распределения, т. е. распределения вектора (𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 )). Поскольку 𝑋(𝑡𝑖 ) задается двумя параметрами 𝑌 и 𝑈, то столбец 1 𝑡1 𝑌 (𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 )) = ( ⋮ ) ∙ ( ) = 𝐵𝑊, 𝑈 1 𝑡𝑛 𝑇 62 1 𝑡1 𝐵 = ( ⋮ ), 1 𝑡𝑛 𝑌 𝑊 = ( ). 𝑈 Вектор 𝑊 – гауссов вектор 1 𝑊~𝑁(𝑂, 𝐼 ) = 𝑁 (( ) , ( )). 1 Следовательно, вектор 𝐵𝑊 –тоже имеет гауссово распределение. Найдем его математическое ожидание и ковариационную матрицу 63 𝑚 = 𝐸 {𝐵𝑊 } = 𝐵 ∙ 𝐸 (𝑊 ) = 𝐵 ∙ ( ) = ( ⋮ ), 𝐾𝑛 = 𝐵 ∙ 𝑐𝑜𝑣 (𝑊, 𝑊 ) ∙ 𝐵 𝑇 = 𝐵 ∙ 𝐵 𝑇 1 𝑡1 1…1 =( ⋮ )∙( )= 𝑡1 … 𝑡𝑛 1 𝑡𝑛 1 + 𝑡12 … 1 + 𝑡1 ∙ 𝑡𝑛 =( ), ⋱ 1 + 𝑡𝑛 ∙ 𝑡1 … 1 + 𝑡𝑛2 𝐸(Ỷ, Ỷ) 𝐸(Ỷ, Ů ) 𝑐𝑜𝑣 (𝑊, 𝑊 ) = ( 𝐸(Ů , Ỷ) 𝐸(Ů, Ů) где Ỷ = 𝑌 − 𝐸 (𝑌). 64 1 0 ) = 𝐼. 0 1 )=( Т. о., плотность конечномерного распределения 𝑓(𝑥1 , … , 𝑥𝑛 ; 𝑡1 , … , 𝑡𝑛 ) = 1 √(2𝜋)𝑛 𝑑𝑒𝑡𝐾𝑛 1 − 𝑥 𝑇 𝐾𝑛−1 𝑥 ∙𝑒 2 , В частности, при 𝑛 = 1: 𝑓(𝑥, 𝑡) = 1 √2𝜋(1+𝑡 2 ) 65 ∙𝑒 𝑥2 − 2(1+𝑡2 ) . 3) Найдем вероятность события А: траектория не пересекает ось абсцисс 𝑃(𝐴) = 𝑃{𝑌 < 0, 𝑈 ≤ 0} + 𝑃 {𝑌 > 0, 𝑈 ≥ 0} = = 𝑃(𝑌 < 0) ∙ 𝑃(𝑈 ≤ 0) + 𝑃(𝑌 > 0) ∙ 𝑃 (𝑈 ≥ 0) = 0,5 ∙ 0,5 + 0,5 ∙ 0,5 = 0,5. Т. к. 𝑃 (𝑌 < 0) = Φ(0) = 0,5. Φ(𝑥 ) = 𝑥 1 √2𝜋 66 𝑡2 ∫ 𝑒 − 2 𝑑𝑡 −∞ . Пример 3. (процесс с одним скачком). Случайный процесс задан на [0; +∞) следующим образом: 1, если 𝑡 < 𝜏(𝜔), 𝑋𝜔 (𝑡) = { 0, если 𝑡 ≥ 𝜏(𝜔). где 𝜏~𝐸 (1); 0, 𝑥 < 0; ( ) 𝑓 𝑥 = { −𝜆𝑥 𝜆𝑒 , 𝑥 ≥ 0. Требуется 1) описать траектории и сечения данного процесса; 2) найти одномерное и двумерное распределения; 67 3) вычислить вероятность 𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} 𝑛𝑝𝑢 𝑡 > 𝑠. Решение: 1) Сечения 𝑋(𝑡) распред. по з-ну Бернулли с параметром 𝑝 = 𝑒 −1 , т. к. 𝑋(𝑡) ∈ {0, 1} причем +∞ −𝑡 𝑃{𝑋(𝑡) = 1} = 𝑃{𝜏 > 𝑡} = ∫ 𝑒 −𝜃 𝑑𝜃 = −𝑒 −𝜃 |+∞ = 𝑒 . 𝑡 𝑡 Траектории 𝑥𝜔 (𝑡)=1 на [0, 𝜏𝜔 ] 𝑥𝜔 (𝑡) = 0 на [𝜏𝜔 , +∞]. 68 2) Одномерное распределение имеет вид 𝑋 (𝑡 ) 1 𝑃 1 − 𝑒 −𝑡 𝑒 −𝑡 Двумерное распределение – это распределение вектора (𝑋(𝑡), 𝑋(𝑠)), принимающего значения (0, 0), (0, 1), (1, 0), (1, 1). 𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 1} 𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} = . 𝑃 {𝑋(𝑠) = 1} Найдем вероятности 69 𝑃 {𝑋(𝑡) = 0, 𝑋(𝑠) = 0} = 𝑃{𝜏 ≤ 𝑡, 𝜏 ≤ 𝑠} = 𝑃{𝜏 ≤ min(𝑡, 𝑠)} = = 1 − 𝑒 −min(𝑡,𝑠) ; 𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 1} = 𝑃 {𝜏 ≥ 𝑡, 𝜏 ≥ 𝑠} = 𝑃 {𝜏 ≥ mах(𝑡, 𝑠)} = +∞ −mах(𝑡,𝑠) = ∫mах(𝑡,𝑠) 𝑒 −𝜃 𝑑𝜃 = −𝑒 −𝜃 |+∞ = 𝑒 . mах(𝑡,𝑠) 𝑡 Для 𝑡 > 𝑠 имеем 𝑃{𝑋(𝑡) = 0, 𝑋(𝑠) = 1} = 𝑃{𝑠 ≤ 𝜏 < 𝑡} = ∫𝑠 𝑒 −𝜃 𝑑𝜃 = −𝑒 −𝜃 |𝑡𝑠 = 𝑒 −𝑠 − 𝑒 −𝑡 . Для 𝑡 > 𝑠 имеем 𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 0} = 0, (переключение уже было). Для 𝑡 ≤ 𝑠 имеем 𝑃{𝑋(𝑡) = 0, 𝑋(𝑠) = 1} = 0, (переключение уже было). Для 𝑡 ≤ 𝑠 имеем 𝑃{𝑋(𝑡) = 1, 𝑋(𝑠) = 0} = 𝑒 −𝑡 − 𝑒 −𝑠 . 70 Двумерное распределение задается таблицей 𝒕>𝒔 𝑋 (𝑡 ) = 0 𝑋 (𝑡 ) = 1 𝑋 (𝑠 ) = 0 1-𝑒 −𝑠 𝑋 (𝑠 ) = 1 𝑒 −𝑠 − 𝑒 −𝑡 𝑒 −𝑡 𝒕≤𝒔 𝑋 (𝑡 ) = 0 𝑋 (𝑡 ) = 1 𝑋 (𝑠 ) = 0 1-𝑒 −𝑡 𝑒 −𝑡 − 𝑒 −𝑠 𝑋 (𝑠 ) = 1 𝑒 −𝑠 71 3) Вычислим вероятность 𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} 𝑛𝑝𝑢 𝑡 > 𝑠. 𝑃 {𝑋(𝑡) = 1, 𝑋(𝑠) = 1} 𝑒 −𝑡 𝑃{𝑋(𝑡) = 1|𝑋(𝑠) = 1} = = −𝑠 { ( ) } 𝑃 𝑋 𝑠 =1 𝑒 − 𝑒 −𝑡 + 𝑒 −𝑡 = 𝑒 𝑠−𝑡 . Пример 4. (Дискретный процесс - симметричное случайное блуждание) Положение частицы в момент 𝑡𝑛 = 𝑛 ∙ ∆𝑡 , 𝑛 = 0, 1, 2, … является случайным и определяется значениями 72 𝑥𝑚 = 𝑚 ∙ ∆𝑥, 𝑚∈ℤ 1) считая, что 𝑥0 = 0 - начальное положение точки, описать ее движ. с пом. дискретного сл. проц. {𝑋(𝑡), 𝑡𝜖𝑇}; с дискретным временем 𝑇 ≜ {𝑡𝑛 | 𝑛 ≥ 0} найти одномерное распределение; 2) указать интервал (−𝑎, 𝑎) , в котором с вер. 0,95 содержится ср. скор. движ. 𝑋 (𝑡 ) − 𝑋 (𝑠 ) 𝑣≜ 𝑡−𝑠 на промежутке [𝑠, 𝑡], 𝑠, 𝑡𝜖𝑇, а число 𝑁 ≜ 73 𝑡−𝑠 ∆𝑡 достаточно велико; 3) на сколько изменится искомый интервал, если промежуток увеличится в 100 раз? Решение: 1) Пусть 𝑋(𝑡) - положение частицы в момент времени 𝑡. Тогда 𝑋(𝑡0 ) = 𝑥0 , 𝑋(𝑡𝑛+1 ) = 𝑋(𝑡𝑛 ) + 𝑉𝑛+1 , 𝑛𝑝𝑢 𝑛 ≥ 0 (*) где 𝑉𝑛+1 - случ. величина 𝑉𝑛 -∆𝑥 ∆𝑥 P 0,5 0,5 74 𝑉𝑛+1 не зависит от 𝑋(𝑡𝑛 ), 𝑋(𝑡𝑛−1 ), … предыдущих положений частицы. Т. к. 𝑉𝑛 = 𝑋(𝑡𝑛 ) − 𝑋(𝑡𝑛−1 ), 𝑉𝑛−1 = 𝑋(𝑡𝑛−1 ) − 𝑋(𝑡𝑛−2 ), … , 𝑉1 = 𝑋(𝑡1 ) − 𝑥0 , то 𝑉𝑛+1 не зависит от 𝑉1 , 𝑉2 , … , 𝑉𝑛 ⇒ величины 𝑉1 , 𝑉2 , … , 𝑉𝑛+1 независимы в совокупности. Запишем (*) в виде суммы 𝑋(𝑡𝑛 ) = 𝑉1 + 𝑉2 + ⋯ + 𝑉𝑛 Пронормируем 𝑉𝑘 а именно 𝑉𝑘 = (2𝐵𝑘 − 1)∆𝑥, 75 (**) где величины 𝐵𝑘 ∈ {0, 1} 1 𝐵𝑘 P 0,5 0,5 теперь 𝑋(𝑡𝑛 ) = (2𝐵1 − 1)∆𝑥 + (2𝐵2 − 1)∆𝑥 + ⋯ + (2𝐵𝑛 − 1)∆𝑥 = = [2(𝐵1 + ⋯ + 𝐵𝑛 ) − 𝑛]∆𝑥 = [2𝑣 (𝑛) − 𝑛]∆𝑥, где 𝑣 (𝑛)=𝐵1 + ⋯ + 𝐵𝑛 Величина 𝑣(𝑛) распределение 76 имеет биномиальное одномерное распределение с параметрами 𝑛, 0,5. ⇒ Одномерное распределение 𝑃{ 𝑋(𝑡𝑛 ) = 𝑚 ∙ ∆𝑥} = 𝑚+𝑛 = 𝑃 {𝑣(𝑛) = }={ 2 0, 𝑚+𝑛 𝐶𝑛 2 1 𝑛 ∙( ) ,𝑚 2 иначе. = −𝑛, −𝑛 + 2, … , 𝑛 − 2, 𝑛; 2) Найдем число 𝑎 > 0: 𝑃 { |𝑣| < 𝑎} = 0,95. 77 Заметим, 𝑋 (𝑡 ) − 𝑋 (𝑠 ) что представляет собой сумму независимых одинаково распределенных случайных величин средними и дисперсиями (∆𝑥 )2 𝑉𝑛 -∆𝑥 ∆𝑥 P 0,5 0,5 𝐸 (𝑉𝑛 ) = 0; 𝐷(𝑉𝑛 ) = (∆𝑥)2 𝑋 (𝑡 ) − 𝑋 (𝑠 ) 𝑣≜ 𝑡−𝑠 78 𝑉𝑘 𝑁= 𝑡−𝑠 ∆𝑡 с нулевыми 𝐸 (𝑣) = 0; 𝐷(𝑣) = 𝑁 ∙ (∆𝑥)2 , 𝜎𝑣 = ∆𝑥√𝑁. При больших 𝑁 в силу ЦПТ 𝑃{ |𝑣| < 𝑎} = 𝑃{−𝑎 < 𝑣 < 𝑎} ≈ 𝑎−0 Φ( 𝜎 ) 𝑣 − −𝑎−0 Φ( 𝜎 ) 𝑣 = 𝑎 2 Φ (𝜎 ) 𝑣 = 0,95, ⇒ 𝑎 = 1,96 ∙ 𝜎𝑣 = 1,96 ∙ ∆𝑥√𝑁 = 1,96 ∙ ∆𝑥 ∙ √ 𝑡−𝑠 ∆𝑡 . ⇒ 3) Если время 𝑡 − 𝑠 увеличить в 100 раз, то 𝑎 увеличится в 10 раз. 79 1.4. Моментные характеристики случайных процессов. Пусть {𝑋(𝑡), 𝑡𝜖𝑇} − случайный процесс. Определение. Функция 𝑚𝑋 (𝑡) = 𝐸 {𝑋(𝑡)}, 𝑡𝜖𝑇, наз. Математическим ожиданием процесса 𝑋(𝑡) или его средним. Если 𝑚𝑋 (𝑡) = 0, то сл. пр. наз. центрированным. Аналогично, 𝐷𝑋 (𝑡) = 𝐷{𝑋(𝑡)} – дисперсия процесса 𝑋(𝑡). Определение. Функция 𝑅𝑋 (𝑡, 𝑠) = 𝑐𝑜𝑣{𝑋(𝑡), 𝑋( 𝑠)} – ковариационная функция процесса 𝑋(𝑡). Функция вторых моментов 80 Γ𝑋 (𝑡, 𝑠) = 𝐸 {𝑋(𝑡)𝑋(𝑠)}. Эти характеристики вычисляются для одномерных и двумерных распределений +∞ +∞ 2 𝑚𝑋 (𝑡) = ∫ 𝑥𝑓 (𝑥, 𝑡)𝑑𝑥 ; 𝐷𝑋 (𝑡) = ∫ (𝑥 − 𝑚𝑋 (𝑡)) 𝑓(𝑥, 𝑡)𝑑𝑥 ; −∞ −∞ ∞∞ 𝑅𝑋 (𝑡1 , 𝑡2 ) = ∬ (𝑥1 − 𝑚𝑋 (𝑡1 ))(𝑥2 − 𝑚𝑋 (𝑡2 )) 𝑓( 𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 )𝑑𝑥1 𝑑𝑥2 ; −∞−∞ Γ𝑋 (𝑡, 𝑠) = ∞∞ ∬−∞−∞ 𝑥1 𝑥2 𝑓( 𝑥1 , 𝑥2 , 𝑡1 , 𝑡2 )𝑑𝑥1 𝑑𝑥2 . 81 Очевидно, 𝐷𝑋 (𝑡) = 𝑅𝑋 ( 𝑡, 𝑡) = Γ𝑋 (𝑡, 𝑡) − 𝑚𝑋 2 (𝑡); 𝑅𝑋 (𝑡, 𝑠) = Γ𝑋 (𝑡, 𝑠) − 𝑚𝑋 (𝑡)𝑚𝑋 (𝑠). Определение. Случайный процесс называется гильбертовым, если 𝐸 {|𝑋(𝑡)|2 } < ∞, ∀ 𝑡 ∈ 𝑇. В этом случае существуют 𝑚𝑋 (𝑡), 𝐷𝑋 (𝑡), 𝑅𝑋 (𝑡, 𝑠), Γ𝑋 (𝑡, 𝑠), т. е. работает корреляционная теория. Это самая практически значимая область исследований. 82 Определение. Функция 𝑅𝑋𝑌 (𝑡, 𝑠) = 𝑐𝑜𝑣 {𝑋(𝑡), 𝑌( 𝑠)} – ковариационная функция процессов 𝑋 (𝑡 ) 𝑌 ( 𝑡 ). Если 𝑅𝑋𝑌 (𝑡, 𝑠) = 0, то процессы наз. некоррелированными. Определение. (дискретного белого шума) Бесконечную последовательность {𝑉𝑛 } некоррелированных сл. вел-н с нулевыми мат. ож. и конечной дисперсией называют дискретным белым шумом. Если 𝐷𝑋 (𝑡) = 1 при любом 𝑛, то 𝑉𝑛 – стандартный белый шум. 83 Определение. Процессом броуновского движения называется гауссов процесс {𝑤 (𝑡), 𝑡 ≥ 0} с нулевыми мат. ож. 𝑚𝑤 ( 𝑡 ) = 0 ковариационной функцией 𝑅𝑤 (𝑡, 𝑠) = min(𝑡, 𝑠). Винеровский случайный процесс Пример. Пусть 𝑋(𝑡) = 𝜑0 (𝑡) + ∑𝑘𝑗=1 𝜑𝑗 (𝑡)𝑌𝑗 , 𝑡 ∈ 𝑇, где 𝜑𝑗 (𝑡) −заданные функции, 84 и 𝑌𝑗 −некоррелированные сл.величины с нулевыми средними и дисперсиями =1. Найти 𝑚𝑋 (𝑡), 𝐷𝑋 (𝑡), 𝑅𝑋 (𝑡, 𝑠), Γ𝑋 (𝑡, 𝑠). Решение: ∀ 𝑡, 𝑠 ∈ 𝑇 имеем 𝐸{𝑌𝑗 } = 0, 𝑚𝑋 (𝑡) = 𝐸{𝜑0 (𝑡) + ∑𝑘𝑗=1 𝜑𝑗 (𝑡)𝑌𝑗 } = 𝜑0 (𝑡), 𝑘 𝑘 𝑅𝑋 (𝑡, 𝑠) = 𝑐𝑜𝑣 {∑ 𝜑𝑖 (𝑡)𝑌𝑖 , ∑ 𝜑𝑗 ( 𝑠)𝑌𝑗 } = 𝑖=1 𝑗=1 85 𝑘 𝑘 = ∑ ∑ 𝜑𝑖 (𝑡) 𝜑𝑗 ( 𝑠) 𝑐𝑜𝑣(𝑌𝑖 , 𝑌𝑗 ) = 𝑖=1 𝑗=1 𝑘 = ∑ 𝜑𝑖 ( 𝑡 ) 𝜑𝑖 ( 𝑠 ) . 𝑖=1 т. к. 𝑚𝑌𝑖 (𝑡) = 0, 𝑐𝑜𝑣(𝑌𝑖 , 𝑌𝑗 ) = 0, 𝑖 ≠ 𝑗; 𝑐𝑜𝑣(𝑌𝑖 , 𝑌𝑖 ) = 𝐷(𝑌𝑖 ) = 1. Γ𝑋 (𝑡, 𝑠) = 𝑅𝑋 (𝑡, 𝑠) . 86 𝐷𝑋 (𝑡) = ∑ 𝑘 𝑖=1 𝜑𝑖2 (𝑡). Пример. Определить распределение приращения броуновского движения. Решение. Процесс броуновского движения {𝑊𝑡 , 𝑡 ≥ 0} гауссовский. Поэтому любое его приращение ∆𝑊 = 𝑊𝑡 − 𝑊𝑠 есть нормально распределенная сл. величина как линейное преобразование гауссовского вектора. Найдем моментные характеристики сл. величины ∆𝑊. 87 Во-первых, 𝐸 (∆𝑊 ) = 𝑚𝑊 (𝑡) − 𝑚𝑊 (𝑠) = 0, 𝑚. 𝑘. 𝑚𝑊 (𝑡) = 0. Во-вторых, в силу 𝑅𝑤 (𝑡, 𝑠) = min(𝑡, 𝑠) при 𝑡 = 𝑠 получаем 𝐷 (∆𝑊) = 𝐷(𝑊 (𝑡)) + 𝐷(𝑊 (𝑠)) − 2𝑐𝑜𝑣 (𝑊 (𝑡) , 𝑊 (𝑠) ) = = 𝑅𝑤 (𝑡, 𝑡) + 𝑅𝑤 ( 𝑠, 𝑠) − 2𝑅𝑤 (𝑡, 𝑠) = 𝑡 + 𝑠 − 2𝑠 = 𝑡 − 𝑠. Отсюда 𝐷(∆𝑊 ) = |𝑡 − 𝑠|, ∀ 𝑡, 𝑠 ≥ 0. 88 Итак, 𝑊𝑡 − 𝑊𝑠 ~𝑁(0, |𝑡 − 𝑠|). Можно доказать, что приращения броуновского движения на различных интервалах времени независимы. 89
«Принятие решений в условиях неопределенности финансового рынка» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 938 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot