Справочник от Автор24
Поделись лекцией за скидку на Автор24

Вероятностная модель случайного события. Непосредственный расчет вероятностей

  • 👀 1179 просмотров
  • 📌 1108 загрузок
Выбери формат для чтения
Статья: Вероятностная модель случайного события. Непосредственный расчет вероятностей
Найди решение своей задачи среди 1 000 000 ответов
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Вероятностная модель случайного события. Непосредственный расчет вероятностей» pdf
Лекция Случайные события 1 Непосредственный расчет вероятностей Вероятностная модель случайного события Интервалы возможных значений всех существенных факторов ограничивают многообразие условий, которое в общем случае называют комплексом условий опыта. Теория вероятностей позволяет установить степень возможности случайного события, но для этого необходимо построить вероятностную модель случайного события. Построение вероятностной модели начинается с установления комплекса условий, в которых ожидается наступление события. Содержательную природу события игнорируют, сам факт реализации комплекса условий называют опытом. Прежде всего, нужно определить множество W взаимоисключающих (несовместных) результатов опыта - элементарных событий. В некоторых случаях элементарные события можно сосчитать или, по крайней мере, перенумеровать целыми числами w1, w2, … Из условий опыта должны быть известны вероятности элементарных событий - положительные числа P(wi), которые служат мерой возможности элементарных событий. Как всякая мера, вероятностная мера аддитивна: вероятность любого подмножества A в W равна сумме вероятностей принадлежащих ему элементарных событий: из A = U wi следует P( A) = å P(w i ) . Максимальную вероятность имеет i i все множество элементарных событий, она принимается за единицу: P(W) = 1. Любое случайное событие - это множество элементарных событий A Ì W, его вероятность обусловлена тем, какую часть W составляет множество A: пустое множество соответствует невозможному событию, все множество W достоверному, в остальных случаях 0 < P(A) < 1. Классическое определение вероятности В классическом определении вероятности предполагается, что все элементарные события, несовместные, образующие полную группу, еще и равновозможны (их называют случаями или шансами). Если W состоит из конечного числа n элементарных событий, то P(wi) = 1/n, и вероятность события А, которому благоприятствуют (входят в множество А) m шансов, определяется как относительное число благоприятных исходов: m P( A) = . (1.1) n Чтобы воспользоваться формулой непосредственного расчета вероятностей (1.1), нужно свести задачу к схеме случаев, а затем правильно подсчитать знаменатель и числитель. Пример По N целей действуют r поражающих элементов (ПЭ), каждый из которых выбирает себе цель случайно, независимо от других. В такой ситуации все ПЭ могут выбрать одну и ту же цель – это случайное событие А. Если r < N , то может произойти и событие В – все ПЭ действуют по разным целям. Вероятности событий P(A), P(B) не являются показателями эффективности, но могут быть полезны для понимания способов ее повышения. Схема выборки с возвратом Схема выборки без возврата Выборки, различающие элементы Независимый выбор из N целей ПЭ осуществляют по схеме выборки с возвратом: из урны, в которой находятся N перенумерованных предметов, M раз выбирают предмет, записывают его номер и возвращают обратно. Элементарный исход данного опыта – последовательность из M чисел со значениями от 1 до N, среди которых могут быть и одинаковые. Общее число таких исходов n = NM. Из них только N могут состоять из одинаковых сомножителей, значит mА = N. Следовательно, m N P(A) = A = M . n N Число mB исходов, в которых все цели разные, можно получить по схеме выборки без возврата: после извлечения из урны номер шара записывают, а шар в урну не возвращают. Число возможностей, равное вначале N, после каждого извлечения уменьшается на единицу, поэтому в M повторениях число возможных комбинаций составляет mB = N (N – 1) …(N –M + 1) = ANM , то есть число размещений из N элементов по M. Эти комбинации составляют только часть всех выборок с возвратом n = NM, следовательно, m AM P(B) = B = NM . n N Еще один класс задач, связанных с непосредственным расчетом вероятностей, имеет дело с выборками без возврата, не различающими перестановки элементов в выборке, поскольку речь идет о физическом наборе предметов, а не о мыслимом наборе их номеров. Например, взятую для контроля случайную выборку M штук из партии N изделий, можно представить набором различающихся номеров, как в выборке без возврата. Перестановки этих номеров относятся к одной и той же выборке, поэтому число вариантов выборки без возврата нужно уменьшить в M! раз: ANM N ( N - 1) K ( N - M + 1) N! (1.2) = = . M! M! M !( N - M )! Если есть основания полагать, что в партии N деталей ровно R бракованных, в случайную выборку объема M может попасть любое их число от 0 до min{M, R}. Можно говорить о случайных событиях A – все изделия в выборке годные, B – все изделия в выборке бракованные или D – ровно r из M изделий бракованы. Благоприятствующие этим событиям элементарные исходы легко сосчитать: mА = C NM- R , mB = C RM , mD = C Rr C NM--Rr , общее число равновозможных исходов известно. Вероятности соответствующих случайных событий можно вычислить по общей формуле (1.1): n = C NM = m D C Rr C NM--Rr = . (1.3) n C NM Формула (1.3) как математическое отношение служит теоретическим основанием для проведения дефектологического анализа, но не благоприятствует соответствующим вычислениям. Например, нельзя по этой формуле непосредственно вычислить наиболее вероятное число дефектных изделий в партии по известному числу брака в контрольной выборке, но можно выявить наиболее вероятную из нескольких гипотез многовариантным анализом по этой же формуле. Нужно разумно воспользоваться компьютером, чтобы не составлять программу на каждую задачу и обходиться без обычно принимаемых для упрощения, но необоснованных допущений. Все частные задачи P( D) = Технология электронных формул и ее преимущества Вероятностные основы системного анализа.1. Случайные события 2 должны быть обеспечены адекватными средствами решения, и все частные модели должны быть согласованы в рамках единой программной системы. Эффективным средством проведения многовариантного анализа может служить электронная формула – вычислительная процедура, которая выражает то же математическое отношение, что и аналитическая формула, но реализует его в наиболее благоприятной для анализа форме. В среде MATLAB вычисление по формуле (1.3) реализовано файл-функцией Sampling (Приложение 1, Листинг 1). Функция Sampling векторизована по последнему аргументу, то есть, можно получить вероятность сразу всех интересующих исходов (или по умолчанию – всех возможных исходов). Это позволяет сравнить гипотезы относительно общего числа дефектных изделий по степени их благоприятствования полученному результату (2 дефектных изделия в выборке L = 10 штук из партии N = 50 изделий) с помощью следующей команды MATLAB, последовательно перебирающей все гипотезы от R = 0 до R = N: >> Z=[];N=50;r=2;for R=0:N [m,I]=max(Sampling(N,R,10)); if I==1+r Z(end+1)=R; end, end,Z Z = 9 10 11 12 13 Из решения следует, что, вероятнее всего, в партии содержится от 9 до 13 дефектных изделий. Лаконичная формулировка задачи возможна благодаря хорошей организации электронной формулы Sampling (см. упражнение 1.10). Геометрические вероятности Во многих случаях несовместные, образующие полную группу элементарные исходы образуют континуальное множество, так что пересчитать их невозможно, но есть основания полагать, что все они равновозможны. Тогда в формуле непосредственного расчета вероятностей число возможных исходов надо заменить мерой множества возможных исходов W, а число благоприятных исходов – мерой соответствующей части этого множества A: Mes A (1.4) . Mes W В некоторых случаях выделение множества A в W достаточно очевидно. Например, равновозможные углы между прямой и отрезком в той же плоскости (рис. 1.1 а) находятся в интервале [0, p/2], так что Mes W = p/2. Если для наступления события A благоприятны углы в интервале [0, a], Mes A = a и P(A) = a/p. На рис. 1.1 б показан фрагмент бесконечной сетки из одинаковых квадратных ячеек со стороной a, на которую случайным образом брошен круг диаметром d (d << a). Событие A наступает, если круг не касается полей между ячейками. Событие B наступает, когда круг попадает какой-то частью на эти поля. Чтобы построить вероятностную модель этого события, в качестве равновозможных элементарных событий примем случайное положение круга (координаты центра), выделим в бесконечной сетке представительную часть – такой элемент, которым можно заполнить всю сетку, и будем считать, что множество элементарных событий W ограничено этим элементом. P( A) = Характерные задачи определения геометрических вероятностей a t а+d W A2 W2 p/2 A а a d а t2 A1 a T |t2 - t1| < a W1 б t1 в Рис. 1.1. Иллюстрации к определению геометрических вероятностей Эти условия можно свести к попаданию точки, если увеличить размеры ячейки на d, а круг заменить его центром. Ясно, что при равновозможных Вероятностные основы системного анализа.1. Случайные события 3 положениях точки вероятность события A равна относительной доли площади, занимаемой ячейками на поле. Ввиду регулярности сетки отношение площадей сохраняется в фрагментах, выделенных пунктирными границами, то есть, в формулу (1.4) можно подставить площади областей A1 (расширенной ячейки) и W1 (прямоугольника, ограниченного средними линиями полей), или по одной четвертой части этих областей A2 и W2, и т.п. Множество благоприятных исходов для события B получается расширением полей на d. К модели геометрической вероятности могут быть сведены и задачи не геометрического характера. Если каждый из двух сигналов может поступить в интервале [0, T], событие A наступает при условии, что интервал между ними не превышает a, элементарные события - пары (t1, t2) – можно интерпретировать как точки в квадрате, построенном на отрезках [0, T], а область |t2 - t1| < a (рис. 1.1, в) – как множество благоприятных исходов для A. Следовательно, согласно формуле (1.4) T 2 - (T - a ) 2 P(A) = . T2 Статистическая вероятность Для экспериментальной оценки вероятности на практике используют свойство устойчивости частоты: при повторении опыта N раз в одинаковых условиях число наступлений M интересующего случайного события A непредсказуемо, но при многократном повторении таких испытаний частота появления события A в них p* = M / N колеблется около некоторого числа p: p* = M » p, N (1.5) причем с увеличением числа повторений отклонения частоты уменьшаются. Частота (частость) наступления события A называется статистической вероятностью. Предел, к которому сходится по вероятности1 частота наступлений события A при неограниченном увеличении числа повторений опыта в неизменном комплексе условий, - это вероятность события A (теорема Я. Бернулли). На свойстве устойчивости частот основано компьютерное моделирование случайных Моделирование статистической ве- событий. Во всех системах программирования так или иначе реализован датчик случайных роятности чисел, который вырабатывает случайное число rand с равновозможными значениями в интервале (0, 1). В этих условиях вероятность события (rand < p) определяется как геометрическая вероятность и равна p. Следовательно, факт наступления случайного события с известной вероятностью p можно «разыграть» на компьютере, получив значение случайного числа rand: если оно меньше, чем p, событие считается наступившим. Обычно этот механизм используется для моделирования первичных событий в цепи причинно связанных событий, ведущих к наступлению интересующего результата (например, поражения цели): разыгрывают первичные события, по логическим формулам устанавливают факт наступления интересующего события и по результатам всех испытаний определяют его статистическую вероятность как отношение числа успешных розыгрышей к общему числу испытаний. В качестве примера статистических испытаний проведем анализ влияния числа испытаСходимость статистической вероят- ний на сходимость частоты к соответствующей вероятности. В системе MATLAB вызов ности функции rand с двумя аргументами n, m возвращает (n´m)-матрицу случайных чисел. Сформируем случайный (1´m)-вектор и проведем серию испытаний, моделируя событие с вероятностью 0,4. Построим график зависимости частоты события от числа повторений m = 10k, k = 1, 2, …, 6. На рис. 1.2 а показаны несколько таких графиков. Видно, что при числе повторений m = 104 и выше частота практически сходится к вероятности моделируемого события. Все графики получены повторением одной команды, в которой из случайного вектора с 1 Величина Xn сходится по вероятности к пределу a, если вероятность события (|Xn – a| < e) стремится к единице при сколь угодно малом e. Вероятностные основы системного анализа.1. Случайные события 4 10k элементами оператор find выделяет индексы элементов, меньших, чем 0,4. Отношение числа выделенных элементов к их общему числу и есть частота события: >> for k=1:6 R(k)=length(find(rand(1,10^k)<0.4))/10^k; end, hold on,plot(1:6,R) Результаты выполнения команды случайны, каждое повторение строит новый график. а б Рис. 1.2. Зависимость частоты событий от числа испытаний Оценка вероятности при небольшом числе испытаний Статистические испытания в количестве сотен тысяч можно реализовать на компьютере, в физических же экспериментах число испытаний находится в пределах первого интервала на рис 1.2 а, а если объект исследования дорогостоящий, решения приходится принимать по результатам нескольких испытаний. Чем меньше испытаний, тем больше доля неопределенности в частоте благоприятных исходов, что учитывается в формуле M +1 ~ p= , N +2 (1.6) в знаменателе которой к N проведенным испытаниям добавлены еще два возможных, а к числу M успешных – одно из двух. На рис. 1.2 б показаны результаты статистического моделирования события с вероятностью 0,4 при различных числах испытаний от 1 до 50. Пунктирная ломаная построена по формуле частот (1.5), сплошная – по оценкам (1.6) следующими командами: for k=1:50 m=length(find(rand(1,k)<0.4));R(k)=(m+1)/(k+2);P(k)=m/k;end >> plot(1:k,[R;P]), legend('(m+1)/(n+2)','m/n') Из графиков видно, что формула (1.6) дает меньший разброс частот в единичных опытах, чем формула (1.5). Основные теоремы теории вероятностей Алгебра событий Событие C, которое обязательно наступает, когда происходит событие A или B, называется суммой этих событий: C = A + B. Это значит, что множество элементарных событий, благоприятствующих C, получается объединением соответствующих множеств для A и B: C = A È B. Если для поражения цели (событие C) достаточно вывести из строя двигатель (A) или поразить боевой отсек (B), формула поражения имеет вид: C = A + B. Формула поражения цели, содержащей n жизненно важных агрегатов, представляет собой сумму n событий Ai (вывод из строя i -о агрегата), i = 1, …, n: A = å Ai . i =1 Событие C, для наступления которого необходимо, чтобы произошли события A и B, называется произведением этих событий: C = AB. Множество элементарных событий, благоприятствующих C, получается пересечением соответствующих множеств для A и B: C = A Ç B. Несовместные события A и B не имеют общих элементарных событий, их произведение – невозможное событие. Вероятностные основы системного анализа.1. Случайные события 5 Живучесть военной техники повышают резервированием агрегатов, вследствие чего формула поражения сложной цели, как правило, не сводится к простой сумме событий, а содержит уязвимые комбинации агрегатов, одновременный выход из строя которых приводит к поражению цели. Функциональная схема уязвимости (ФСУ) сложной цели может содержать уязвимые комбинации, например: A = A1 + A2 + (A3 + A4)(A5 + A6) + (A7 + A8)A9. (1.7) Наглядно ФСУ (1.7) можно представить, как на рис 1.3. Но наглядность не облегчает вычисления вероятности результирующего события. Вероятности суммы и произведения двух событий выражаются простыми формулами, но их применение к ФСУ, содержащим десятки и сотни простых событий, приводит к громоздким выражениям. Вероятность суммы событий Согласно аксиоме аддитивности вероятностной меры вероятность суммы несовместных событий равна сумме вероятностей слагаемых: n n i =1 i =1 P( å Ai ) = å P( Ai ) . (1.8) События А и A (не А) несовместны, к тому же, A дополняет А до достоверного события, значит, их суммарная вероятность равна единице Р(А+ A )=Р(А)+Р( A ) = 1, и, следовательно, Р( A ) = 1 – Р(А). (1.9) Сумма совместных событий А + В эквивалентна сумме несовместных событий А + В A , поэтому (1.10) Р(А + В) = Р(А + В A ) = Р(А) + Р (В A ). Из B = BA + В A вытекает Р(В) = Р(ВА) + Р(В A ), следовательно, Р(A + B) = Р(А) + Р(B) – Р(AB). (1.11) Формула (1.10) предпочтительнее тем, что ее легко обобщить на случай произвольного числа слагаемых событий: æ n ö (1.12) Pç å Ai ÷ = P( А1 ) + P( А2 А1 ) + P( А3 А1 А2 ) + L è i =1 ø Если слагаемые несовместны, событие А2 А1 эквивалентно А2, А3 А1 А2 эквивалентно А3 и т.д., так что формула (1.12) не противоречит (1.8). Условная вероятность и вероятность произведения событий Вероятность наступления события А в комплексе условий, при которых обязательно наступает событие В, называется условной вероятностью события A, обозначаемой Р(A/В). Если условная вероятность совпадает с безусловной, это значит, что события независимы. Р(В) = Р(В/A) Û Р(А) =Р(A/В) Û (А и В независимы). В комплексе условий W вероятность совместного наступления (произведения) меньше условной вероятности одного события во столько раз, во сколько вероятность другого события меньше единицы: Р(АВ) = Р(В)Р(А/В) или Р(АВ) = Р(А)Р(В/A). (1.13) Вероятность произведения независимых событий равна произведению их вероятностей: Р(АВ) = Р(А)Р(В). (1.14) Вероятностные основы системного анализа.1. Случайные события 6 Следующие утверждения относительно совместных, несовместных, зависимых и независимых событий вытекают из условий зависимости событий: несовместные события зависимы, так как 0 < Р(А) ¹ P(A/B) = 0; независимые события совместны: Р(АB) = P(A)P(B) > 0; эквивалентные события зависимы: 1 > Р(А) ¹ P(A/B) = 1. Если случайные события А1, …, Аn независимы попарно и в любых сочетаниях, вероятность их произведения равна произведению вероятностей: n æ n ö Pçç Õ Ai ÷÷ = Õ P( Ai ) . è i =1 ø i =1 (1.15) Независимость событий распространяется и на их дополнения, поэтому можно применять формулу (1.14) и к слагаемым в формуле (1.12). В случае, когда вероятности всех событий одинаковы P(Аi) = p, Р( Ai ) = 1 – p = q, "i, вероятность их суммы можно записать виде геометрической прогрессии: n P(å Ai ) = p + qp + q 2 p + L + q n -1 p . (1.16) i =1 Так как сумма событий и произведение дополнений к ним взаимно обратные ( a Ú b = a Ù b – теорема де Моргана), предпочтительнее формулы (1.12) может оказаться выражение вероятности суммы совместных событий через вероятность произведения дополнений: æ n ö æ n ö (1.17) Pç å Ai ÷ = 1 - Pçç Õ Аi ÷÷ . è i =1 ø è i =1 ø Это особенно удобно, если события А1, … Аn, а значит и их дополнения, независимы: n n æ n ö (1.18) Pç å Ai ÷ = 1 - Õ P( Аi ) = 1 - Õ (1 - P( Ai ) ). . i = 1 è ø i =1 i =1 Сравним вычисления по формулам (1.18) и (1.12): >> P=0.1:0.05:0.4; R=1-prod(1-P) R = 0.8747 >> Q=1-P; R=P(1); for i=2:length(P) R=R+prod(Q(1:i-1))*P(i); end,R R = 0.8747 Результаты одинаковы, но вычисление по формуле (1.18) проще. Тем не менее, аддитивная форма (1.16) может быть предпочтительнее в процедурах оптимизации по такому показателю. Представление целевой функции суммой упорядоченных по убыванию слагаемых способствует формулировке принципа максимума и применению эффективного метода оптимизации. Объектное моделирование независимых случайных событий Формула сложного события не сводится к чистой сумме или произведению событий, если функциональная схема состоит из последовательнопараллельных звеньев (рис. 1.3). Избежать явного составления выражений для вероятностей сложных событий можно, воспользовавшись объектным представлением событий и переопределив в классе этих объектов арифметические операции в соответствии с A3 A4 A7 A8 теоремами сложения и умножения A1 A2 A9 вероятностей. Тогда для вычисления A5 A6 вероятности события достаточно Рис. 1.3. Функциональная схема ввести в компьютер его формулу. Вероятностные основы системного анализа.1. Случайные события 7 В классе независимых случайных событий Randev (листинг 1.2) реализованы операции сложения и умножения вероятностей согласно формулам (1.11), (1.14). Чтобы получить вероятность сложного события, достаточно его определить. Определим события A, B, C с вероятностями P(A) = 0,3, P(B) = 0,4, P(C) = 0,4, а также сложные события D = A + BC и E = (A + B)C + D: >> [A,B,C]= Randev([0.3,0.4,0.5]), D=A+B*C, E=(A+B)*C+D P(A) = 0.3 P(B) = 0.4 P(C) = 0.5 P(D) = 0.44 P(E) = 0.6024 Правильность вычислений легко проверить. Определим массив из десяти событий с одинаковыми вероятностями 0,1 и вычислим вероятность суммы этих событий по электронной формуле, а также по формуле (1.18): >> X= Randev(ones(1,10)*0.1), U=sum(X), p=1-0.9^10 P(U) = 0.65132, p=0.6513 Объектное моделирование зависимых событий Реализации формул могут быть и сложными, лишь бы их применение оставалось простым. Установим для событий из предыдущего примера зависимость A и B от C условными вероятностями P(A/C) = 0,45, P(B/C) = 0,35 и определим те же сложные события: >>[A,B,C]= Randev([0.3,0.4,0.5]);A=Set(A,C,0.45), B=Set(B,C,0.35), D=A+B*C, E=(A+B)*C Событие A: P(A) = 0.3 (3/0.45) Событие B: P(B) = 0.4 (3/0.35) Событие D: P(D) = 0.396 Событие E: P(E) = 0.321 Большое количество простых событий удобно определить как массив событий с вероятностями, заданными соответствующим числовым массивом: >> a= Randev(0.1:0.05:0.5), S=sum(a(1:7)) Группа событий a: P(a(1:9)) = 0.1 0.15 0.2 0.25 0.3 0.35 0.4 0.45 0.5 P(S) = 0.875 Сложное событие, составленное из элементов массива событий, можно определить индексами этих элементов, например: >> A=Set(a,'1+2+(3+4)*(5+6)+(7+8)*9') Событие A: P(A) = 0.602 Событие, определенное символьным выражением, вычисляет свою вероятность при каждом обращении к нему. Если, например, изменить вероятности элементов массива событий, то изменится и вероятность события, определенного на этом массиве. Установим зависимость события a(5) от a(3) и посмотрим, как это повлияло на событие C: >> a(3)=Set(a(3),a(5),0.7);A Событие A: P(A) = 0.639 Основные теоремы теории вероятности Формула полной вероятности Чтобы определить вероятность события A, которое может наступить вместе с одним из полной группы несовместных событий H1, …, Hn – гипотез, достаточно знать вероятности гипотез P(Hi) и условные вероятности P(A/Hi), i =1, …, n. Так как H1+ …+Hn = W – достоверное событие, то для любого события A æ ö A = AW = Aç å H i ÷ = å ( AH i ) , è i ø i Вероятностные основы системного анализа.1. Случайные события 8 откуда при несовместных гипотезах следует формула полной вероятности Р( А) = å P( AHi ) = å P( Hi ) P( A / Hi ) . i (1.19) i В среде матричного решателя MATLAB вычисления по формуле полной вероятности удобно выполнять операцией скалярного произведения вектора-строки вероятностей гипотез на вектор-столбец условных вероятностей, или с помощью функции скалярного произведения dot, тогда структура векторов не имеет значения, достаточно, чтобы они имели одинаковую длину, например: >> P=Sampling(40,10,7,1:7); G=1-(1-0.3).^(1:7); W=dot(P,G) W = 0.4268 Формула Байеса Возможными исходами выстрела по цели может быть промах (гипотеза H0) или попадание в одну из n частей цели (гипотезы H1, …, Hn) с условными вероятностями поражения P(A/Hi). Если выстрел произведен и произошло событие A (цель поражена), каковы вероятности гипотез с учетом этого факта? Поставленный вопрос правомерен. Хотя случайное до опыта событие A стало фактом, оно могло наступить вместе с одной из гипотез H1, …, Hn. Но теперь возможность гипотез нельзя оценивать вероятностями P(Hi), известными до опыта. Так, гипотеза H0, вероятность которой ненулевая до опыта, не могла реализоваться, раз событие A произошло, что увеличило вероятности других гипотез. Вероятности P(Hi) называются априорными, так как они определяются комплексом условий, в котором производится опыт. После того, как опыт произведен и наблюдалось появление события A (или его отсутствие), первоначальная неопределенность условий опыта сужается. Условная вероятность P(Hi /A) называется апостериорной вероятностью i-й гипотезы в комплексе условий, благоприятных для события A. Формула Байеса для вычисления апостериорных вероятностей гипотез получается очень просто: из того, что P(Hi A) = P(Hi)P(A/Hi) = P(A)P(Hi /A), следует: P( Hi / A) = P( Hi ) P( A / Hi ) = P( A) P ( Hi ) P ( A / Hi ) . å P( Hi ) P( A / Hi ) (1.21) i Принятие ответственных решений на основе формулы Байеса Событие A (сигнал «обнаружена цель») в случае появления цели в охраняемой зоне (гипотеза H1) может наступить с вероятностью a < 1. Возможно и ложное срабатывание сигнализатора (гипотеза H0) из-за помех, внутренних сбоев с малой вероятностью b > 0. Если априорная вероятность P(H1) = p << b, система обнаружения угроз сама представляет реальную угрозу, потому что в этом случае сигнал о цели, скорее всего, ложный. Действительно, P( H 0 ) P( A / H 0 ) (1 - p ) b P( H 0 / A) = = , P( H 0 ) P( A / H 0 ) + P( H 1 ) P( A / H 1 ) (1 - p) b + pa а при 1 - p @ 1 и a @ 1 это выражение можно упростить: P(H0 /A) º P0 = b/(b + p), и теперь ясно, что при p << b ложная тревога обеспечена. Для допустимого уровня вероятности помех получим условие b < pP0 (учитывая естественное требование 1- P0 @ 1). Если a = 0,95, p = 0,01, и нужно обеспечить P(H0 /A) £ 0,001, проведенный анализ позволяет сделать вывод: вероятность ложного срабатывания должна быть не выше b = p×0,001 = 0,00001, что можно проверить непосредственной подстановкой в формулу Байеса: >> p=0.01;beta=0.00001;pH0=1/(1+p*0.95/((1-p)*beta)) pH0 = 0.0010 Вероятностные основы системного анализа.1. Случайные события 9 Итак, на основе формулы Байеса можно анализировать условия, при которых хоть и не исключается принятие неправильного решения, но обеспечивается приемлемый уровень риска. Байесовский подход к минимизации риска в многошаговой подготовке принятия решений В некоторых случаях риск принятия неправильного решения можно снизить ценой дополнительных затрат, в оптимизации которых используется формула Байеса. Например, чтобы установить перспективность нефтяного месторождения (основная гипотеза), необходимо бурить разведочные скважины. Одна успешная скважина не гарантирует успех, равно как и одна неудачная попытка его не исключает. Положительный результат повышает уровень апостериорной вероятности основной гипотезы, но если он недостаточен для принятия положительного решения, можно пробурить еще одну скважину, и еще раз уточнить вероятность гипотезы. Вопрос о том, сколько дорогостоящих попыток нужно сделать, чтобы минимизировать суммарный риск (затрат на разведку и потерь от разработки бедного месторождения) решают на основе байесовского подхода: последовательно снижают первоначальную неопределенность пересчетом апостериорной вероятности основной гипотезы после оценки очередного испытания. Вероятностные основы системного анализа.1. Случайные события 10 Программа верификации кода MATLAB clear all for k=1:6 R(k)=length(find(rand(1,10^k)<0.4))/10^k; end, hold on,plot(1:6,R) for k=1:50 m=length(find(rand(1,k)<0.4));R(k)=(m+1)/(k+2);P(k)=m/k;end plot(1:k,[R;P]), legend('(m+1)/(n+2)','m/n') clear all P=0.1:0.05:0.4; R=1-prod(1-P) Q=1-P; R=P(1); for i=2:length(P) R=R+prod(Q(1:i-1))*P(i); end,R clear all [A,B,C]= Randev([0.3,0.4,0.5]), D=A+B*C, E=(A+B)*C+D X= Randev(ones(1,10)*0.1), U=sum(X), p=1-0.9^10 [A,B,C]= Randev([0.3,0.4,0.5]);A=Set(A,C,0.45), B=Set(B,C,0.35), D=A+B*C, E=(A+B)*C clear all a= Randev(0.1:0.05:0.5), S=sum(a(1:7)) A=Set(a,'1+2+(3+4)*(5+6)+(7+8)*9') a(3)=Set(a(3),a(5),0.7);A clear all P=Sampling(40,10,7,1:7); G=1-(1-0.3).^(1:7); W=dot(P,G) p=0.01;beta=0.00001;pH0=1/(1+p*0.95/((1-p)*beta)) Вероятностные основы системного анализа.1. Случайные события 11 ПРИЛОЖЕНИЕ Листинг 1.1. Функция Sampling для вычисления вероятностей возможного состава случайной выборки % Вычисление вероятности того, что в случайной выборке % L из N ровно k (вектор) взяты из R помеченных (дефектных) function out = Sampling( N,R,L,k ) if nargin<4 k=[0:L]; end out=zeros(size(k)); for i = 1:length(k) if N>=R & L>=k(i) out(i)=CombiCount(R,k(i))*CombiCount(N-R,L-k(i))/CombiCount(N,L); end end % function out=CombiCount(n,m) out = 0; if n < m | m<0 return, end if m>n/2 m=n-m; end out = prod(n-m+1:n)/prod(1:m); end Листинг 1.2. Функция моделирования несовместных событий с заданными вероятностями P в статистических испытаниях объема N: % Вычисление индикаторов событий, заданных вероятностями P (вектор), % в N испытаниях function A=Events(P,N) R=cumsum(P); I=(repmat(R,N,1)-repmat(rand(N,1),1,length(P))) > 0; A=I-[zeros(N,1),I(:,1:end-1)]; Лекция 2 Определение вероятностей сложных событий От простых событий к сложному Вычисление вероятностей сложных событий сводится к применению формул сложения и умножения вероятностей, если вероятности всех составляющих простых событий известны. В объектно-ориентированной среде вероятность события, выраженного через суммы и произведения простых событий, вычисляется автоматически методами класса Randev. Вероятностная модель испытаний Бернулли В численном эксперименте частота моделируемого события практически перестает изменяться от серии к серии при пятизначном числе повторений в серии (см. рис. 1.2, а). Объем физических испытаний не может быть таким большим, но должен быть достаточным для получения требуемой точности оценки вероятности. Каким должно быть число испытаний n, чтобы частота m/n наступления события не отличалась от вероятности p больше, чем на e? Теорема Бернулли Вопрос правомерен, но некорректно сформулирован. Ни при каком n нельзя гарантировать выполнение неравенства |m/n – p| £ e, потому что это случайное событие (не исключено ни одно значение m от 0 до n). Можно лишь потребовать, чтобы оно выполнялось с большой вероятностью, превышающей некоторый (доверительный) уровень b (0,9, 0,95 или больше): æm ö Pçç - p £ e ÷÷ ³ b = 1 - a . (2.1) è n ø При неограниченном числе повторений независимых опытов (исход любого из них не зависит от результатов других опытов) неравенство (2.1) выполняется для сколь угодно малых e и a (теорема Я. Бернулли). Формула Бернулли Испытаниями Бернулли называют последовательность n независимых опытов с двумя возможными исходами в каждом (успех A, неудача A ) и одинаковой вероятностью успеха p в каждом повторении. Каждая последовательность из m успехов и n – m неудач представляет собой произведение m событий A и n – m событий A . В силу независимости вероятность их произведения равна произведению вероятностей pm(1 – p)n – m. Событие Am, n наступления ровно m успехов все равно, в какой очередности успехов и неудач, представляет собой сумму C nm несовместных событий с одинаковыми вероятностями pm(1 – p) n – m. Таким образом, вероятность ровно m успехов в n испытаниях Бернулли определяется биномиальной формулой: P(Am,n) º Pm,n = Сnm pm(1– p) n – m. Обобщенная формула Бернулли (2.2) Требование бинарности исходов (успех или неудача) необязательно. Если в каждом из n независимых испытаний может наступить одно из событий A1, …, Ak с вероятностями P(Ai) = pi, (Spi = 1), вероятность события Am1, … , mk, (m1 раз наступит A1, m2 раз – A2 и т.д., Smi = n), определяется по формуле: P( Am1 ,K, mk ) = n! p1m1 K p kmk . m1!L mk ! (2.3) Практическое нахождение достаточного числа повторений Для практических вычислений по формулам (2.2), (2,3) можно составить функцию, которую удобно использовать для разных схем независимых испытаний. Аргументы файлфункции p_Bern(P, n, M) (Листинг 2.1) позволяют организовать вычисления как по биномиальной, так и по обобщенной формуле. Первый аргумент задает вероятности p1, …, pk в обозначениях формулы (2.3), но достаточно задать только первые k –1 элементов этого вектора, последний будет вычислен как дополнение до 1. Так же задаются числа успехов m1, …, mk (или m1, …, mk –1) третьим аргументом. При необходимости последний элемент mk вычисляется как дополнение до числа испытаний, задаваемого вторым аргументом. Благодаря контролю аргументов вызов функции p_Bern(p, n, m) со скалярными аргументами возвращает Pm,n в обозначениях формулы (2.2). Такой же результат даст и функция p_Binom(p, n, m) (Листинг 2.2), специализирующаяся на вычислениях по формуле (2.2). Эта функция удобна тем, что она векторизована по третьему аргументу, которым можно определить вектор интересующих чисел успехов (например, не менее трех 3:n, не более трех 0:3 или всех возможных чисел успехов 0:n). Аргумент 0:n предполагается по умолчанию (его можно опустить). Функция возвращает вероятности каждого из чисел успехов, поэтому вероятность, например, не менее трех успехов можно получить, применяя операцию суммирования к результату p_Binom: sum(p_Binom(p, n, 3:n)). С помощью электронной формулы p_Binom можно найти необходимое число опытов по условию (2.1). Выбрав заведомо недостаточное значение n, установим диапазон допустимых значений числа успехов [m1, m2] при данном e так, что m1= n(p – e), m2= n(p + e) с округлением m1 до большего, а m2 до меньшего целого. Вычислим Pm, n для всех m из этого диапазона и, если сумма этих вероятностей меньше доверительной вероятности 0,9, увеличим n и повторим процедуру: >> p=0.75;eps=0.1; p1=p-eps;p2=p+eps; Pk=0.9; >> for n=9:90 m=ceil(n*p1):fix(n*p2); P=sum(Ber (p,n,m));if P>Pk break,end,end,n,P n = 40 P = 0.9023 Вероятность попадания частоты в допустимый интервал [0,65, 0,85] превышает доверительную 0,9023 > 0,9 при n = 40 повторениях опыта. Существует аппроксимация биномиальной формулы, позволяющая не только избежать многократных вычислений факториалов, но и в явном виде получить зависимость между точностью, доверительной вероятностью и необходимым объемом испытаний, которую можно использовать для качественной организации статистических испытаний. Локальная теорема Лапласа Если вероятность успеха в каждом опыте постоянна и отличается от 0 и 1 (0 < p < 1), то вероятность pm,n того, что успех наступит ровно m раз, приближенно (тем точнее, чем больше n) равна 1 p m,n » j( x) , (2.4) npq где q = 1– p, x2 m - np 1 -2 x= , j ( x) = e . (2.5) npq 2p Аппроксимация биномиального распределения непрерывной функцией позволяет получить интегральную формулу для определения суммарной вероятности возможных значений СВ в заданном интервале. Интегральная теорема Лапласа В предположениях локальной теоремы вероятность того, что в n испытаниях успех наступит не менее m1 и не более m2 раз приближенно равна: Pn (m1 ³ m ³ m2 ) » 1 2p x2 òe - x2 2 dx (2.6) x1 где, Вероятностные основы системного анализа. 2. Повторение опытов 2 m1 - np m - np , x2 = 2 . npq npq В справочниках имеются таблицы значений функции Лапласа x1 = x 1 - (2.7) x2 2 (2.8) ò e dt 2p 0 для неотрицательных аргументов. Функция Лапласа нечетна, поэтому определенный интеграл в формуле (2.6) можно выразить следующим образом F( x) = x2 1 2p Условие для необходимого числа испытаний òe - x2 2 dx = x1 1 òe 2p - x2 2 dx + x1 x2 1 2p òe - x2 2 dx = F ( x 2 ) - F ( x1 ) . Вероятность того, что число успехов в испытаниях Бернулли с параметрами p, n находится в интервале [m1, m2], можно вычислить как разность значений функции Лапласа с аргументами, определяемыми по формулам (2.7): x 2 ,1 = n( p ± e) - np npq = ±e n , pq æ n ö÷ P(m1 £ m £ m2 ) = F( x 2 ) - F ( x1 ) = 2F( x 2 ) = 2Fçç e ÷. pq è ø С помощью обратной функции F–1 свяжем условие P(m1 £ m £ m2 ) > b со значением аргумента монотонно возрастающей функции Лапласа e n æbö ³ F -1 ç ÷ , pq è 2ø (2.9) откуда получим искомое условие для объема испытаний: 2 pq æ æ b öö n ³ 2 çç F -1 ç ÷ ÷÷ . e è è 2 øø (2.10) Файл-функция f_Gauss (Листинг 2.2) вычисляет функцию (2.5) для всех элементов векВычисления функции Лапласа в сре- торного аргумента, поэтому ее удобно использовать в процедуре численного интегрирования де MATLAB Trap (Листинг 2.3), которая применяет метод трапеций к уже вычисленному вектору значений подынтегральной функции на расчетной сетке. Она использована в электронной формуле для функции Лапласа f_Laplas (Листинг 2.4). С помощью векторизованной версии f_LaplasV (Листинг 2.5) составим в качестве примера таблицу функций j(x) и F(x): >> x=0:0.1:0.9;X=[x' 1+x' 2+x'];f=f_Gauss(X);Fi=F_LaplasV(X); >> disp([X(:,1) f(:,1) Fi(:,1) X(:,2) f(:,2) Fi(:,2) X(:,3) f(:,3) Fi(:,3)]) Таблица 2.1. Значения функций j(x) и F(x). x f(x) F(x) x 0.0000 0.1000 0.2000 0.3000 0.4000 0.5000 0.6000 0.7000 0.8000 0.9000 0.3989 0.3970 0.3910 0.3814 0.3683 0.3521 0.3332 0.3123 0.2897 0.2661 0.0000 0.0398 0.0793 0.1179 0.1554 0.1915 0.2257 0.2580 0.2881 0.3159 1.0000 1.1000 1.2000 1.3000 1.4000 1.5000 1.6000 1.7000 1.8000 1.9000 f(x) F(x) 0.2420 0.2179 0.1942 0.1714 0.1497 0.1295 0.1109 0.0940 0.0790 0.0656 0.3413 0.3643 0.3849 0.4032 0.4192 0.4332 0.4452 0.4554 0.4641 0.4713 x 2.0000 2.1000 2.2000 2.3000 2.4000 2.5000 2.6000 2.7000 2.8000 2.9000 f(x) F(x) 0.0540 0.0440 0.0355 0.0283 0.0224 0.0175 0.0136 0.0104 0.0079 0.0060 0.4772 0.4821 0.4861 0.4893 0.4918 0.4938 0.4953 0.4965 0.4974 0.4981 Вероятностные основы системного анализа. 2. Повторение опытов 3 Решение обратной задачи Вычисление обратной функции Ф– 1(x) с помощью электронной формулы ArgLaplas (Листинг 2.6) позволит решить неравенство (2.10) и подобные обратные задачи без обращения к таблице. Например, значение Ф– 1(0.9/2) согласно таблице 2.1 находится между 1,6 и 1,7. С помощью функции ArgLaplas его можно вычислить точнее: >> x=ArgLaplas(0.9/2) x = 1.6450 При тех же исходных данных p = 0,75, P = 0,9, e = 0,1, которые использовались для прямых вычислений по электронной формуле p_Binom, получим: >> n=3/4*1/4*(ArgLaplas(0.9/2)/0.1)^2;n=round(n),m12=round(n*[0.65 0.85]) n = 51 m1= 33 m2 = 43 По сравнению с n = 40, полученным ранее, необходимый объем испытаний по нормальному приближению существенно больше. Но и вероятность события m Î [33, 43] существенно больше требуемой: >> P=sum(p_Binom(p,51,33:43)) P = 0.9259 Использование нормального приближения для аппроксимации биномиальной формулы привело к завышению левой части неравенства (2.1) и, соответственно, объема испытаний из-за того, что аппроксимация не учитывает дискретность аргументов m1, m2. Если увеличить доверительную вероятность на 0,92 в точном вычислении, получится практически тот же результат, что и с использованием нормального приближения: >> K=0.92;for n=10:100 a=ceil(n*p1):fix(n*p2);P=sum(Ber(p,n,a));if P>K break,end,end,n,P n = 52 P = 0.9239 То, что в неравенстве (2.10) явно связаны все параметры задачи, имеет свои преимущества. Например, когда вероятность успеха неизвестна и исследования ведутся с целью выяснения ее зависимости от условий опыта, подстановка в (2.10) вместо pq его максимально возможного значения 1/4 увеличивает необходимое число испытаний, как «плату» за отсутствие априорной информации: >> n=1/2*1/2*(ArgLaplas(0.9/2)/0.1)^2 n = 67.6498 Это не очень ценный результат. На практике нужно по результатам проведенных опытов определять доверительный интервал для вероятностей наступления события во всем диапазоне условий (кривая чувствительности, кривая вероятности пробития и т.п.) Однако по условию локальной теоремы Лапласа нормальное приближение неприменимо, если вероятность успеха очень мала или близка к единице, а значит его нельзя использовать при определении нижней и верхней границ кривой чувствительности. Формула Пуассона В неограниченном числе независимых испытаний, если n ® ¥ и p ® 0 так, что np ® l = const, вероятность того, что успех наступит ровно m раз, определяется формулой Пуассона: lm -l pm = e , m = 0, 1, … . (2.10) m! С помощью электронной формулы p_Poisson (Листинг 2.6), векторизованной по второму аргументу (возможным значениям), вычислим вероятность того, что в n = 100 испытаниях устройства, вероятность безотказной работы которого p = 0,99, произойдет не более трех отказов, вычислим как сумму pm, m = 0, 1, 2, 3: >> R4=sum(p_Poisson(1,0:3)) R4 = 0.9810 Сравним этот результат с точным, вычислением по биномиальной формуле: Вероятностные основы системного анализа. 2. Повторение опытов 4 >> R_4=sum(p_Binom(0.01,100,0:3)) R_4 = 0.9816 При том же значении np = 1, но при малом числе повторений разница увеличится: >> n=10;p=0.1;R4=sum(p_Poisson(p*n,0:3)),R_4=sum(p_Binom(p,n,0:3)) R4 = 0.9810 R_4 = 0.9872 Оценка вероятности по частоте успехов в испытаниях Бернулли В испытаниях Бернулли с неизвестной вероятностью успеха p по частоте p* = m/n интересующего события можно лишь утверждать, что разность |p* – p| не превосходит e с доверительной вероятностью b: P(|p* – p| < e) > b. Так, если в 10 испытаниях успех наблюдался 4 раза, это не исключает того, что p = 0,4. Можно исключить лишь p > p2 и p < p1 при p1, p2 таких, что 4 успеха в n испытаниях становится маловероятным событием. Определение вероятности события по его частости Если частота не слишком мала и не близка к единице, для нахождения p1, p2 можно воспользоваться нормальным приближением вероятности попадания частоты в симметричный интервал относительно параметра p. Решим неравенство (2.9) относительно e º |p* – p|: pq -1 æ b ö |p* – p| < F ç ÷. n è2ø -1 Обозначив tb = F (b / 2 ) , представим неравенство t b2 2 p - p * < p (1 - p ) n в виде Ap2 – 2Bp + C < 0, и получим границы доверительного интервала: ( ) p1, 2 = где A = 1 + t b2 , * B=p + t b2 , B ± B 2 - AC , A C= p*2. n 2n Обычно для удобства практических применений строят кривые (эллипсы) зависимостей p1(p* ) и p2(p* ) для всего диапазона 0 < p* <1 при различных n с фиксированным b = 0,9 или b = 0,95. Семейство кривых на рис. 2.3 построено при b = 0,9 и нескольких n, для чего вторая командная строка выполнена 6 раз с заменой n = 5 на 10, 20, 50, 100 и 500: >> P=0.9;T=ArgLaplas(P/2)^2;x=0.01:0.01:0.99; C=x.^2; hold on >> n=5; A=1+T/n;B=x+T/n/2;D=sqrt(B.^2-A*C);p2=(B+D)/A;p1=(B-D)/A;plot(x,[p2;p1]) Если в 50 опытах успех наблюдался 20 раз, частоте 0,4 соответствует доверительный интервал [0,29, 0,52], показанный на рисунке. Выполним последнюю команду при x=0.4, чтобы вычислить этот же результат точнее: >>n=50;x=0.4;C=x^2;t=T/n;A=1+t;B=x+t/2;D=sqrt(B.^2-A*C);p2=(B+D)/A,p1=(B-D)/A p2 = 0.5163 p1 = 0.2940 Вероятностные основы системного анализа. 2. Повторение опытов 5 Рис. 2.3. Кривые для определения доверительных вероятностей по частоте событий Оценка вероятности по частоте маловероятных событий Кривые доверительных вероятностей на графике не доходят до нулевой и стопроцентной частости, потому что построены с помощью нормального приближения, неприменимого в этих зонах. На осях p* = 0 и p* = 1 кружками соответствующих цветов отмечены точки, к которым должны прийти точно построенные кривые. При p* = 0 эти точки означают верхние границы доверительного интервала для вероятностей ненаступления события (несрабатывания), если оно ни разу не наблюдалось в серии испытаний соответствующего объема (5, 10 и т.д.), а при p* = 1 – надежность срабатывания. Если в n повторениях не наблюдалось ни одного отказа, нижняя граница доверительного интервала p1 = 0, а верхнюю границу p2 можно определить как наибольшую вероятность отказа, при которой полученный исход испытаний практически возможен, то есть имеет вероятность не меньше, чем a = 1 – b: p 0,n = (1 - p 2 ) n > a . Из этого неравенства можно получить оценку надежности (отсутствия отказов) 1 – p2 = n a и необходимое число испытаний n = ln(a)/ln(1 – p2) для подтверждения данного уровня надежности с доверительной вероятностью b. Нижняя граница вероятности срабатывания после n успешных испытаний зависит от принятого уровня надежности следующим образом: n p n ,n = p1 > a . Указанные границы вычислены при a = 1 – b = 1 – 0,9 = 0,1 и нанесены на график следующей командой: >> N=[5 10 20 50 100 500]; plot(0, 1-(0.1).^(1./N),'.', 1, (0.1).^(1./N),'o') При достаточно большом числе испытаний и малом числе успехов (или неудач) для определения границ доверительной вероятности можно воспользоваться пуассоновским приближением, в чем легко убедиться, заменив в Вероятностные основы системного анализа. 2. Повторение опытов 6 предыдущей команде p0,n и pn,n на p0 и 1 – p0, выраженные по формуле Пуассона с параметрами, соответственно, np2 и np1. С помощью электронных формул можно разработать универсальный способ получения надежных оценок вероятности по частоте на всем интервале частостей, включая и ответственные участки в областях редких или почти достоверных успехов, где, как видно из рис. 2.3, приближенные формулы дают большие погрешности (кривые не ведут в центры кружков). Универсальный метод оценки вероятности по частоте Определим нижнюю границу доверительного интервала p1 как наименьшую вероятность успеха, при которой полученное в опыте число успехов еще возможно, то есть, превышает уровень a = 1 – b, а верхнюю границу p2 как наибольшую вероятность по такому же условию. К невероятным исходам опыта следует отнести наблюденное число успехов m или большее при определении нижней границы p1, и, аналогично, m или меньшее при определении верхней границы p2. Соответствующие суммы вероятностей pk для kÎ [0, m] и kÎ [m, n] нужно вычислить с помощью электронной формулы p_Binom, чтобы избежать ошибок аппроксимации. Именно так работает электронная формула p_minmax (Листинг 2.9) с теми же аргументами, что и I_Binom. Она дает более точные границы интервалов без завышения доверительной вероятности, причина которой объяснялась выше. Сравним ее результат с приведенным ранее примером (20 успехов в 50 опытах при доверительной вероятности 0,9): >> p12= p_minmax(20,50,0.9) p12 = 0.3058 0.5005 Этой формулой можно пользоваться и в предельных случаях: >> p12= p_minmax(0,10,0.9), p34= p_minmax(10,10,0.9) p12 = 0 0.2057 p34 = 0.7943 1.0000 Рис. 2.3. Кривые для определения доверительных вероятностей по частоте событий Вероятностные основы системного анализа. 2. Повторение опытов 7 Более качественное, чем на рис. 2.3 семейство кривых (рис. 2.4) построено при n oт 5 до 500 командами: >> p1=[];p2=[];I=[0:n];for i=I p12=p_minmax(i,n,P); p1(i+1)=p12(1);p2(i+1)=p12(2);end; >> hold on,plot(I/n,[p2;p1],'r') С помощью электронной формулы p_minmax легко построить кривую вероятностей. Построение кривой чувствительности Сначала генерируем статистику по известному закону: >> n=15;x=1:n;p=1./(1+exp(-x+6)).^2;N=100;S=[];Y=[];for i=1:n S(i)=Gen('bin',N,p(i));end По массиву частот срабатывания S вычислим нижние и верхние границы доверительного интервала для вероятностей срабатывания в каждой из n точек, в которых получены частоты: 1 P 0.5 >> for i=1:n Y(i,:)= p_minmax(S(i),N,0.99);end Кривую чувствительности F(x) получим как среднюю линию доверительного интервала: >> F=mean(Y,2);plot(x,Y(:,1),x,Y(:,2),x,F,x,S/N,'k.') 2 4 6 8 12 x 10 Рис. 2.4. Кривая чувствительности и доверительный интервал На рис. 2.4 показаны графики границ доверительного интервала, кривой чувствительности и статистических точек. Графики довольно точно воспроизводят исходную кривую чувствительности благодаря очень большому объему статистики (15×500 точек). В физическом эксперименте объем получаемой статистики приходится ограничивать, что затрудняет выявление закономерностей. По результатам эксперимента малого объема при N=20 испытаний в каждой из 10-и тоПостроение кривой чувствительности чек построим доверительные интервалы в каждой точке (рис. 2.5): при ограниченном >> N=20;S=[];for i=1:n Y(i,:)= p_minmax(Gen('bin',N,p(i)),N,0.99);end объеме статистики >> F=mean(Y,2);plot(x,Y(:,1),x,Y(:,2),x, F) Кривая чувствительности должна плавно возрастать при увеличения аргумента, изломы объясняются случайными погрешностями из-за малого объема статистики. Электронная формула Approx (Приложение 2б Листинг 2.10) строит сглаживающую кривую по дискретным точкам, осуществляя параметрическую оптимизацию заданной зависимости по критерию минимума суммарной квадратичной погрешности: 1 P 0.5 2 4 6 8 10 12 x Рис. 2.5. Улучшенная кривая чувствительности при малом объеме статистики >> [Fun,Par]=Approx('1./(1+exp(-x+L)).^2',x,F' ,1) Fun(x,L) = 1./(1 +exp(-x+L)).^2 Par = 6.1404 Формула получает вид зависимости, массивы значений аргумента и аппроксимируемой функции, а также исходные значения для ее параметров. Она составляет целевую функцию оптимизации параметров для программы fminsearch и возвращает инлайн-функцию с оптимальными параметрами Par. Вычислим с помощью этой функции и выведем на рис. 2.5 (черным цветом) улучшенный график кривой чувствительности: >> X=2:0.1:12; Y=Fun(X,Par);hold on, plot(X,Y, 'k') Для сравнения выведена также кривая, полученная ранее из статистики большого объема (пунктиром). Они практически совпали, хотя улучшенная кривая получена по статистике в 25 раз меньшего объема. Повторение опытов в меняющихся условиях Вероятность m успехов в n независимых испытаниях, проводимых в изменяющихся условиях с вероятностью успеха pi в i-м испытании, можно вычислить как коэффициент при zm в разложении производящей функции j n ( z ) = ( p1 z + q1 )( p 2 z + q 2 )...( p n z + q n ) (2.11) по степеням z: Вероятностные основы системного анализа. 2. Повторение опытов 8 jn(z) = pn, nzn + pn – 1, nzn –1 +…+ p0, n. Универсальная электронная формула для независимых испытаний (2.12) Используя символьную операцию упрощения выражений expand для раскрытия скобок, можно создать процедуру вычисления коэффициентов в разложении (2.12), и заменить ею обращение к функции p_Binom. Функция RptTrial может получить как одинаковую для всех повторений вероятность успеха, и тогда она вызывает p_Binom с двумя аргументами, так и вектор вероятностей успеха в каждом повторении, тогда второй аргумент не нужен. В этой программе вычисление вероятностей pm, n готовит оператор X=strcat('[',strrep(char(expand(prod(P*Z+1-P))),'+',' '),']'); Он сначала составляет производящую функцию (2.11) от символьной переменной Z операцией умножения prod, преобразует ее в полином (2.12) функцией expand, затем превращает символьное выражение в строку символов алфавита (char), заменяет в ней символы ‘+’ на пробелы (strrep) и помещает в скобки как массив. Присваиванием символьной переменной X эта строка снова превращается в символьное выражение. Подстановка Z =1 в X дает массив вероятностей pn, n, pn – 1, n, …, p0, n, который перестраивается в обратном порядке для совместимости со структурой результатов Ber. Функцию Ber можно использовать с векторным или скалярными аргументами в виде Ber([p1, …, pn]) или RptTrial(p, n) как электронную формулу в любом контексте, где требуются вероятности pm, n, m = 0, …, n. Пусть вероятность попадания в очереди уменьшается от 0,8 до 0,35, а закон поражения Пример применеm ния универсальной тот же, что и раньше G(m) = 1 – 0,75 : электронной фор>> p=0.8:-0.05:0.35, n=length(p); G=1-0.75.^(0:n); мулы RptTrial p = 0.80 0.75 0.70 0.65 0.60 0.55 0.50 0.45 0.40 0.35 Вычислим вероятности гипотез pm,n при переменных pi, а также для трех постоянных значений pi = p1 = 0,8, pi = pn = 0,35, pi = pcp= Spi / n = 0,575, построим для наглядности графики pm,n(m) и сравним все варианты вычисления гипотез по основному результату – полной вероятности: >> P= Ber(p); P1= Ber(p(1),n); Pn= Ber(p(n),n); Pm=Ber(mean(p),n); >> t=0:n; plot(t,P,t,P1,t,Pn,t,Pm), W=P*G', W1=P1*G', Wn=Pn*G', Wm=Pm*G' W = 0.7900 W1 = 0.8926 Wn = 0.5998 Wm = 0.7882 p Wn 1 0.9 0.8 0.3 0.6 0.2 0.4 0,8..0,35 0,8 0,35 0,575 0.1 2 4 0,8..0,35 0,8 0.2 6 8 x 10 Рис. 2.2. Вероятности возможного числа попаданий 1 2 4 6 8 n 10 Рис. 2.3. Снижение вероятности поражения очередью с уменьшением вероятности попадания Ординарные потоки и поля событий Ординарные потоки событий В последовательности испытаний Бернулли время несущественно, даже изменение вероятности успеха рассматривается не во времени, а по номеру испытания. Существует большой класс случайных явлений, в которых вероятность наступления того или иного события (сбой аппаратуры, поступление сигнала о цели) зависит, по крайней мере, от длительности интервала ожида- Вероятностные основы системного анализа. 2. Повторение опытов 9 ния события. Комплекс условий, определяющий случайные моменты времени наступления некоторого события, называется потоком событий. В стационарном потоке вероятность наступления события в данном интервале времени не зависит от момента начала интервала, а зависит только от его длительности. Это свойство упрощает анализ потока так же, как и неизменность условий в испытаниях Бернулли. Принципиальное значение, как и в испытаниях Бернулли, имеет независимость наступления событий. Так как на временной оси имеет смысл только независимость от прошлого, это свойство называют отсутствием последействия. Еще одно фундаментальное свойство – ординарность – выделяет большой класс редких событий в том смысле, что два и более событий не могут наступить практически одновременно. Иначе говоря, в бесконечно малом промежутке времени вероятность наступления двух и более событий бесконечно мала по сравнению с вероятностью наступления одного события. Стационарный без последействия ординарный поток событий называется простейшим пуассоновским потоком. Вероятность событий в простейшем пуассоновский потоке В достаточно большом промежутке времени T число событий m статистически устойчиво, отношение l = m / T – среднее число событий в единицу времени – называется плотностью потока. В интервале t Ì [0, T] число событий случайно с возможными значениями 0, 1, 2 и т.д. В стационарном потоке среднее число событий в любом интервале длительностью t составит a = lt. Разделим весь период на элементарные интервалы Dt, достаточно малые, чтобы по условию ординарности в каждом из них могло бы наступить лишь одно событие. «Успешных» интервалов, в которых событие произошло, ровно m при общем их количестве N = T / Dt, вероятность выбрать случайно из всех интервалов «успешный» p1 = m / N = lDt. Вероятность того, что в течение периода t наступит k событий, можно определить как число успехов в испытаниях Бернулли объемом n = t / Dt и вероятностью успеха p1: pk = C nk p1k (1 - p1 ) n - k . При Dt ® 0 выполняются условия теоремы Пуассона: n ® ¥, p1 ® 0, np1 = lt = a. Следовательно, вероятность наступления k событий в интервале стационарного потока определяется по формуле Пуассона с параметром, равным произведению плотности потока на длительность интервала: a k -a pk = e , k = 0, 1, 2, … (2.13) k! Пуассоновский поток событий В нестационарном потоке среднее число событий в интервале [t0, t0 + t] можно получить интегрированием переменной плотности по интервалу: a= t0 + t ò l(t)dt , (2.14) t0 после чего вероятность наступления k событий в интервале вычисляется по формуле (2.13). Нестационарные без последействия ординарные потоки событий называются пуассоновскими. Простейшее пуассоновское поле событий Полем событий называется область пространства, в каждой части которой может произойти случайное число событий (попаданий осколков в агрегат цели, наблюдаемых звезд на участке неба). Стохастически равномерное поле событий называется однородным. Среднее число событий в любой часВероятностные основы системного анализа. 2. Повторение опытов 10 ти однородного поля не зависит от формы выделенной части и расположения ее в поле, а пропорциональна мере этой части (объему, площади, длине). В ординарном поле вероятность наступления в бесконечно малой части поля двух и более событий пренебрежимо мала по сравнению с вероятностью наступления одного или ни одного события (бомбы в одно место дважды не попадают). Поле называют независимым, если на вероятность наступления в какой-то его части того или иного числа событий не влияет число событий в других частях поля. Однородное, независимое, ординарное поле событий называется простейшим пуассоновским полем. В любой части такого поля единичной меры происходит в среднем одинаковое число событий l (плотность поля), а в произвольной области поля D среднее число событий в mes(D) раз больше: a = l mes(D). Условия независимости и ординарности позволяют утверждать, что вероятность наступления k событий в области D однородного поля с плотностью l подчиняется закону Пуассона с параметром a = l mes(D). Статистически равномерное распределение 500 точек с независимыми случайными коИллюстрация статистически равно- ординатами в квадрате 10´10 (рис. 2.4 а) формирует команда: мерного распреде>> x=rand(1,500)*10;y=rand(1,500)*10;plot(x,y,'.'),grid on ления Хотя никаких предпочтений при распределении точек нет, и на одну из 100 ячеек единичной площади приходится в среднем l = 500/10 2 = 5 точек, случайное количество точек в ячейках может сильно отличаться от среднего. Подсчитаем число точек в каждой ячейке, чтобы установить частоту событий Ak (k точек в ячейке), k = 0, 1, 2, …: >> N=[];I=0:1:10;n=length(I)-1; >> for i=1:n for j=1:n N(i,j)=sum(I(i)> for j=0:12 A(j+1)=sum(sum(N==j)); end, A A = 1 5 8 11 19 18 13 12 6 4 1 1 0 Результат в массиве A показывает, что одна ячейка пустая, пять ячеек содержат по одной точке, 8 ячеек – по две и т.д. Значения элементов массива A случайны, их отношение к общему числу ячеек – это частота p k* событий Ak. Графики частот p k* (k) и вероятностей тех же событий pk(k), вычисленных по формуле Пуассона (рис. 2.4, б), построим командой: >> plot(t,p_Poisson(5,t),t,A(t+1)/n^2) а б в Рис. 2.4. Однородное (а) и неоднородное (б) пуассоновские поля Близость эмпирических частот и вероятностей подтверждает применимость формулы Пуассона для вычисления вероятности событий Ak. Убедимся в ординарности поля, разделив его на еще более мелкие части: >> N=[];I=0:0.1:10;n=length(I)-1; >> for i=1:n for j=1:n N(i,j)=sum(I(i)> for j=0:12 A(j+1)=sum(sum(N==j)); end, A A = 9511 478 11 0 0 0 0 0 0 0 0 0 0 Вероятностные основы системного анализа. 2. Повторение опытов 11 Из 10000 ячеек (не бесконечно малых) только в 11 попало две точки, остальные – либо пусты, либо содержат по одной точке. В пуассоновском поле (не простейшем) выполняются условия независимости и ордиПуассоновское понарности, но плотность не одинакова в различных частях поля. Те же 500 точек, что и в преле событий дыдущем примере, распределены на рис. 2.4 в с плотностью l(x, y) = x. Это поле сформировано командой, которая обеспечивает равномерное распределение в интервале [0, 1] ординат параболы на отрезке [0, 10] (теоретическое обоснование этой процедуры будет дано в Лекции 9): >> x=sqrt(rand(1,500))*10;y=rand(1,500)*10;plot(x,y,'*'),grid on Среднее число точек поля в вертикальных полосах единичной ширины должно быть примерно равным абсциссе середины полосы (0,5, 1,5 и т.д.): >> N=[];I=0:1:10;n=length(I)-1; for i=1:n N(i)=sum(I(i)Pk break,end,end,n,P x=0:0.1:0.9;X=[x' 1+x' 2+x'];f=f_Gauss(X);Fi=F_LaplasV(X); disp([X(:,1) f(:,1) Fi(:,1) X(:,2) f(:,2) Fi(:,2) X(:,3) f(:,3) Fi(:,3)]) x=ArgLaplas(0.9/2) n=3/4*1/4*(ArgLaplas(0.9/2)/0.1)^2;n=round(n),m12=round(n*[0.65 0.85]) P=sum(Ber(p,51,33:43)) K=0.92;for n=10:100 a=ceil(n*p1):fix(n*p2);P=sum(Ber(p,n,a));if P>K break,end,end,n,P n=1/2*1/2*(ArgLaplas(0.9/2)/0.1)^2 R4=sum(p_Poisson(1,0:3)) clear all R_4=sum(p_Binom(0.01,100,0:3)) n=10;p=0.1;R4=sum(p_Poisson(p*n,0:3)),R_4=sum(p_Binom(p,n,0:3)) clear all P=0.9;T=ArgLaplas(P/2)^2;x=0.01:0.01:0.99; C=x.^2; hold on n=5; A=1+T/n;B=x+T/n/2;D=sqrt(B.^2-A*C);p2=(B+D)/A;p1=(B-D)/A;plot(x,[p2;p1]) n=50;x=0.4;C=x^2;t=T/n;A=1+t;B=x+t/2;D=sqrt(B.^2-A*C);p2=(B+D)/A,p1=(B-D)/A N=[5 10 20 50 100 500]; plot(0, 1-(0.1).^(1./N),'.', 1, (0.1).^(1./N),'o') p12= p_minmax(20,50,0.9) p12= p_minmax(0,10,0.9), p34= p_minmax(10,10,0.9) p1=[];p2=[];I=[0:n];for i=I p12=p_minmax(i,n,P); p1(i+1)=p12(1);p2(i+1)=p12(2);end; hold on,plot(I/n,[p2;p1],'r') clear all, clear figure n=15;x=1:n;p=1./(1+exp(-x+6)).^2;N=100;S=[];Y=[];for i=1:n S(i)=Gen('bin',N,p(i));end for i=1:n Y(i,:)= p_minmax(S(i),N,0.99);end F=mean(Y,2);plot(x,Y(:,1),x,Y(:,2),x,F,x,S/N,'k.') clear figure N=20;S=[];for i=1:n Y(i,:)= p_minmax(Gen('bin',N,p(i)),N,0.99);end F=mean(Y,2);plot(x,Y(:,1),x,Y(:,2),x, F) [Fun,Par]=Approx('1./(1+exp(-x+L)).^2',x,F' ,1) X=2:0.1:12; Y=Fun(X,Par);hold on, plot(X,Y, 'k') clear all p=0.8:-0.05:0.35, n=length(p); G=1-0.75.^(0:n); P= Ber(p); P1= Ber(p(1),n); Pn= Ber(p(n),n); Pm=Ber(mean(p),n); t=0:n; plot(t,P,t,P1,t,Pn,t,Pm), W=P*G', W1=P1*G', Wn=Pn*G', Wm=Pm*G' clear all x=rand(1,50)*10;y=rand(1,50)*10;plot(x,y,'.'),grid on N=[];I=0:1:10;n=length(I)-1; for i=1:n for j=1:n N(i,j)=sum(I(i)> n=40; p=0.1; B=Ber(p,n); P=p_Poisson(n*p,n); >> x=0:0.1:n; s=sqrt(n*p*(1-p)); G=f_Gauss((x-n*p)/s)/s; >> plot(0:n, P, 0:n, B, x, G) Сравнение отклонений графиков нормального и пуассоновского приближений от результатов расчета по биномиальной формуле на рис. 2.1 показывает, в какой степени погрешности нормального приближения растут с приближением p к границам интервала [0, 1], а пуассоновского – при увеличении произведения np (положения максимума биномиального распределения) от 2 до 8. В варианте p = 0,05 и np = 2 точнее пуассоновское приближение, а p = 0,2 и np = 8 – нормальное. Это нужно учитывать, выбирая корректное приближение биномиальной формулы для решения практических задач. Рис. 2.1. Погрешности аппроксимации биномиальной формулы Вероятностные основы системного анализа. 2. Повторение опытов 14 Лекция 3 Случайные величины Случайные величины как факторы случайности событий Среди факторов случайности события есть величины, значение которых случайно: промах, угол подхода к цели. Все величины, с которыми оперируют в инженерных расчетах, и даже те, что считаются вполне определенными, в реальности под влиянием большого числа неконтролируемых факторов непредсказуемым образом отличаются от своих номинальных значений. Хотя инженерные расчеты выполняют по номинальным значениям, решение по результатам расчетов принимают с запасом, учитывая, что реальные величины (размеры, нагрузки и т.п.) могут иметь случайные отклонения от расчетных. Определение случайной величины Случайность величин имеет ту же природу, что и случайность событий. Они различаются лишь математической природой: случайная величина – это действительная функция на множестве случайных событий. Данное определение конструктивно, оно перекидывает мостик между случайными событиями и случайными величинами (СВ). Покажем это сначала на примере дискретных СВ. Дискретные случайные величины Дискретные СВ порождаются конечным или счетным множеством случайных событий: X:{A1, A2,…, An}®R1. Эту функциональную связь следует понимать так, что случайная величина X принимает одно из своих возможных значений xi = X(Ai), если наступает случайное событие Ai, и это определяет вероятность pi = P(X = xi) = P(Ai). СВ обозначаются в тексте большими латинскими буквами, а их возможные значения – малыми. Свойства дискретных распределений Так как областью определения СВ является полная группа событий, сумма вероятностей всех возможных значений равна единице: æ ö åi pi = åi P( Ai ) = Pçè åi Ai ÷ø = P(W) = 1 . Это обязательное свойство имеют в виду, когда говорят не просто о вероятностях возможных значений, а о распределении случайной величины, то есть о распределении единицы между вероятностями всех ее возможных значений. Таблица, содержащая в одной строке все возможные значения дискретной СВ, строго упорядоченные по возТаблица 3.1. Ряд распределения растанию, а в другой – вероятности приняxi x1 x2 … xk … тия случайной величиной этих возможных pi p1 p2 … pk … значений, называется рядом распределения. Индикатор случайного события Событие А вместе с дополнением A составляют полную группу, на которой можно определить функцию X:{ A , A}® {0, 1}. Она называется характеристической СВ для события А, или индикатором события А: ì1, если наступает А, X =í î0, если наступает A. 1 Очевидно, что Р(Х =1) = Р(А), Р(Х = 0) = Р( A ) = 1 – Р(А). Среднее значение характеристической СВ для события А (взвешенное по вероятностям) равно вероятности этого события å xi pi = 0 × P( X = 0) + 1 × P( X = 1) = P( A) . i Характеристические СВ позволяют использовать для анализа случайных событий более мощный аппарат случайных величин. Описание распределений дискретных СВ Правило, позволяющее находить вероятности любых событий, связанных с данной СВ, называется законом распределения. Ряд распределения дискретной СВ позволяет найти вероятность любого события, наступлению которого благоприятствуют определенные значения СВ X: A = (X = xi), i Î I. Так как события (X = xi) несовместны, нужно просто сложить вероятности этих возможных значений: P(A) = å pi . iÎI Поскольку события (X = xi) составляют полную группу, их можно рассматривать как гипотезы для события A, вероятность которого зависит от xi. Формулу полной вероятности можно выразить через ряд распределения и условные вероятности P(A|X = xi) º P(A|xi): P(A) = å P ( A | xi ) pi . (3.1) i Биномиальное распределение Три независимых выстрела по мишени порождают полную группу события А0, А1, А2, А3 (событие Аk – произошло ровно k попаданий). СВ Х:{A0, А1, А2, А3} ® R1 – число попаданий за стрельбу, ее возможные значения xk = X(Ak) = k, вероятности возможных значений Таблица 3.1. Ряд распределения pk = P(X = k) = P(Аk) = С3k pk(1– p)3 – k, k = 0, 1, 1 2 3 xi 2, 3. Графическое изображение ряда распреpi 0.216 0.432 0.288 0.064 деления точками (xi, pi), соединенными для наглядности отрезками прямых, называется многоугольником распределения. Ряд распределения в таблице 3.1 вычислен с помощью функции Ber, этой же командой построен многоугольник распределения (рис. 3.1): >> p= Ber(0.4,3),plot(0:3,p) p = 0.2160 0.4320 0.2880 0.0640 Рис. 3.1. Многоугольник биномиального распределения Распределение числа успехов в испытаниях Бернулли называется биномиальным законом распределения: P(X = k) = pk = C nk pk(1–p)n – k, k = 0, 1, … (3.2) Условия, которым должно удовлетворять распределение, выполнены: pk > 0, ¥ åC k n pk(1–p)n – k = (p + 1 – p)n = 1. k =0 Распределение Пуассона Случайная величина X подчиняется закону Пуассона с параметром l, если она принимает возможные значения из бесконечного ряда неотрицательных целых чисел с вероятностями, задаваемыми формулой Пуассона: lk - l e , k = 0, 1, 2, … P(X = k) = pk = (3.3) k! Легко проверить, что сумма членов бесконечного ряда pk сходится к 1: Вероятностные основы системного анализа. 3. Случайные величины 2 p 0.4 ¥ lk - l lk -l e e = × = e - l × e l = 1. å å k ! k ! k =0 k =0 ¥ lambda = 0,8 lambda = 4,5 lambda = 3 0.3 0.2 На рис. 3.2 показаны характерные многоугольники распределения Пуассона с параметрами l = 0,8, целом l = 3 и l = 4,5. Они построены с помощью электронной формулы p_Poisson следующей командой: 0.1 2 4 6k Рис. 3.2. Распределение Пуассона >> k=0:6;plot(k,p_Poisson(0.8,k),k,p_Poisson(4.5,k),k,p_Poisson(3,k)) Геометрическое распределение В испытаниях Бернулли, которые прекращаются после первого успеха (например, стрельба до первого попадания в цель), число необходимых повторений случайно, его возможные значения – натуральный ряд чисел. Событие (X = k) означает, что первый раз успех наступил в последнем k - м повторении после неудач в предыдущих k –1 опытах. Произведение k независимых событий, одно из которых имеет вероятность успеха p, а остальные – вероятность противоположного события q = 1 – p, дает k-й элемент ряда распределения: P(X = k) = q k –1 p, k = 1, 2, … (3.4) Ряд вероятностей образует бесконечно убывающую геометрическую прогрессию с первым членом p и знаменателем q, поэтому ¥ åq k -1 p= k =1 p p = = 1. 1- q p Распределение (3.4) называется сдвинутым геометрическим. Геометрическим называется распределение, последовательность возможных значений которого начинается с ноля, а вероятности образуют ту же геометрическую прогрессию, что и в законе (3.4): k P(X = k) = q p, k = 0, 1, … p 0.3 g=qkp g1=qk-1p 0.2 0.1 0 1 2 3 4 5 6 7 8 9 10 k Рис. 3.3. Геометрическое распределение На рис. 3.3 показаны многоугольники геометрического и сдвинутого геометрического распределений с параметром p = 0,4, построенные следующими командами: >> k=0:10;k1=1:10;p=0.4;q=1-p;g=q.^k*p;g1=q.^(k1-1)*p; >> plot(k,g,'r--',k1,g1,'b.-'),legend('g=q^kp','g1=q^k^-^1p') Гипергеометрическое распределение В случайной выборке объема M из партии N изделий, в которой имеется R дефектных, может оказаться случайное количество X дефектных изделий с возможными значениями от 0 до min{M, R}. Вероятности возможных значений определяются формулой (1.3): P(X = k) = C Rk C NM--Rk , k = 0, 1, …, min{M, R}. C NM (3.5) Это распределение называется гипергеометрическим. Ради вычислительной целесообразности его часто заменяют биномиальным. Действительно, формирование случайной выборки можно рассматривать как испытания БерВероятностные основы системного анализа. 3. Случайные величины 3 нулли с числом повторений M и вероятностью успеха p = R/N, не меняющеейся после каждого случайного выбора при очень большом N. Но при малых N результаты случайного выбора по мере уменьшения N уже нельзя считать равновероятными и независимыми. С помощью функций Ber и Sampling построим графики биномиального и гипергеометрического распределений для двух вариантов данных с одинаковым относительным числом дефектных изделий в большой (500) и малой (50) партиях: >> N=1000;R=100;M=20;k=0:10;plot(k,Sampling(N,R,M,k),k,Ber(R/N,M,k)) >> N=50; R=5; plot(k,Sampling(N,R,M,k),k,Ber(R/N,M,k)) Графики на рис. 3.4 подтверждают близость биномиального и гипергеометрического распределений в первом случае. Истинное распределение по закону (3.5) существенно отличается от биномиального, имеющего те же параметры p = 0,1 и n = 20, что и в первом случае. Электронная формула Sampling избавляет от необходимости заменять закон распределения (3.5) биномиальным ради удобства вычислений. N = 500, R = 50 p N = 50, R = 5 HG binomial 0.3 p 0.2 0.2 0.1 0.1 2 4 6 8 k 10 HG binomial 0.3 2 4 6 8 k 10 Рис. 3.4. Биномиальное и гипергеометрическое распределения в выборках большого и малого объемов Непрерывные случайные величины Вероятностный смысл функции распределения непрерывной СВ СВ с непрерывной (континуальной) областью возможных значений, таких как угол подхода, нельзя описать распределением вероятностей отдельных значений, так как вероятность любого из них, скорее всего, равна нулю. Определение СВ как функции случайных событий остается в силе, если в качестве аргументов этой функции принимать события (X < x) – «СВ X приняла значение, меньшее данного числа x». Функция FX(x) = P(X < x) называется функцией распределения случайной величины X. Она содержит всю информацию о СВ, в частности, позволяет определить вероятность любого связанного с ней события. Иначе говоря, зная вероятность события (X < x) = FX(x), можно найти вероятность событий (X ³ x), (x1 £ X < x2) и даже (X = x). Действительно, последовательно выразив эти события через событие (X < x) ( X ³ x) = ( X < x), ( x1 £ X < x 2 ) = ( X < x 2 ) \ ( X < x1 ), ¥ eö æ (X = x) = I ç x £ X < x + ÷ , nø n =1è определим их вероятности через функцию распределения FX(x): P( X ³ x) = 1 - P( X < x) = 1 - FX ( x), P( x1 £ X < x 2 ) = P( X < x 2 ) - P( X < x 2 ) = FX ( x 2 ) - FX ( x1 ), Вероятностные основы системного анализа. 3. Случайные величины 4 æ P( X = x) = lim Rç x £ X < x + n ®¥ è æ æ eö ç Fç x + ÷ = lim n ø n®¥çè è ö eö ÷ - F ( x) ÷÷ = F(x + 0) – F(x). nø ø Вероятность попадания реализации СВ в интервал равна разности функции распределения на концах интервала, а вероятность значения x равна разности между пределом функции распределения справа от x и ее значением в x. Свойства функции распределения Общие свойства функции распределения вытекают из ее вероятностного смысла. Функцией распределения может быть неубывающая функция с областью значений в интервале [0, 1], полунепрерывная слева: 1. 0 £ F(x) £ 1; 2. (x2 ³ x1) Þ F(x2) ³ F(x1); 3. lim F ( x) = F ( x0 ), lim F ( x) = F ( x0 ) + P( X = x0 ). x ® x0 - 0 x ® x0 + 0 Если возможные значения СВ принадлежат интервалу (a, b), то: 1. F(x) = 0 при x £ a, так как P(X < a) = 0; 2. F(x) = 1 при x > b, так как P(X < b + e) = 1. В любом случае, lim F ( x) = 0, lim F ( x) = 1 . x ® -¥ Плотность распределения x ®¥ СВ называется непрерывной, если ее функция распределения непрерывная, кусочно-дифференцируемая функция с непрерывной производной. Для такой СВ можно определить плотность (или плотность вероятности) распределения как предел отношения вероятности попадания ее значения в бесконечно малый интервал [x, x+ Dx) к длине этого интервала: f ( x) = lim Dx ® 0 P( x £ X < x + Dx) F ( x + Dx) - F ( x) = lim = F ¢( x) . D x ® Dx Dx (3.6) В отличие от функции распределения, которая имеет вероятностный смысл для дискретных и непрерывных СВ, плотность существует, когда существует предел в (3.6). Тогда имеет смысл элемент вероятности f(x)dx – вероятность попадания СВ на элементарный отрезок (x, x+ dx): P(x < X < x+dx) = F(x+dx) – F(x) = DF(x) » F¢(x)dx = f(x)dx. На графике плотности распределения (рис. 3.5), называемым кривой распределения, элемент вероятности – это прямоугольник на отрезке (x, x + dx) с ординатой f(x). Вероятность попадания СВ X в конечный интервал (a, b) равна сумме элементов вероятности на этом интервале, то есть определенному интегралу: 1,5 0,3 1 0,2 0,5 0,1 Рис. 3.5. Функция распределения и кривая распределения b P(a < X < b ) = ò f ( x)dx , (3.7) a а в геометрической интерпретации – площади под кривой распределения на данном отрезке оси абсцисс. Функцию распределения можно выразить через плотность f(x) как вероятность попадания в полубесконечный интервал: x F ( x) = P( X < x) = P(-¥ < X < x) = ò f ( x)dx . (3.8) -¥ Вероятностные основы системного анализа. 3. Случайные величины 5 Если функция распределения непрерывна, можно не различать P(X > a) и P(X ³ a), так как вероятность принятия непрерывной СВ любого своего возможного значения нулевая: P(X = x) = 0. Но в общем случае эти вероятности отличаются: P(X ³ a) = P(X > a) + P(X = a). Основное свойство плотности распределения Как производная неубывающей функции плотность распределения – положительная функция в интервале возможных значений СВ. Основное свойство плотности распределения вытекает из того, что lim F ( x) = 1 : x ®¥ ¥ ò f ( x)dx = 1 . (3.9) -¥ Это значит, что кривая распределения лежит не ниже оси абсцисс, и площадь под ней равна единице. Дискретнонепрерывные СВ Пример построения закона распределения Из свойств функции распределения следует, что она может иметь конечное число разрывов первого рода, а в остальных точках диапазона возможных значений монотонно возрастать (рис. 3.6). Это значит, что соответствующая СВ имеет несколько возможных значений xi с ненулевыми вероятностями pi, iÎ{1, 2, …}, а в остальных точках ее функция распределения непрерывна. Такие СВ называются дискретно-непрерывными или смешанными. F(x) 1 x1 x2 x3 x4 x Рис. 3.6. Функция распределения дискретно-непрерывной СВ Длина пробоины в плоском экране от стержневого ПЭ с длиной l, свободно вращающегося при подлете в плоскости, перпендикулярной к экрану, (рис. 3.7) – случайная величина X с возможными значениями в интервале [0, l]. Построить функцию распределения FX(x) º F(x) = P(X < x) значит найти зависимость вероятности события (X < x) от x. Ясно, что (X < 0) – невозможное событие, а длина проекции не превосходит длины стержня, поэтому функция F(x) равна нулю при x £ 0 и единице – при x > l. Возможные значения x связаны с длиной отрезка l и углом от нормали j равенством x = l sin j, следовательно, события (X < x) и (j < arcsin(x / l) ) эквивалентны. Так как по условию все угловые положения равновозможны в интервале [0, p/2] , вероятность события (X < x) можно определить по формуле геометрической вероятности как отношение меры благоприятных исходов arcsin(x / l) к p / 2: 2 æ xö P(X < x) = P(j < arcsin(x / l) = arcsinç ÷ . p èlø Таким образом, функция и плотность распределения длины пробоины в данных условиях имеют вид: x < 0; ì0, ï ï2 æ xö F ( x) = í arcsinç ÷, 0 < x < l ; èlø ïp ïî1, x > l. f ( x ) = F ¢( x ) = 2 p l - x2 2 , x Î [0, l ]. Построим графики функции f(x) в интервале [0, l) без правой границы (f(x) ® ¥ при x ® l) и функции F(x), непрерывной в интервале, содержащем [0, l] (рис. 3.8): Вероятностные основы системного анализа. 3. Случайные величины 6 >> L=10;x=0:0.01:1;z=[-0.1, x, 1.1]*L;u=x*L; >> F=[0,asin(x)*2/pi,1]; f=2/L./(pi*sqrt(1-x(1:end-1).^2)); >> plot(z,F,u(1:end-1),f),grid Дополним вектор значений f(x) в правом конце интервала так, чтобы выполнялось основное свойство плотности распределения (3.9): >> f(end+1)=(1-Trap(f,u(1:end-1)))*2/0.1-f(end); Trap(f,u) ans = 1 j X l Рис. 3.7. Рис. 3.8. Интегральный закон распределения длины проекции F(x) дает вероятность того, что эта СВ превысит критическое значение (например, по условию прочности конструкции планера воздушной цели при попадании стержневого ПЭ). Вероятность события (X > x) – это дополнение графика F(x) до единицы. Так, из рис. 3.8 следует, что длина проекции может превысить половину длины стержня с вероятностью 2/3: 2 0,5l = 2/3. P(X > 0,5l) = 1 - F(0,5l) = 1 - arcsin p l Практическое использование законов распределения Кроме очевидного применения в вычислениях вероятностей попадания в заданный интервал законы распределения представляют СВ во всех операциях: при вычислении среднего значения и других числовых характеристик, анализе стохастического влияния одних СВ на другие и т. д. Вероятностный смысл операций с законами распределения дискретных и непрерывных СВ одинаков. Так, формулу полной вероятности, аналогичную (3.1), можно получить и для непрерывных СВ. Интегральная формула полной вероятности Условную вероятность события A в зависимости от значений x непрерывной СВ X обозначают P(A|x), но понимают как P(A| (x < X < x+ Dx)), имея в виду, что любое значение в малой окрестности x влияет на вероятность наступления A так же, как x. Для вычисления P(A) можно применить формулу полной вероятности с гипотезами (x < X < x+ dx) и их вероятностями f(x)dx, заменив суммирование по элементам вероятности интегрированием: ¥ P( A) = ò P( A | x) f ( x)dx . (3.10) -¥ Для вычислений по интегральной формуле полной вероятности (3.10) удобно использовать электронную формулу Trap (см. Листинг 2.4) так как она позволяет отдельно вычислять подынтегральное выражение на расчетной сетке, а затем выполняет суммирование методом трапеций. Вероятностные основы системного анализа. 3. Случайные величины 7 Получение случайных реализаций СВ согласно ее закону распределения Реализации СВ X = l sin j можно получить, разыгрывая случайные значения аргумента j. Равновозможные в интервале [0, p/2] значения j можно получить умножением на p/2 случайных чисел rand, равномерно распределенных в интервале [0, 1]. Реализации X с помощью датчика случайных чисел можно получить подстановкой y = rand в функцию F–1(y) = l sin(p/2 y), обратную к y = F(x) = (2/p) arcsin(x/l). В Лекции 9 будет доказано, что подстановка случайного числа в функцию, обратную к функции распределения СВ – это общее правило получения реализаций СВ: Xi = F–1(rand). Это и так понятно. Во-первых, согласно свойствам функции распределения обратная к ней однозначно отображает интервал [0, 1] на область возможных значений соответствующей СВ. Во-вторых, неравенство rand 1, p < 1. Последний аргумент задает количество требуемых случайных чисел. Для примера получим 15 реализаций биномиального закона с параметрами n = 6, p = 0,4: >> X=Gen('bin',0.4,6,15), Y=Gen('bin',6,0.4,15) X= 2 2 4 4 5 1 2 2 2 3 1 2 4 0 4 Y= 3 2 1 4 1 3 2 0 1 5 1 2 2 3 0 Оба выражения записаны правильно, результаты X и Y – различаются как случайные реализации одного и того же распределения Бернулли с вероятностью успеха 0,4. В отличие от random из библиотеки MATLAB функция Gen R2 умеет работать с объектами, что важно для статистического моде- 2 лирования попаданий в области различной формы. Например, C1 можно разыграть равномерное распределение в прямоугольнике, 0 круге (фигурах, производных от класса Shape), на их пересечениях C2 и объединениях (рис. 3.10), задав фигуру как единственный пара- -2 R1 метр: >>R1=Rect(2,5);R2=Rect(6,2,[3;2]);C1=Circ([2;0],2);C2=C1+[2;-1]; >> Z=Union(R1,R2); S1=Sect(C1,C2); S2=Sect(Z,C1); >> a=Gen('rnd',Z,500);c1=Gen('rnd',S1,300); c2=Gen('rnd',S2,200); >> ShowAll(R1,R2,C1,C2,Z,'r',S1,a,'r.',c1,'k.',S2,'Fc',c2,'k.') 2 4 Рис. 3.10. Равномерное распределение точек Вероятностные основы системного анализа. 3. Случайные величины 8 Эмпирическая функция распределения Статистические распределения Закон распределения длины проекции стержня построен на основании гипотезы о равновероятных угловых положениях. Если априорные сведения, необходимые для построения зависимости вероятности P(X < x) от x отсутствуют, но реализации СВ X можно наблюдать в специально поставленном эксперименте (или в явлениях природы), набирают статистику ее реализаций Xj, j = 1, …, N и строят эмпирическую функцию распределения F*(x) по относительной частоте реализаций X, меньших, чем x: 1 F*(x) = å1 . N X j > L=10;x=0:0.01:1; u=x*L; z=[-0.1, x, 1.1]*L;F=[0,asin(x)*2/pi,1]; f=2/L./(pi*sqrt(1-x(1:end-1).^2)); >> ft=f; N=20; x=rand(1,N)*pi/2;X=sort(sin(x))*L; >> y=[0 X];y=sort([y,y]);z=(0:N)/N;Z=[z;z];Z=Z(:)';plot(y(2:end),Z(1:end-1), u, F(2:end-1)) Если выполнить эти же команды повторно, получим другой график, не совпадающий с первым из-за случайности реализаций при небольшом объеме статистики (две синие линии на рис. 3.11). Для сравнения на тот же график выведена теоретическая функция распределения. Эмпирический закон распределения дискретной СВ Гистограмма частот Построение гистограммы В случае дискретных СВ можно говорить о частоте реализаций p = ni / N , где ni – число реализаций i-о возможного значения, N – объем выборки. По аналогии с рядом распределения – последовательностью пар (xi, pi) – и его наглядным представлением в виде многоугольника распределения можно построить статистический ряд распределения (xi, p i* ) и поли* i гон частот – соединенные прямыми отрезками точки (xi, p i* ), i = 1, …, n. Эмпирическая функция распределения непрерывной СВ имеет разрывы в случайных точках (см. рис. 3.11). Более наглядное распределение строят на регулярной сетке, для чего область возможных значений делят на интервалы (разряды) hi, i = 1, …, n, по которым распределяют все статистические данные Xj, j = 1, …, N. Если N >> n, в каждый разряд hi попадает достаточное количество ni экспериментальных точек, чтобы частость pi* = ni / N приближалась к вероятности попадания СВ в i - й интервал. Это условие ограничивает сверху число разрядов при данном N. С другой стороны, разряды должны быть достаточно мелкими, чтобы без больших погрешностей заменить реализации Xj центрами разрядов xi, в которые они попали. Графическое изображение распределения частот в виде прямоугольников с основаниями на разрядах и высотой, равной частотам, называется гистограммой. Чтобы построить гистограмму длин пробоин от стержня, разыграем больше случайных реализаций (100) в интервале [0, l], разобьем интервал на равные части единичной длины и сгруппируем в них все реализации с помощью функции hist из библиотеки MATLAB, которой нужно передать массив реализаций и центры разрядов: >> L=10; N=100; x=rand(1,N)*pi/2;X=sin(x)*L; h=(1:L)-0.5,m=hist(X,h) h = 0.50 1.50 2.50 3.50 4.50 5.50 6.50 7.50 8.50 9.50 m = 4 10 10 5 9 8 6 12 12 24 Вероятностные основы системного анализа. 3. Случайные величины 9 Выведем первые 15 из 100 упорядоченных по возрастанию элементов выборки, из них в первый разряд (X<1) попало 4 элемента данных, во второй (1< X <2) – 10, и т.д.: >> Xs=sort(X);Xs(1:15) ans = 0.1832 0.3181 0.6774 0.7826 1.0119 1.0690 1.2251 1.3016 1.5679 1.6589 1.6628 1.6992 1.8716 1.9395 2.1813 Наложим на гистограмму полученную ранее теоретическую кривую f(x) (рис. 3.12, а): >> f1=m/N; bar(h,f1,1,'w'), hold on, plot(u(2:end),f) Так как разряды в данном случае имеют единичную длину, вероятность попадания в каждый из них f(x)×1 равна плотности в центрах интервалов. Большие отклонения частот от точной кривой объясняются недостаточным объемом данных. Построитель гистограмм Улучшить гистограмму можно увеличением объема статистического материала и оптимальным разбиением на разряды. Первый путь затратный, второй способствует снижению затрат или, по крайней мере, лучше их использует. Функция SmartHist (Листинг 3.4) оптимизирует ширину разрядов, если они не заданы. Увеличим число испытаний до 10 000, повторим эксперимент и построим гистограмму с помощью SmartHist в прежних разрядах (рис. 3.12, б). Частоты стали близки к вероятностям, а гистограмма (на единичных разрядах) – к плотности распределения: n j /N N=100 0.3 0.2 0.1 n /N 5 x 10 Рис. 3.12. Гистограммы длин проекций стержня >> X=L*sin(rand(1,10000)*pi/2);[Fs,fs,H]=SmartHist(X,[0 10],10,10);Show(H,'w'),hold on, plot(u(2:end),f) Функция SmartHist возвращает три структуры [F,f,H]. Первые две содержат информацию о статистической функции распределения F и ее производной f (с учетом разрывов). Третья структура содержит разряды H.x и частоты гистограммы H.p, что позволяет использовать ее в автоматическом визуализаторе объектов Show и вычислениях. Например, замена реализаций СВ в разрядах центром разряда превращает среднее арифметическое (случайный результат выборки) в характеристику статистического ряда: mср = n n n 1 N 1 n X j » å xi ni = å xi i = å xi pi* . å N j =1 N i =1 N i =1 i =1 (3.11) Сравним среднее арифметическое и его приближенную оценку (точное среднее значение равно 2l / p = 6,366): >> M=mean(X),Mx=dot(H.x, H.p) M = 6.3938 Mx = 6.3894 При достаточно большом объеме статистики сокращение разрядов может улучшить качество гистограммы и вычисленные по ней оценки. Оптимизация гистограмм Функция SmartHist оптимизирует количества разрядов и осуществляет оптимальное 0.3 группирование данных для построения статистической функции и плотности распределения, если не задан третий параметр, она также 0.2 определяет диапазон возможных значений при отсутствии второго параметра. Построим 0.1 две гистограммы с разной заданной шириной разрядов и еще одну с оптимальными разрядами (рис. 3.10). Для оценки качества гисто0 2 4 6 8 10 грамм выведем также кривые теоретической плотности (пунктирные линии), абсциссы коРис. 3.10. Гистограммы на разрядах разной торых пересчитаны на на ожидаемые частоты ширины реализаций в соответствующих разрядах: >> [F,f,H]=SmartHist(X,[0 10],30,10);Show(H,'g',f,'g',[u(2:end);ft*H.h],'r--'), hold on >> [F,f,H]=SmartHist(X,[0 10],50,20);Show(H,'b',f,'b',[u(2:end);ft*H.h],'r--') >> [F,f,H]=SmartHist(X);Show(H,'w',f,'k',[u(2:end);ft*H.h], 'r--') Высота прямоугольников гистограммы колеблется вокруг кривой, полученной умножением графика плотности распределения на ширину разряда. На оптимизированной гистограмме (белые столбики) отклонения практически незаметны. Вероятностные основы системного анализа. 3. Случайные величины 10 Статистическая функция распределения Вместо ступенчатой функции строят статистическую функцию распределения в виде ломаной c крутизной отрезков, пропорциональной частотам в соответствующих разрядах. Сетка V и сеточные значения Fs выводятся второй парой выходных переменных программы SmartHist. На рис. 3.11 показаны статистическая и эмпирическая функции, построенные по гистограмме (рис. 3.10, б) командой: Рис. 3.11. Теоретическая функция распределения и ее статистические приближения >> [v,fs]=SmartHist(X,[0 10],20); plot(v.x,v.F,y(2:end), Z(1:end-1)) Функцию SmartHist можно использовать как универсальный построитель гистограмм и статистических распределений, так как она выявляет особенности распределений, имеющиеся в исходном статиститческом материале. Построитель гистограмм различает неПостроение закона прерывные, дискретные и дискретнораспределения дискретной СВ непрерывные распределения (при достаточном объеме статистического материала). Он выделяет одинаковые значения в нескольких реализациях и по частоте таких реализаций формирует разрывы статистической функции распределения. В качестве примера создадим с помощью Gen массив статистики для СВ, распределенной по биномиальному закону, а затем построим с помощью SmartHist полигон частот и статистическую функцию распределения, которая в данном случае имеет ступенчатый вид. Для сравнения построим и точный многоугольник распределения (рис. 3.14): Рис. 3.14. Полигон частот и функция распределения >> [F,f]=SmartHist(Gen('bin',6,0.3,9000),[],20); Show(f,F,'r', [0:6;Ber(0.3,6)],'o'), grid Моделирование дискретно-непрерывных случайных величин Пример дискретнонепрерывной СВ Характерный пример дискретно-непрерывной СВ – площадь перекрытия двух плоских фигур при их случайном взаимном положении. На рис. 3.12 а показаны прямоугольник A с размерами 20 ´ 10 и меньший прямоугольник B со сторонами 6´4. При случайном положении зоны поражения (центр прямоугольника B находится в случайной точке X) площадь перекрытия S также случайна. Построим закон распределения СВ U = S / SA. Возможные значения СВ U принадлежат интервалу [0, um], где um = SB / SA, причем P(U = 0) = p0 = P(X Ï A0) и P(U = um) = p1 = P(X Î A1), где A0 и A1 – прямоугольники, построенные снаружи и внутри A так, как показано на рис. 3.12 а. Внутри интервала [0, um] СВ U непрерывна. Все прямоугольники определим как объекты класса Rect, которые сами могут вычислить свою площадь, занять указанное положение, построить пересечение с другими объектами и сформировать графическое изображение: >> A=Rect(20,10);B=Rect(6,4);b=MySize(B);A1=A-b;A0=A+b;D=Rect(30,20);SA=Area(A) >> Show(A,'h', A1,'k-.', A0, 'k-.', D, B, 'Fc') В классе Rect функция Sect определяет пересечение двух объектов класса, в результате чего получается объект того же класса (с нулевыми размерами, если пересечение пустое). Прямоугольник в левом нижнем углу рис. 3.15 а и пересечение U получены командой: >> Z=moveTo(B,[-10;-5]); U=Sect(A,Z); Show(U,'HFCc',Z,A') Вероятностные основы системного анализа. 3. Случайные величины 11 а б Рис. 3.15. Прямоугольные цель и зона поражения (а), их случайные перекрытия (б) Используем класс Rect в статистическом эксперименте для построения функции ущерба F(u) = P(U < u). Распределим случайным образом N = 1000 точек в прямоугольнике D, перенесем в эти точки копии зоны B, покажем первые 30 из них, выделив пересечения с A (рис. 3.15 б): >> N=10000;X=Gen('rnd',D,N); >> Z=moveTo(B,X);for i=1:30 T=Sect(A,Z{i});Show(Z{i},'Hr',T,'Fc'); end Теперь вычислим относительную долю накрытия каждой из N зон, построим гистограмму и статистическую функцию распределения: >> S=[]; for i=1:N T=Sect(A,Z{i}); S(i)=Area(T); end >> S=S/SA; [F,f,H]=SmartHist(S,[],30); Show(H, 501, F, 502) График функции распределения (рис. 3.16, б) на концах интервала имеет разрывы, которым соответствуют «всплески» гистограммы. Высота «всплесков» – это частота событий (U = 0) и (U = um). F 1 n j/N 0.84 0.4 0.3 0.393 0.2 0.1 u 0.05 0.12 u 0.1 а б Рис. 3.16. Гистограмма относительной доли пораженной площади цели (а), статистическая и торетическая функции распределения (б) 0.05 Объектная технология замечательна своей полиморфПолиморфизм объектных методов ностью, благодаря чему можно повторить вычисления, заменив прямоугольники кругами: >> A=Circ(10);B= Circ(3);D=Circ(15);X=Gen('rnd',D,50); >> b=MySize(B);A1=A-b;A0=A+b;SA=Area(A); Выполнив остальные команды с новыми объектами A, B, D, построим функцию распределения площадей пересечений. Полиморфное взаимодействие (в данном случае, определение площади пересечений) объектов разных геометрических классов (рис. 3.17) осуществляется корректно каждой парой объектов в соответствии с их свойствами. 10 -10 -10 10 Рис. 3.17. Равномерное распределение фигур >> Show(A,'h', A1,'k-.', A0, 'k-.', D, B, 'Fc') >> Z=moveTo(B,[-10;-5]); U=Sect(A,Z); Show(U,'HFCc',Z,A') >> N=100;X=Gen('rnd',D,N); >> Z=moveTo(B,X);for i=1:30 T=Sect(A,Z{i});Show(Z{i},'Hr',T,'Fc'); end >> S=[]; for i=1:N T=Sect(A,Z{i}); S(i)=Area(T); end >> S=S/SA; [F,f,H]=SmartHist(S,[],30); Show(H, 502, F, 503) Вероятностные основы системного анализа. 3. Случайные величины 12 Программа верификации кода MATLAB clear all p= Ber(0.4,3),plot(0:3,p) k=0:6;plot(k,p_Poisson(0.8,k),k,p_Poisson(4.5,k),k,p_Poisson(3,k)) k=0:10;k1=1:10;p=0.4;q=1-p;g=q.^k*p;g1=q.^(k1-1)*p; plot(k,g,'r--',k1,g1,'b.-'),legend('g=q^kp','g1=q^k^-^1p') N=1000;R=100;M=20;k=0:10;plot(k,Sampling(N,R,M,k),k,Ber(R/N,M,k)) N=50; R=5; plot(k,Sampling(N,R,M,k),k,Ber(R/N,M,k)) clear all L=10;x=0:0.01:1;z=[-0.1, x, 1.1]*L;u=x*L; F=[0,asin(x)*2/pi,1]; f=2/L./(pi*sqrt(1-x(1:end-1).^2)); plot(z,F,u(1:end-1),f),grid f(end+1)=(1-Trap(f,u(1:end-1)))*2/0.1-f(end); Trap(f,u) X=Gen('bin',0.4,6,15), Y=Gen('bin',6,0.4,15) R1=Rect(2,5);R2=Rect(6,2,[3;2]);C1=Circ([2;0],2);C2=C1+[2;-1]; Z=Union(R1,R2); S1=Sect(C1,C2); S2=Sect(Z,C1); a=Gen('rnd',Z,500);c1=Gen('rnd',S1,300); c2=Gen('rnd',S2,200); ShowAll(R1,R2,C1,C2,Z,'r',S1,a,'r.',c1,'k.',S2,'Fc',c2,'k.') clear all L=10;x=0:0.01:1;z=[-0.1, x, 1.1]*L;u=x*L;F=[0,asin(x)*2/pi,1]; f=2/L./(pi*sqrt(1-x(1:end-1).^2));ft=f; L=10; N=20; x=rand(1,N)*pi/2;X=sort(sin(x))*L; y=[0 X];y=sort([y,y]);z=(0:N)/N;Z=[z;z];Z=Z(:)';plot(y(2:end),Z(1:end-1), u, F(2:end-1)) L=10; N=100; x=rand(1,N)*pi/2;X=sin(x)*L; h=(1:L)-0.5,m=hist(X,h) Xs=sort(X);Xs(1:15) f1=m/N; bar(h,f1,1,'w'), hold on, plot(u(2:end),ft) X=L*sin(rand(1,10000)*pi/2);[Fs,fs,H]=SmartHist(X,[0 10],10,10);Show(H,'w'),hold on, plot(u(2:end),f) M=mean(X),Mx=dot(H.x, H.p) [F,f,H]=SmartHist(X,[0 10],30,10);Show(H,'g',f,'g',[u(2:end);ft*H.h],'r--'), hold on [F,f,H]=SmartHist(X,[0 10],50,20);Show(H,'b',f,'b',[u(2:end);ft*H.h],'r--') [F,f,H]=SmartHist(X);Show(H,'w',f,'k',[u(2:end);ft*H.h], 'r--') [v,fs]=SmartHist(X,[0 10],20); plot(v.x,v.F,y(2:end), Z(1:end-1)) [F,f]=SmartHist(Gen('bin',6,0.3,9000),[],20); Show(f,F,'r', [0:6; Ber(0.3,6)],'o') clear all A=Rect(20,10);B=Rect(6,4);b=MySize(B);A1=A-b;A0=A+b;D=Rect(30,20);SA=Area(A) Show(A,'h', A1,'k-.', A0, 'k-.', D, B, 'Fc') Z=moveTo(B,[-10;-5]); U=Sect(A,Z); Show(U,'HFCc',Z,A') N=100;X=Gen('rnd',D,N); Z=moveTo(B,X);for i=1:30 T=Sect(A,Z{i});Show(Z{i},'Hr',T,'Fc'); end S=[]; for i=1:N T=Sect(A,Z{i}); S(i)=Area(T); end S=S/SA; [F,f,H]=SmartHist(S,[],30); Show(H, 501, F, 502) A=Circ(10);B= Circ(3);D=Circ(15);X=Gen('rnd',D,50); clear all A=Circ(10);B= Circ(3);D=Circ(15);X=Gen('rnd',D,50); b=MySize(B);A1=A-b;A0=A+b;SA=Area(A); Show(A,'h', A1,'k-.', A0, 'k-.', D, B, 'Fc') Z=moveTo(B,[-10;-5]); U=Sect(A,Z); Show(U,'HFCc',Z,A') N=100;X=Gen('rnd',D,N); Z=moveTo(B,X);for i=1:30 T=Sect(A,Z{i});Show(Z{i},'Hr',T,'Fc'); end S=[]; for i=1:N T=Sect(A,Z{i}); S(i)=Area(T); end S=S/SA; [F,f,H]=SmartHist(S,[],30); Show(H, 501, F, 502) Вероятностные основы системного анализа. 3. Случайные величины 13 Контрольные вопросы 1. Объясните связь между случайными событиями и случайными величинами. 2. Какими структурами описывают распределение дискретной СВ? 3. Как отличаются друг от друга многоугольники распределения двух СВ «расход снарядов» и «число промахов» в серии независимых выстрелов до первого попадания? 4. Может ли плотность распределения непрерывной СВ иметь разрывы первого рода? 5. Объясните вероятностный смысл плотности вероятности непрерывной СВ, элемента вероятности. Основное свойство плотности вероятности. 6. Объясните структуру подынтегрального выражения в интегральной формуле полной вероятности. 7. Каковы особенности функции распределения дискретно-непрерывной СВ? Как выполняется основное свойство плотности вероятности дискретно-непрерывных СВ? 8. Как записать интегральную формулу полной вероятности для дискретно-непрерывной СВ? Объясните вероятностный смысл подынтегрального выражения в интегральной формуле полной вероятности. 9. Как построить гистограмму статистического распределения? какими соображениями следует руководствоваться при выборе ширины регистров? 10. Как построить статистический ряд распределения и полигон частот? Вероятностные основы системного анализа. 3. Случайные величины 14 Лекция 4 Числовые характеристики случайных величин Вся информация о СВ содержится в ее функции распределения. Источниками информации могут быть априорные знания (например, равновозможные угловые положения проецируемого стержня) или статистические данные. На практике не всегда можно быть уверенным в априорной информация (когда летящий стержень имеет аэродинамическое качество) или нецелесообразно идти на большие расходы, чтобы накопить статистику для построения эмпирической функции распределения. Для оценки СВ часто достаточно знать ее числовые характеристики (среднее значение, степень разброса и т.п.). Кстати, именно неслучайные характеристики случайных величин используются в качестве показателей эффективности. Величины, в сжатой форме выражающие наиболее существенные черты распределения СВ, называются числовыми характеристиками распределения. Все числовые характеристики (ЧХ) определяются законом распределения, если он известен. При экспериментальном изучении СВ оценки ЧХ могут быть вычислены непосредственно по результатам наблюдений без построения законов распределения. Числовые характеристики и их свойства Математическое ожидание СВ Чаще всего используется ЧХ, как бы заменяющая саму СВ. Математическое ожидание (МО) представляет собой взвешенную по вероятностям сумму возможных значений СВ, аналогичное по смыслу интегральное выражение для непрерывной СВ (весами выступают элементы вероятностей) или комбинация этих выражений для дискретно-непрерывной СВ: n ìn x p , или lim xi p i , если ряд сходится, ïå i i å n ®¥ i =1 ï i =1 ïï ¥ M [ X ] º m x = í ò xf ( x)dx, если интеграл сходится, ï- ¥ ï ¥ n ï ò xf ( x)dx + å xi p i для смешанной СВ. ïî -¥ i =1 (4.1) (4.2) (4.3) Если бесконечный ряд или интеграл не сходятся, МО для такой СВ не существует. Различие между МО и средним арифметическим Как следует из формулы (3.9), среднее арифметическое реализаций СВ (выборки) можно заменить статистической оценкой, использующей частость попадания реализаций в достаточно мелкие разряды диапазона возможных значений: mср = 1 N N n n i =1 j =1 j =1 å X i » å x j p*j »å x j p j = mx . (4.4) Вероятностные основы.4. Числовые характеристики случайных величин 1 Вычисленное таким образом среднее является приближенной оценкой МО mx, как и частоты pj* для вероятностей pj. Дисперсия МО тем лучше заменяет саму СВ, чем меньше в среднем отклоняются от него возможные значения. Отклонения СВ X от среднего значения – это центрированная СВ X& = X – mx, ее МО равно нулю, но МО квадратов отклонений положительно и тем больше, чем вероятнее большие отклонения. МО квадрата центрированной СВ называется дисперсией: D[ X ] º D x = M [( X - m x ) 2 ] . (4.5) Выражения для дисперсии дискретной и непрерывной СВ получим подстановкой формул (4.1) и (4.2) в (4.5): n ìn 2 ( ) , или lim ( xi - m x ) 2 pi , x m p (4.6) å x i ïå i n ®¥ i =1 ï i =1 D[ X ] = í ¥ ï ( x - m ) 2 f ( x)dx. x (4.7) ïî-ò¥ Условия существования дисперсии вытекают из условий существования МО. Среднеквадратическое отклонение Среднеквадратическое отклонение (СКО) sx = Dx имеет размерность самой СВ. Обычно выражениями вида mx ± ksx задают интервал возможных значений СВ с определенной степенью отклонений, задаваемой коэффициентом k. Так, почти все реализации СВ, подчиненной нормальному закону, находятся в интервале mx ± 3sx (правило «трех сигм»). Начальные и центральные моменты МО и дисперсия отражают наиболее важные свойства распределений, но используются и другие ЧХ, определяемые через МО целых степеней СВ. Начальным моментом k-о порядка СВ X называется МО k-й степени X: (4.8) a k [ X ] = M [ X k ]. Центральным моментом k-о порядка СВ X называется МО k-й степени центрированной СВ X: m k [ X ] = M [ X& k ]. Асимметрия распределения Все центральные моменты нечетных порядков равны нулю для симметричных распределений, у которых одинаковые противоположные отклонения от mx равновероятны. Так как m1[X] º 0 для любых распределений, в качестве меры асимметрии принимается m3[X], точнее, безразмерная величина As – скошенность или асимметрия СВ X: As = Эксцесс распределения (4.9) m 3[ X ] . s 3x (4.10) Центральный момент четвертого порядка характеризует «островершинность» распределения по сравнению с нормальным законом распределения, у которого безразмерная величина m 4 [ X ] / s x4 равна 3: Ex = m4[ X ] – 3. s 4x Вероятностные основы.4. Числовые характеристики случайных величин (4.11) 2 Все перечисленные ЧХ называются интегральными или моментными, они определяются через соответствующие начальные и центральные моменты. Еще две ЧХ выделяют характерные значения СВ, так называемые характеристики положения – мода (Mo) и медиана (Me). Мода Мода дискретной СВ – это ее наиболее вероятное значение: Mo = xk, если pk ³ pi, "i. Мода непрерывной СВ доставляет максимум функции плотности распределения: f(Mo) ³ f(x), "x. Функция плотности f(x) может иметь один или несколько максимумов, может иметь минимум или быть постоянной. Соответственно распределение может быть унимодальными, полимодальным, антимодальным или немодальным. Медиана Медиана СВ – такое возможное значение Me, что события (X < Me) и (X > Me) равновероятны. Если СВ непрерывна, F(Me) =1/2, но в общем случае медиана обладает свойством F(Me) £ 1/2, F(Me+0) ³1/2, так как P(X < Me) ¹P(X > Me) + P(X = Me), если медиана приходится на точку разрыва функции распределения. У непрерывных симметричных распределений мода, медиана и МО совпадают Mo = Me = mx = F – 1(1/2). Медиана смешанных СВ имеет следующий смысл: F(Me) £ 1/2, F(Me + 0) ³ 1/2. Срединное (вероятное) отклонение Возможное значение xp (0 < p < 1), для которого выполняется F(xp) £ p, F(xp + 0) ³ p, называется квантилью порядка p (медиана – квантиль порядка 1/2). Величина E = (x3/4 – x1/4)/2 называется срединным (вероятным) отклонением. Она так же как и СКО характеризует разброс случайной величины, но может быть легко вычислена (непосредственно из функции распределения) даже для таких распределений, у которых второй центральный момент не существует. Основные свойства МО Все интегральные характеристики определены через МО, так что все их важные свойства вытекают из свойств МО: 1. M[c] = c, если с – неслучайная величина (имеет единственное возможное значение); 2. M[cX] = cM[X], так как умножение СВ на константу означает умножение всех возможных значений на эту константу; 3. M[X+Y] = M[X] + M[Y] для любых X, Y; 4. M[XY] = M[X] M[Y], если X, Y независимы. Дискретные СВ независимы, если независимы все пары событий (X = xi) и (Y = yj), i = 1, …, n, j = 1, …, m. В этом случае pij = P(X = xi Ç Y = yj) = P(X = xi)P(Y = yj) = pi gj, откуда следует свойство 4: n m n m n m i =1 j =1 M [ XY ] = åå xi y j pij = åå xi y j pi g j = å xi p i å y j g j = M [ X ]M [Y ]. i =1 j =1 i =1 j =1 Сумма X + Y имеет nm возможных значений xi + yj с вероятностями P(X+Y = xi + yj) = P(X = xi Ç Y = yj) = pij. Без предположения о независимости X, Y получим: Вероятностные основы.4. Числовые характеристики случайных величин 3 n m M [ X + Y ] = å å ( xi + y j ) pij = i = 1 j =1 n m m n n m i =1 j =1 j =1 i =1 i =1 j =1 = å xi å pij + å y j å pij = å xi pi + å y j g j = M [ X ] + M [Y ]. Здесь учтено, что m m j =1 j =1 å pij = å P(( X = xi ) Ç (Y = y j )) = P( X = xi ) = pi , так как события (Y = yj), образуют полную группу. Аналогично, n åp ij = g j. i =1 Таким образом, МО суммы любых СВ равно сумме МО слагаемых, а МО произведения независимых СВ равно произведению их МО (свойство 3). Корреляционный момент В общем случае МО произведения двух СВ отличается от произведения их МО на величину M [ X&Y& ] , равную нулю, если X, Y независимы: M [ XY ] = M [( X& + m )(Y& + m )] = M [ X&Y& + m Y& + m X& + m m ] = x y x y x y = M [ X&Y& ] + M [ X ]M [Y ]. МО произведения двух центрированных СВ является характеристикой их совместного распределения и называется корреляционным моментом: (4.12) Kxy = M [ X&Y& ] . Итак, в общем случае МО произведения двух СВ равно произведению их МО, увеличенному на корреляционный момент: M[XY] = M[X]M[Y]+ Kxy . (4.13) Из выражения для корреляционного момента дискретных СВ n m M [ X&Y& ] = åå ( xi - m x )( y j - m y ) p ij i =1 j =1 следует, что величина корреляционного момента тем больше, чем вероятнее одноименные отклонения обеих СВ от своих МО. Если же с увеличением одной СВ вероятнее уменьшение другой (вместе с положительными отклонениями одной СВ чаще реализуются отрицательные отклонения другой), и наоборот, значение корреляционного момента будет отрицательным. Когда любая закономерность в реализациях пары (X, Y) отсутствует, положительные и отрицательные отклонения компенсируются и дают нулевую сумму. Таким образом, положительные, отрицательные или нулевые значения корреляционного момента указывают на наличие прямой или обратной зависимости между случайными реализациями СВ, или отсутствие таковой. Но судить о степени зависимости по абсолютной величине корреляционного момента нельзя, так как она отражает еще и степень разброса отдельных СВ. Коэффициент корреляции МО произведения безразмерных центрированных СВ отражает только степень зависимости и называется коэффициентом корреляции: é X& Y& ù K xy rxy = M ê = ú= êë s x s y úû s x s y K xy Dx D y . Вероятностные основы.4. Числовые характеристики случайных величин (4.14) 4 Можно доказать, что –1 £ rxy £ 1, причем, предельные значения коэффициента корреляции соответствуют самой сильной (функциональной) зависимости, прямой или обратной. Основные свойства дисперсии Свойства дисперсии – это свойства МО квадрата центрированной СВ: 1. D[c] = 0, если с – неслучайная величина; 2. D[cX] = c2D[X], так как M [(cX& ) 2 ] = c 2 M [ X& 2 ] ; 3. D[X±Y] = D[X] + D[Y] ± 2Kxy, что следует из D[X±Y] = M [( X& ± Y& ) 2 ] . Следствие основных свойств МО и дисперсии МО линейной функции n произвольных (не обязательно независимых) СВ X1, …, Xn равно той же функции от МО этих СВ: n n i =1 i =1 M [c0 + å ci X i ] = c0 + å ci M [ X i ] . (4.15) Если X1, …, Xn взаимно независимы, дисперсия их суммы равна сумме дисперсий слагаемых: n æ n ö Dç å X i ÷ = å D[ X i ] , è i =1 ø i =1 (4.16) а дисперсия линейной функции выражается следующим образом: n n i =1 i =1 D[c 0 + å ci X i ] = å ci2 D[ X i ] . Связь между начальными и центральными моментами (4.17) Вычисление центральных моментов можно существенно упростить, выразив их через начальные моменты: é k ù k m k [ X ] = M [( X - m x ) k ] = M êå C ki X i (- m x ) k -i ú = å (-1) k -i C ki m xk -i a i [ X ] . ë i =0 û i =0 В частности, для центральных моментов до 4-о порядка имеем (обозначив mx º m, ak[X] º ak): m2[X] = M[(X-mx)2] = a2 – m2, (4.18) m3[X] = a3 – 3mm2 – m3, (4.19) m4[X] = a4 – 4mm3 – 6m2m2 – m4. (4.20) Вычислим по формулам (4.1), (4.8), (4.18) МО и дисперсию числа попаданий в 10-и неПримеры вычисления ЧХ по зависимых выстрелах с вероятностями попадания, меняющимися линейно от p1 = 0,6 до общим формулам p10 = 0,3, используя для вычисления вероятностей pm,10 электронную формулу RptTrial: >> n=10;p=linspace(0.6,0.3,n); m=dot(RptTrial(p),0:n),D=dot(RptTrial(p),[0:n].^2)-m^2 m = 4.5000 D = 2.3833 Теперь вычислим МО и дисперсию проекции вращающеегося стержня на экран, распределенной по синусоидальному закону, построенному в Лекции 3: >> L=10;x=linspace(0,0.999,100)*L;f=2/pi./sqrt(L^2-x.^2);Trap(f,x) ans = 1.0001 >> m=Trap(x.*f,x), mt = 2*L/pi, a2=Trap(x.^2.*f,x), D=a2 - m^2, sigma=sqrt(D) m = 6.3680 mt = 6.3662 a2 = 50.0242 D = 9.4729 sigma = 3.0778 Результат численного интегрирования m = 6.37 практически совпадает с точным значением M[X] = 2l/p при том, что бесконечная плотность на правом конце интервала не корректироваалсь как в Лекции 3 и основное свойство плотности выполнилось приближенно. ДисВероятностные основы.4. Числовые характеристики случайных величин 5 персия D вычислена по формуле (4.18), второй начальный момент, полученный численным интегрированием a2 = 50.02, практически совпадает с результатом интегрирования l2/2 = 50. Производящая функция для вычисления начальных моментов Вычисление моментных характеристик с помощью электронных формул не составляет проблемы, если не считать затруднений, связанных с отбрасыванием «хвостов» бесконечных дискретных распределений (геометрического, Пуассона) или с выбором шагов дискретизации непрерывных СВ вблизи особых точек. Но если закон распределения задан параметрической функцией, то ЧХ должны определяться этими параметрами (а распределений Пуассона и геометрического – единственным параметром). Для получения ЧХ непрерывных СВ нужно применить правила интегрирования. Начальные моменты любой дискретной СВ X: P(X = k) = pk, k = 0, 1, … удобно определять с помощью производящей функции ¥ j( z ) = å p k z k , где 0 < z £ 1, k =0 (4.21) благодаря ее свойствам: j¢( z) = å pk kz k -1 , j¢( z) z =1 = å kpk = mx , k k j¢¢( z) z =1 = å k pk -å kpk = a 2 - mx , 2 k k j¢¢¢( z) z =1 = a3 - 3a 2 + 2mx , j¢¢¢¢( z) z =1 = a 4 - 6a3 + 11a 2 - 6mx . Из этих выражений можно получить все начальные моменты, если известны производные при z = 1: a1 = j¢(1), Þ (m x = j¢(1)), a 2 = j¢¢(1) + m x , ü ï ï ý a 3 = j¢¢¢(1) + 3a 2 - 2m x , ï ¢ ¢ ¢ ¢ m a 4 = j (1) + 6a 3 - 11a 2 + 6 x .ïþ (4.22) Числовые характеристики некоторых дискретных распределений Индикатор случайного события Характеристическая СВ для случайного события замечательна тем, что все ее начальные моменты равны вероятности этого события p = P(A): ak[X] = M[Xk] = 0k P(X=0) + 1k P(X=1) = P(A) = p, следовательно, M[X] = p, D[X] = a2[X] – mx2 = p – p2 = p(1 – p). Биномиальное распределение Число успехов X в n испытаниях Бернулли можно подсчитать как сумму индикаторов Xi событий Ai, обозначающих успех в i-м испытании: n X = å X i . Так как в условиях испытания Бернулли индикаторы Xi незавиi =1 симы, можно применить формулы (4.15), (4.16): Вероятностные основы.4. Числовые характеристики случайных величин 6 n én ù n M[X] = M êå X i ú = å M [ X i ] = å pi = np, i =1 ë i =1 û i =1 n én ù n D[X] = Dêå X i ú = å D[ X i ] = å pi qi = npq, ë i =1 û i =1 i =1 sx = npq . (4.23) (4.24) (4.24) Из полученных выражений видно, что дисперсия биномиального распределения тем больше, чем ближе к 0,5 вероятность успеха в одном испытании, а n/2 – наибольшее значение СКО. С помощью производящей функции n j( z ) = å C kn p k (1 - p ) n- k z k = ( pz + q ) n k =0 можно получить те же результаты для МО и дисперсии, а также старшие моменты. Определим асимметрию биномиального распределения: m npq (q - p) m3[X] = npq(q – p), As = 3 = 3 . s3 npq ( ) Мода дискретной СВ вида P(X = k) = pk – то наименьшее значение k, для которого выполняется неравенство pk+1 < pk. В биномиальном распределении p k +1 = C nk +1 p k +1 q n - k -1 = n! n - k p k k n-k p k +1 q n - k -1 = Cn p q , k +1 q (k + 1)!(n - k - 1)! поэтому условие p k +1 n - k p = <1 pk k +1 q выполняется при k ³ np – q. Мода биномиального распределения – это округленная в большую сторону величина (np – q). Она отличается от МО не более, чем на единицу, то есть среднее значение биномиального распределения совпадает или близко к наивероятнейшему. Интересно, что среднее число попаданий в 10-и выстрелах с вероятностями попадания, меняющимися от p1 = 0,6 до p10 = 0,3, полученное ранее с помощью функции RptTrial, совпадает с npср = 10 × (0,6 + 0,3) / 2 = 4,5, где pср – среднее арифметическое вероятностей попаданий во всех выстрелах. Дисперсия числа попаданий в стрельбе с одинаковыми вероятностями pср, как и следует ожидать, меньше истинной 4,5 × (1 – 0,45) = 2,925 < 3,0778. Распределение Пуассона Производящая функция распределения Пуассона ¥ lk -l k (l z ) k = e l ( z -1) e z = e -l å k! k = 0 k! k =0 ¥ j( z ) = å такова, что ее производные при z = 1 равны соответствующим степеням параметра l: d kj = lk , k = 1, 2, 3, 4, K k dz z =1 По формулам (4.22) получим все начальные моменты, а с учетом соотношений (4.18) – (4.20) – центральные моменты a1 = m2 = m3 =l, m4 = 3l2+l и все моментные характеристики: Вероятностные основы.4. Числовые характеристики случайных величин 7 mx = Dx = l, (4.26) s x = l, (4.27) m l 1 , As = 33 = 3/ 2 = (4.28) s l l m 1 Ex = 44 - 3 = . (4.29) l s Дисперсия распределения Пуассона растет вместе с параметром l, т.е. отклонения от среднего тем больше, чем больше l, но относительные отклонения растут с уменьшением l: m x - ks x l - k l k = = 1. mx l l (4.30) Из этого следует, что замена СВ, распределенной по закону Пуассона, ее средним значением особенно опасна при малых параметрах (см. пример ниже). Мода распределения Пуассона – наименьшее k, при котором выполняется условие: p k +1 lk +1 l k! = × k = < 1. ( k + 1)! l pk k +1 Этому условию удовлетворяет целая часть параметра l: Mo = k* = int(l), причем, если l целое, k* =l, имеется два модальных значения l и l –1 pk* p k * -1 = l = 1. k* Заметим, что формулы для ЧХ распределения Пуассона вытекают из соответствующих формул для биномиального распределения при l = np и q » 1. Иллюстрация особенностей ЧХ закона Пуассона При полной заправке топливом самолет имеет ресурс полета T = 6 ч, но каждая взятая на борт бомба сокращает его на 1 час. Самолет обнаруживает цели случайным образом, в среднем S целей за 1 час. Сколько нужно брать бомб, чтобы число атакованных целей за вылет было наибольшим? Бомб нужно столько же, сколько обнаружено целей. Но число обнаруженных целей за время t случайно, подчиняется закону Пуассона с параметром l = tS, зависящем по условию от количества бомб m (τ = 6 – m). Оперируя средним значением числа обнаруженных целей l как самой СВ, получим условие для оптимального количества бомб (6 – m)S = m, откуда следует приближенное решение m* = 6S/(1+S). Вычислим его для нескольких значенией S: >> S=[2,1,0.5,0.2];M1=6*S./(1+S) M1 = 4.0000 3.0000 2.0000 1.0000 Решение по равенству «в среднем» занижает результат, так как не учитывает возможность обнаружения большего числа целей, которые не были бы атакованы из-за отсутствия бомб. Согласно условию (4.30) относительная погрешность возрастает с уменьшением параметра. Чтобы оценить величину погрешности, сравним полученный приближенный результат с точным. Построим распределение числа атакованных целей для каждого из возможных значений m от 1 до 5, найдем МО этих распределений и выберем то значение N, при котором среднее число атакованных целей наибольшее. Если N – число обнаруженных целей, число атакованных целей L = min{N, m}. СВ N распределена по закону Пуассона с параметром l = (6 – m)S, СВ L принимает свои возможные значения 0, 1, …, m с вероятностями: Вероятностные основы.4. Числовые характеристики случайных величин 8 ì P( N = k ) = p k , k < m, ï m -1 P( L = k ) = í P ( N ³ m ) = 1 P ( N < m ) = 1 pi , k = m. å ï i =0 î По общей формуле (4.1) запишем параметрическое выражение для M[L]: m -1 m -1 æ m -1 ö M L (m) = å k × p k + mç1 - å p k ÷ = m - å (m - k ) p k . k =0 k =0 è k =0 ø В следующей команде внешний цикл перебирает четыре значения S, внутренний – m: >> for s=S for k=1:5 M(k)=k-dot(k-[0:(k-1)],p_Poisson(s*(6-k),0:k-1));end,M,end M = 1.0000 1.9966 2.9182 3.2185 1.9775 M = 0.9933 1.8901 2.3279 1.9249 0.9993 M = 0.9179 1.4587 1.4102 0.9957 0.5000 M = 0.6321 0.7419 0.5962 0.3999 0.2000 В первой строке результата (при S = 2) наибольшее среднее число атакованных целей получилось при m = 4, как и в приближенном решении. В следующих двух строках (S = 1 и 0,5) оптимальное число бомб 3 и 2 также совпадает с приближенной оценкой. При S = 0,2 приближенная оценка на 1 меньше точного решения. Геометрическое распределение Производящая функция распределения P(X = k) = pk = qkp, k = 0, 1, … и ее производные при z = 1: ¥ p j( z ) = å pq k z k = , 1 - qz k =0 q 2q 2 6q 3 24q 4 , j¢¢(1) = 2 , j¢¢¢(1) = 3 , j¢¢¢¢(1) = . p p p p4 Используя соотношения (4.17) – (4.19), (4.21), получим моментные ЧХ: q m q q 1+ q mx = , Dx = 2 , s x = , As = 33 = . p p p sx q j¢(1) = Сдвинутое геометрическое распределение Гипергеометрическое распределение Распределение P(Y = k) = qk –1p, k = 1, 2,…отличается от геометрического тем, что его возможные значения увеличены на 1 по сравнению с геометрическим распределением X: Y = X + 1. Cогласно свойствам МО и дисперсии q 1 M[Y] = M[X +1] = M[X] +1 = + 1 = , (4.31) p p q D[Y] = D[X +1] = D[X] = 2 . (4.32) p В предыдущей лекции было показано, что при определенных условиях гипергеометрическое распределение почти не отличается от биномиального. Следовательно, ЧХ этого распределения при тех же условиях можно вычислять по формулам, выведенным для биномиального распределения. Проверим правильность этого утверждения в условиях выборки из большой и малой партии, сравнив результаты вычисления МО и дисперсии непосредственно по ряду распределения, полученному электронной формулой Sampling, или с помощью универсальной электронной формулы MDS для вычисления ЧХ (Листинг 4.1) >>N=1000;R=100;M=20;k=0:M;P=Sampling(N,R,M,k);m=sum(P.*k), D=sum(P.*(k-m).^2) m = 2.0000 D = 1.7657 >> N=50;R=5; [M,D]=MDS('hipergeo',50,5,20) m = 2.0000 D = 1.1020 В первом случае n = 20 раз повторяется выбор из большого числа (N = 1000) изделий с практически одинаковой вероятностью p = 100/1000 = 0,1 выбрать бракованное. В условиях испытаний Бернулли с такими параметрами среднее число бракованных изделий в контрольВероятностные основы.4. Числовые характеристики случайных величин 9 ной партии составляло бы np = 20×0,1 = 2, дисперсия – npq = 20×0,1×0,9 = 1,8, что практически совпадает с результатами вычисленными значениями тех же ЧХ по гипергеометрическому распределению. В случае большого отличия между многоугольниками истинного распределения и биномиального приближения (при малом объеме партии N = 50) МО не изменилось, но истинная дисперсия оказалась существенно меньше, что согласуется с характером различия многоугольников распределения на рис. 3.4: симметрично уменьшились вероятности отклонений от среднего значения. Требования к сатистическим оценкам Статистическая оценка МО Статистическое оценивание числовых характеристик Числовые характеристики определяются параметрами закона распределения, но бывает так, что закон распределения известен из теоретических соображений, а его параметры – нет. Например, то, что число попаданий фрагментов в площадку, ориентированную перепендикулярно направлению разлета, подчиняется закону Пуассона, вытекает из свойств пуассоновского поля, но среднее число попаданий (параметр закона) подлежит экспериментальному определению. Из наблюдаемых в N экспериментах чисел попаданий X1, …, XN нужно получить оценку среднего числа попаданий и дисперсии. Статистическая оценка неизвестного параметра теоретического распределения как функция от наблюдаемых реализаций СВ сама является случайной величиной и также характеризуется МО и дисперсией. Вид функции для статистических оценок каждого параметра распределения выбирают так, чтобы МО оценки совпадало с оцениваемым параметром при любом объеме выборки (несмещенность), а ее дисперсия была минимально возможной при заданном объеме выборки (эффективность). Состоятельной называют оценку, которая при N ® ¥ стремится по вероятности к нулю. Свойства ЧХ функций СВ, каковыми являются статистические оценки, будут подробно изучены в Лекции 9. Согласно (4.0) среднее арифметическое результатов наблюдений по вероятностному смыслу полностью соответствует МО наблюдаемой СВ. В Лекции 9 будет показано, что среднее арифметическое является несмещенной, эффективной и состоятельной статистической оценкой МО: mx = 1 N N åX i и M [m x ] = mx. i =1 (4.33) Разности Xi – m x между наблюдаемыми значениями и средним называют отклонением. Из (4.33) следует, что сумма всех отклонений равна нулю. Сумма квадратов отклонений всегда положительна и характеризует рассеяние наблюдаемой СВ. Оценки дисперсии Из того, что дисперсия определена как МО квадратов центрированной СВ, а оценкой МО является среднее арифметическое, можно заключить, что в качестве оценки дисперсии D x следует принять среднее арифметическое квадратов отклонений: D x* = 1 N å ( X i - mx ) 2 , N i =1 (4.34) однако, как будет показано в Лекции 9, эта оценка смещенная, хотя смещение стремится к нулю при N ® ¥ (такая оценка называется асимптотически несмещенной). Несмещенной, эффективной и состоятельной является так называемая исправленная дисперсия, отличающаяся от D x* при небольших объемах выборки: Вероятностные основы.4. Числовые характеристики случайных величин 10 ~ D x = D x* N 1 N 2 = å ( X i - mx ) . N - 1 N - 1 i =1 (4.35) Для удобства вычислений эту формулу удобно преобразовать к виду: ~ Dx = Оценки корреляции (4.36) Оценку корреляционного момента и коэффициента корреляции вычисляют по формулам: ~ K xy = ~ r = Вычисления оценок параметров распределений в MATLAB 1 éN 2 ù X i - m x2 N ú . å ê N - 1 ë i =1 û 1 N å ( X i - m x )(Yi - m y ) , N - 1 i =1 ~ K xy ~ ~ Dx D y (4.37) (4.38) Точечные оценки результатов наблюдений вычисляет файл_функция Ocenki_m_D (Листинг 4.2). В библиотеке MATLAB среднее значение массива вычисляет функция mean, стандартное отклонение – функция std. Вычисления по формулам (4.37), (4.38) удобнее выполнять файл-функцией CorrelCoef (Листинг 4.3), чем аналогичной функцией corrcoef из библиотеки MATLAB, которая возвращает матрицу коэффициентов корреляции. Сформируем два массива случайных значений X и Y, и вычислим оценки СКО и корреляции: >> N=10000;X=rand(1,N);Y=randn(1,N);sX=std(X),sY=std(Y),[r,K]=CorrelCoef([X;Y]) sX = 0.2881 sY = 1.0015 r = 0.0005 K = 0.0014 Так как объем статистики очень большой, полученные оценки близки к истинным s[X] = 1/Ö12 = 0.2887, s[Y] = 1, r = K = 0 (X, Y независимы). Если образовать функционально зависимый вектор Z(X), то оценка коэффициента корреляции этих векторов должна иметь максимальное значение 1, а корреляция между Z и Y должна быть нулевой: >> Z=X*2; rXZ=CorrelCoef([X;Z]),rYZ=CorrelCoef([Y;Z]) rXZ = 1.0000 rYZ = 0.0050 Точность оценок При очень большом объеме статистического материала оценки параметров распределения очень близки к истинным значениям. Если же команды из предыдущего примера повторить при N<100, что более приемлемо для реальных экспериментов, расхождение станет существенным. Естественно, возникает вопрос о доверии к оценкам и необходимом объеме статистики. При достаточном объеме и не высоких требованиях к достоверности полученные оценки принимают за приближенные значения соответствующих параметров распределения (точечное оценивание). Более полную информацию о качестве оценивания дают доверительные границы для оцениваемого параметра, вычисленные при заданной доверительной вероятности. Если, например, mн, mв и [m1н, m1в] соответственно нижняя и верхняя доверительные границы МО, это значит, что интервалы [–¥, mв], [mн, ¥] или [mн, mв] с заданной вероятностью накроют неизвестное значение МО. Доверительный интервал для оценок Обычно используют два разных подхода для определения доверительных границ. Первый подход, основанный на точном распределения, будет обоснован в Лекции 9. Второй подход основан на том, что для несмещенных или ~ асимптотически несмещенной оценки θ параметра q должно выполняться неравенство ~ P | θ - θ |< ε > β ( ) при заданной доверительной вероятности b и некотором значении e. Минимальное значение e = eb, при котором выполняется это неравенство и опреВероятностные основы.4. Числовые характеристики случайных величин 11 деляет границы доверительного интервала, содержащего точечную оценку: ~ ~ ~ [ θ – eb, θ + eb]. Поскольку ни закон распределения СВ θ , ни его параметры (в том числе и оцениваемый параметр q) неизвестны, приходится вносить ~ упрощения. Если θ – оценка МО, то на основании центральной предельной теоремы закон распределения этой СВ как суммы достаточно большого числа N независимых слагаемых (результатов наблюдений) близок к нормальному с параметрами m и D/N. Заменив неизвестные параметры точечными ~ оценками m и D , получим выражение для искомого eb: ~ D -1 æ β ö eb = F ç ÷. N è2ø Используя ArgLaplas для вычисления обратной функции Лапласа, составим программу IntForM (Листинг 4.4) для вычисления границ доверительного интервала относительно оценки МО m : [ m – eb, m + eb]. Генерируем N =1000 реализаций СВ с параметрами m = 5 и s = 3, а затем вычислим по Влияние объема выборки и довери- этим данным точечные оценки этих же параметров и доверительные границы для среднего: тельной вероятно>> N=1000;X=randn(1,N)*3+5;[m,D,s]=Ocenki_m_D(X);m,s,[m1,m2]=IntForM(0.9,X) сти на качество m = 5.0683 s = 2.9249 m1 = 4.9162 m2 = 5.2205 оценок параметров Повторим ту же команду при N =50: >> N=50;X=randn(1,N)*3+5;[m,D,s]=Ocenki_m_D(X);m,s,[m1,m2]=IntForM(0.9,X) m = 4.4154 s = 2.2215 m1 = 3.8986 m2 = 4.9321 Если при N =1000 оценки близки к истинным значениям параметров, то при небольшом объеме статистики N =50 разница значительна, причем истинное значение МО даже не попадает в доверительный интервал. Исследуем влияние объема выборки и доверительной вероятности на качество интервальных оценок. Для этого получим 100 доверительных интервалов по N =50 реализациям той же СВ и и выведем их на график так, чтобы доверительные интервалы, не содержащие истинного МО, выделялись красным цветом. Составим выражение setcolor, определяющее цвет линии (синий или красный), а также выражение для цикла розыгрышей N случайных чисел со средним значением 5 и построения доверительных интервалов для оценки среднего в каждом розыгрыше: >> plt='c=''b'';if m1>5|m2<5 c=''r'';end,plot([m1,m2],[i,i],c),hold on' >> loop = 'for i=1:100 X=randn(1,N)*3+5;[m1,m2]=IntForM(P,X);L(i)=m2-m1;eval(plt),end' В цикле loop запоминаются длины доверительных интервалов для каждого из 100 розыгрышей. Выполнив цикл при небольшом числе испытаний N =50 и доверительной вероятности 0.9, получим 100 разных доверительных интервалов (они зависят от исходной статистики), причем, примерно десятая часть из них не содержит истинного (рис. 4.1, а): >> N=50;P=0.9; eval(loop), m=mean(L) m = 1.3723 Увеличение объема выборки до N =1000 сокращает доверительные интервалы, но не повышает надежности интервальной оценки (рис. 4.1, б): >> N=1000;P=0.9; eval(loop), m=mean(L) m = 0.3124 Увеличение доверительной вероятности до 0,99 при том же числе испытаний N =1000 несколько расширяет доверительный интервал, но сильно повышает надежность оценки, хотя и не исключает «красных» интервалов (рис. 4.1, а): >> N=1000;P=0.99; eval(loop), m=mean(L) m = 0.4822 Генерируем N релизаций СВ, распределенной по закону Пуассона с параметром 3 и вычислим оценки параметра при N=100 и N=10: Вероятностные основы.4. Числовые характеристики случайных величин 12 >> X=Gen( 'Poi', 3, 100);[m,D]=Ocenki_m_D(X),[m1,m2]=IntForM(0.8,X) m = 2.9800 D = 3.2521 m1 = 2.7489 m2 = 3.2111 >> X=Gen( 'Poi', 3, 10);[m,D,s]=Ocenki_m_D(X), [m1,m2]=IntForM(0.8,X) m = 3.7000 D = 7.3444 m1 = 2.6017 m2 = 4.7983 Если при N=100 оценка близка к параметру, то 10-и испытаний слишком мало для полцчения удовлетворительной точности. То, что оценка дисперсии в 2 раза больше оценки МО, не характерно для закона Пуассона. 100 80 60 40 20 3.5 4 4.5 5 а 5.5 6 6.5 4.5 5 5.5 4.5 б 5 5.5 в Рис. 4.1. Доверительные интервалы МО для СВ с m = 5 и s = 3 при: а) N=50;P=0,9; б) N=1000; P=0,9; в) N=1000; P=0,99. Вероятностные основы.4. Числовые характеристики случайных величин 13 Программа верификации кода MATLAB clear all n=10;p=linspace(0.6,0.3,n); m=dot(RptTrial(p),0:n),D=dot(RptTrial(p),[0:n].^2)-m^2 L=10;x=linspace(0,0.999,100)*L;f=2/pi./sqrt(L^2-x.^2);Trap(f,x) m=Trap(x.*f,x), mt = 2*L/pi, a2=Trap(x.^2.*f,x), D=a2 - m^2, sigma=sqrt(D) clear all S=[2,1,0.5,0.2];M1=6*S./(1+S) for s=S for k=1:5 M(k)=k-dot(k-[0:(k-1)],p_Poisson(s*(6-k),0:k-1));end,M,end N=100;R=100;M=20;k=0:M;P=Sampling(N,R,M,k);m=sum(P.*k), D=sum(P.*(k-m).^2) N=50;R=5; [M,D]=MDS('hipergeo',50,5,20) clear all N=1000;X=rand(1,N);Y=randn(1,N);sX=std(X),sY=std(Y),[r,K]=CorrelCoef([X;Y]) Z=X*2; rXZ=CorrelCoef([X;Z]),rYZ=CorrelCoef([Y;Z]) N=1000;X=randn(1,N)*3+5;[m,D,s]=Ocenki_m_D(X);m,s,[m1,m2]=IntForM(0.9,X) N=50;X=randn(1,N)*3+5;[m,D,s]=Ocenki_m_D(X);m,s,[m1,m2]=IntForM(0.9,X) plt='c=''b'';if m1>5|m2<5 c=''r'';end,plot([m1,m2],[i,i],c),hold on' loop = 'for i=1:100 X=randn(1,N)*3+5;[m1,m2]=IntForM(P,X);L(i)=m2m1;eval(plt),end' N=50;P=0.9; eval(loop), m=mean(L) N=1000;P=0.9; eval(loop), m=mean(L) N=1000;P=0.99; eval(loop), m=mean(L) X=Gen( 'Poi', 3, 100);[m,D]=Ocenki_m_D(X),[m1,m2]=IntForM(0.8,X) X=Gen( 'Poi', 3, 10);[m,D,s]=Ocenki_m_D(X), [m1,m2]=IntForM(0.8,X) Вероятностные основы.4. Числовые характеристики случайных величин 14 Контрольные вопросы и задачи 1. Объясните вероятностный смысл МО и СКО. 2. Назовите числовые характеристики положения. Как они характеризуют дискретное и непрерывное распределение? 3. Что характеризует СВ срединное отклонение? Чем оно отличается от аналогичной моментной характеристики? 4. Почему дисперсия оценки МО при выводе формулы (4.37) принята равной D/N, где D – дисперсия оцениваемой СВ, N – число наблюдений? 5. Объясните вероятностный смысл корреляционного момента и коэффициента корреляции. 6. Как связаны второй центральный и второй начальный моменты? 7. Как выражаются МО и СКО через параметры биномиального распределения?. 8. Каковы особенности МО, СКО и моды закона Пуассона? 9. Сравните МО и дисперсию геометрического и «геометрического + 1» распределений. Как вычислить МО и дисперсию расхода снарядов в стрельбе до первого попадания? 10. Как вычислить числовые характеристики гипергеометрического распределения? 11. Вычислить числовые характеристики СВ X, распределенной по биномиальному закону с параметрами n = 12, p = 0,25. Правильно ли, что МО этой СВ равно 3, а дисперсия составляет ¾ от этой величины? 12. Положительна или отрицательна асимметрия распределения в предыдущем вопросе? Чтобы выяснить это, вычислим моментные ЧХ для СВ X, распределенной по биномиальному закону с параметрами n = 12, p = 0,25, используя формулы (4.1) – (4.10) и электронную формулу p_Binom: >> n=12;p=0.25; X=p_Binom(p,n); k=0:n; plot(k,X), M=sum(X.*k), D=sum(X.*(k-M).^2) M = 3 D = 2.2500 >> sigma = sqrt(D), As=sum(X.*(k-M).^3)/sigma^3, Ex=sum(Y.*(k-M).^4)/sigma^4-3 sigma = 1.5000 As = 0.3333 Ex = -0.0556 Сопоставив результаты с многоугольником распределения (рис. 4.2, а) обнаружим, что МО mx = 3 совпало в данном случае с модой Mo = 3, дисперсия Dx = 2,25 такова, что СКО sx = 1,5 больше, чем разница между ближайшими возможными значениями, асимметрия As = 1/3 распределения, более пологого справа от МО, положительна, эксцесс Ex = -0,056 близок к нулю. Многоугольник распределения с параметрами n = 12, p = 0,75 на рис. 4.2, б представляет собой зеркальное отражение предыдущего графика, МО и мода, соответственно смещены вправо, асимметрия отличается знаком: а б Рис. 4.2. Многоугольники биномиального распределения с параметрами: а) n = 12, p = 0,25; б) n = 12, p = 0,75. Вероятностные основы.4. Числовые характеристики случайных величин 15 Лекция 5 Законы распределения непрерывных СВ Расстояние между точками пуассоновского поля В некоторых случаях интерес представляет не количество случайных точек поля в какой-то области, а расстояние между соседними, то есть любыми двумя ближайшими точками поля (расстояние между пробоинами в корпусе, влияющее на сохранение несущей способности, промежуток времени между двумя запросами на обслуживание, от которого зависит вероятность отказа). Речь идет о случайных величинах, и нужно построить для них функции распределения F(r) = P(R < r). Событие (R < r) означает, что расстояние R от произвольной точки поля до ближайшей соседней меньше r. Пространственное поле: распределение Максвелла В трехмерном пространстве событие (R < r) эквивалентно попаданию в сферу радиуса r с центром в выбранной точке еще хотя бы одной точки поля. Так как поле простейшее пуассоновское, число точек внутри сферы подчиня4 ется закону Пуассона с параметром a = pr3l и вероятность попадания хотя 3 a бы одной точки внутрь сферы равна 1– p0 = 1– e – , расстояние между ближайшими точками пространственного поля подчиняется закону Максвелла ìïP(R < r) = 1- e-43pr3l , r ³ 0, F(r) = í ïî0, r < 0, f (r) = F¢(r) = 4plr 2 e Плоское поле: распределение Рэлея -4 3 pr3l (5.1) (5.2) , r ³ 0. То же событие (R < r) на плоскости означает попадание хотя бы одной точки в круг радиуса r: 2 F(r) = P(R < r) = 1 - e -pr l , r ³ 0; 2 f (r) = F ¢(r) = 2plre-pr l , r ³ 0. (5.3) (5.4) Расстояние между соседними точками простейшего пуассоновского поля на плоскости подчиняется закону Рэлея. Линейное поле: показательное распределение В одномерном пуассоновском поле вероятность попадания случайной точки на отрезок длиной 2r с центром в выбранной точке определяется параметром закона Пуассона 2rl: F ( r ) = P ( R < r ) = 1 - e - 2 rl , r ³ 0. В простейшем пуассоновском потоке событий интервал времени до наступления ближайшего события в будущем односторонний, поэтому показательный закон записывают в виде: F (t ) = P(T < t ) = 1 - e -lt , t ³ 0, f (t ) = F ¢(t ) = le -lt , t ³ 0. (5.5) (5.6) 1 Показательный закон распределения Показательное (экспоненциальное) распределение применяется в теории надежности, теории массового обслуживания для вычисления вероятностей событий, связанных с пуассоновскими потоками (заявок, отказов). Числовые характеристики показательного распределения Мода показательного распределения равна нулю, так как f(0) = l > f(x), "x > 0 (рис.5.1). Это значит, что вероятность первого наступления события в малом интервале [x, x + Dx] P(x < X < x + Dx) = f(x)Dx наибольшая при x = 0. С ростом x возрастает вероятность P(X < x) того, что событие уже произошло, элемент вероятности f(x)Dx уменьшается, но условная вероятность первого наступления события остается постоянной: 1 F(x) 0.5 x Me f(x) 1 0.5 x Mo Рис. 5.1. Графики показательного распределения P(( x < X < x + Dx)( X > x)) = P( X > x) P( x < X < x + Dx) F ( x + Dx) - F ( x) f ( x)Dx = = = = lDx. P( X > x) 1 - F ( x) e - lx P( x < X < x + Dx | X > x) = Из уравнения F(Me) = 0,5 найдем медиану распределения: 1 ln 2 1 - e - lMe = Þ Me = . l 2 Для получения моментных ЧХ определим все начальные моменты: ¥ ¥ u = xk k k - lx k - lx ¥ a k [ X ] = ò x le dx = = + x e kx k -1e -lx dx = a k -1 [ X ]. ò - lx l v = -e –l x Первое слагаемое обращается в ноль, так как при k® ¥ экспонента e k убывает быстрее, чем растет x , а второе слагаемое выражено через начальный момент младшего порядка. Начальные моменты показательного распределения связаны рекуррентным соотношением, причем a0[X] = M[X0] = 1: k k - 1 1 k! ak [X ] = L = k . l l l l Теперь легко получить моментные характеристики: 1 (5.7) mx = a1[X] = , l 2 1 1 (5.8) Dx = m2 = a2[X] – mx2 = 2 - 2 = 2 , l l l 1 s x = Dx = . (5.9) l То, что МО совпадает с СКО, характерная особенность показательного закона. Центральные моменты для асимметрии и эксцесса получим, воспользовавшись соотношениями (4.18), (4.19): 6 1 1 1 2 m3[X] = a3 – 3mm2 – m3 = 3 - 3 - 3 = 3. 2 ll l l l 24 1 2 1 1 1 9 -4 -6 2 2 - 4 = 4 . 4 3 ll l l l l l 3 Итак, показательное распределение имеет As =m3/s = 2, Ex = m4/s4–3 = 6. m4[X] = a4 – 4mm3 – 6m2m2 – m4 = Вероятностные основы. 5. Законы распределения непрерывных СВ 2 Показательный закон распределения в теории надежности При показательном распределении моментов наступления отказов вероятность безотказной работы устройства в некотором интервале времени при постоянной плотности отказов зависит только от длительности интервала и не зависит от продолжительности предшествующей безотказной работы. Эта особенность (говорят, показательный закон не имеет ни паt мяти, ни совести) – следствие условий простейшего пуассоновского потока. Действительно, если в начальный момент времени t0 устройство работоспособно, т.е. (T > t0), вероятность того, что и в последующий период (t0, t1) не произойдет отказ, определяется как условная: Особенность показательного закона l l = const t0 t1 P((T > t1 )(T > t 0 )) P(T > t1 ) 1- F(t1 ) -l(t1 -t0 ) =e = = . P(T > t 0 ) P(T > t 0 ) 1- F(t 0 ) Опыт подсказывает, что надежность технических устройств со временем меняется. Поток отказов можно считать стационарным только в течение определенного срока, в общем случае функция распределения не является показательной. В нестационарном пуассоновском потоке с плотностью l(t) среднее число отказов a в интервале (0, t) получается интегрированием l(t) по этому интервалу: P((T > t1 ) /(T > t 0 )) = Нестационарный пуассоновский поток l l(t) t0 t1 t t F (t ) = P(T < t ) = 1 - p 0 = 1 - e - a = 1 - e - ò l (t)dt . (5.10) В том, что эта форма функции распределения отказов самая общая, можно убедиться, рассматривая интенсивность отказов в нестационарном потоке как отношение условной вероятности первого отказа в бесконечно малом интервале t + dt к длительности этого интервала: P((t < T £ t + Dt ) / (T > t ) P(t < T £ t + Dt ) / Dt ) = l(t ) = lim = lim Dt ® 0 Dt ® 0 Dt P(T > t ) ( F (t + Dt ) - F (t )) / Dt F ¢(t ) f (t ) = lim = = . Dt ® 0 1 - F (t ) 1 - F (t ) P(T > t ) Выразим интенсивность отказов через функцию надежности R(t) =1 – F(t): R ¢(t ) l(t ) = . R(t ) Решая это уравнение с начальным условием R(0) = 1 (в начальный момент устройство исправно), получим t - ò l(t)dt R(t ) = e 0 , что подтверждает справедливость формулы (5.10). Вероятность безотказной работы в период (t0, t1) при условии, что в момент t0 устройство исправно æ t1 ö 1 - F (t1 ) P((T > t1 ) /(T > t 0 )) = = expç - ò l (t )dt ÷ , ç t ÷ 1 - F (t 0 ) è 0 ø зависит от продолжительности предшествующей работы в той мере, в какой интенсивность отказов зависит от времени. Только при показательном распределения отказов интенсивность не зависит от времени: le - lt f (t ) = = l , R(t ) = e - lt . - lt 1 - F (t ) 1 - (1 - e ) Вероятностные основы. 5. Законы распределения непрерывных СВ 3 Надежность последовательных и параллельных соединений элементов Надежность сложной системы зависит от надежности ее элементов и от того, в какой мере отказы элементов влияют на работоспособность системы в целом. В системах без резервирования (с последовательным соединением элементов) отказ каждого элемента приводит к отказу системы. Функция надежности получается как произведение функций надежности элементов: (5.11) R(t) = Õ Ri (t ) = Õ e -l it = expæç - å l i t ö÷ . è i ø i i Интенсивность отказов последовательной схемы равна сумме интенсивностей отказов элементов. Отказ резервированного звена наступает при отказе всех его элементов. Функция отказов параллельного соединения равна произведению функций отказов элементов: F(t) = Õ Fi (t ) . (5.12) i Статистическое моделирование надежности Моделируя поток отказов в системе без резервирования генератором случайных реализаций с параметром ‘exp’, разыграем N серий по n реализаций – моменты наступления отказов в n элементах. К отказу системы приведет самый ранний отказ. Построим эмпирические функции распределения моментов отказа последовательной цепочки (рис. 5.3, а): >> L=1;N=10000;n=10;B=Gen('exp',L,n,N); minB=min(B); maxB=max(B); >> [F,f,H,K]=SmartHist(minB,[],20);Show(K),hold on,plot(H.x,1-exp(-L*n.*H.x), 'g') Нанесена кривая функции распределения отказов последовательного соединения элементов – показательный закон с параметром nli = 10 согласно формуле (5.11). Кумулята моментов отказа резервированного звена (б) построена по максимальным моментам отказов, так как система работает, пока не откажет последний элемент: 1 1 F(t) F(t) 0.5 0.5 0.5 t а 2 4 б t 6 Рис. 5.3. Эмпирические функции распределения отказов в последовательной (а), параллельной (б) схемах >>[F,f,H,K]=SmartHist(maxB,[],20);figure, Show(K), hold on,plot(F.x,F.F,'r') Аппроксимировать статистическую функцию распределения показательным законом в этом случае нельзя, так как даже визуально из рис. 5.3, б можно видеть, что статистическая функция распределения имеет перегиб не характерный для показательной функции. Воспользуемся программой аппроксимации законов распределения ApproxLaw (Листинг 5.1), чтобы подобрать более подходящий закон. F 1 На рис. 5.4 статистическая функция распределения отказов параллельного соединения (гладкая кривая на рис. 5.3, б) показана ступенчатой линией, чтобы она лучше отличалась от гладких аппроксимирующих кривых. 0.2 0.9 0.8 0.7 0.6 0.5 normal law Weibull Rayleigh statistical 0.4 0.3 0.1 2 4 6 x Рис. 5.4. Эмпирические функции распределения отказов в последовательной (а), параллельной (б) схемах Вероятностные основы. 5. Законы распределения непрерывных СВ 4 Для функции аппроксимации нужно задать сокращенное название закона (как и программе Gen), а также статистическую функцию распределения: >> [Fun,Par,err]=ApproxLaw('Ray',F); plot(K.x,Fun(K.x,Par),'g') Fun = Inline function: Fun(x,L) = 1-exp(-(x.^2/(2*L^2))) Par = 2.1920 err = 0.0209 Возвращает ApproxLaw сформированную инлайн-функцию и ее параметры, и среднеквадратическую ошибку. В этой же команде построен график полученной аппроксимирующей функции в форме закона Рэлея, который заметно отличается от истинного распределения в поздних периодах. Возьмем теперь нормальный закон: >> [Fun,Par,err]=ApproxLaw('norm',F); plot(K.x,Fun(K.x,Par),'b') Аппроксимация нормальным законом (синяя кривая) совпадает с точной в поздних периодах, но сильно отличается в начале. Выберем двухпараметрический закон Вейбулла: >> [Fun,Par,err]=ApproxLaw('Wei',F), plot(K.x,Fun(K.x,Par),'r') Fun = Inline function: Fun(x,L) = 1-exp(-(x*L(1)).^L(2)) Par = 0.3202 2.6881 err = 0.0122 Красная кривая занимает промежуточное положение между первыми двумя аппроксимирующими кривыми. Приближение законом Вейбулла дает наименьшую среднеквадратическую ошибку err. Распределение Вейбулла Надежность схем с резервированием не подчиняется показательному закону. Потоки отказов в сложных системах описывают более общим двухпараметрическим законом Вейбулла: F (t ) = 1 - e -(l t ) , t ³ 0, a (5.13) a f (t ) = F ¢(t ) = al (l t ) a -1 e -( l t ) , t ³ 0. (5.14) Параметр a определяет форму распределения Вейбулла. В частности, при целых a закон Вейбулла превращается в показательный (a = 1), Рэлея (a = 2) или Максвелла (a = 3). Это значит, что выражения для числовых характеристик закона Вейбулла общие для данного семейства распределений. Мода и медиана зависят от параметров распределения следующим образом: 1 1 æ a -1öa Mo = ç ÷ , lè a ø 1 Me = a ln 2 . l (5.15) (5.16) Нетрудно убедиться подстановкой a = 1 в эти формулы, что из них вытекают выражения для Mo и Me показательного закона. Начальные моменты выражаются через гамма-функцию (см. Приложение): ak[X] = G(1 + k/a)/lk. (5.17) Отсюда легко получим выражения для МО, дисперсии и асимметрии (см. соотношения между начальными и центральными моментами в Лекции 4): Mx = G(1 + 1/a)/l, (5.18) Dx = G(1 + 2/a)/l2 – Mx2. (5.19) As = G(1 + 3/a)/l3 – 3 Mx Dx – Mx3. (5.20) Вероятностные основы. 5. Законы распределения непрерывных СВ 5 Надежность сложных систем Логика функционирования реальных систем обычно сочетает последовательные и параллельные соединения отдельных элементов или блоков элементов, при том что характеристики надежности, как правило, определяются для элементов. В связи с этим возникают проблемы прогнозирования надежности, обеспечения требуемого уровня надежности проектируемой системы. Это часть проблемы системного анализа эффективности, поскольку радикальное повышение эффективности так или иначе связано с усложнением системы, что ведет к снижению надежности (и реальной эффективности). Повысить надежность системы при данных характеристиках надежности комплектующих элементов можно резервированием, регламентированием режима эксплуатации, профилактическими и восстановительными мероприятиями. Для получения нужного результата эти действия должны быть согласованы в рамках модели надежности системы. Но если простая совокупность элементов (последовательное соединение) имеет простую модель надежности, то резервирование ведет к усложнению модели. Получение количественной оценки надежности исключительно математическим аппаратом возможно лишь при упрощающих допущениях, что для системного анализа категорически неприемлемо. В качестве инструмента системного анализа надежности можно использовать объектно-ориентированную модель потока отказов, учитывающую все особенности функциональных элементов с точки зрения надежности и реальную схему их взаимодействия в системе. Логика отказов последовательных и параллельных цепочек определены в классе RabLog операциями сложения и умножения (Листинг 5.2) подобно тому, как правила сложения и умножения вероятностей реализованы в классе Accid. По реализациям отказов элементов (массив B) построим функцию отказов схемы, состоящей из трех резервированных звеньев (1Ú2Ú3Ú4) Ù (5Ú6Ú7Ú8) Ù (9Ú10): >> L=1;N=10000;n=10;B=Gen('exp',L,n,N); S='sum(U(1:4))*sum(U(5:8))*(U(9)+U(10))'; >> b=[]; for i=1:N U=RabLog(B(:,i));b(i)=Value(eval(S));end,[F,f,H,K]=SmartHist(b,[],50); С помощью функции Approx найдем параметры l и a закона Вейбулла для аппроксимации кумуляты отказов системы, построим графики статистического распределения и аппроксимации (рис. 5.5): >> [Fun,Par]=Approx('1-exp(-(x*L(1)).^L(2))',F.x, F.F ,[1 1]) Fun(x,L) = 1-exp(-(x*L(1)).^L(2)) Par = 1.4839 1.4601 >> Lam=prod(Par).*(Par(1)*f.x).^(Par(2)-1) ; ff=Lam.*exp(-(Par(1)*f.x).^Par(2)); >> Show(F,'k', f,'k'), FF=Fun(f.x,Par); hold on,plot(f.x, FF, 'r', f.x, ff, 'r') Аппроксимирующие кривые по F, f закону Вейбулла для функции и плотности распределения (сплошные ли1 нии) качественно соответствуют пунктирным статистическим кривым, хотя не вполне совпадают. Сравним точеч0.5 ные оценки МО и дисперсии с соответствующими характеристиками теоретического закона: x 1 2 >> m=mean(b),s=std(b) Рис. 5.5. Статистическое распределение отказов m = 0.6326 s = 0.4550 (пунктир) в последовательно-параллельном >> [m,D,s]=MDS('Wei',Par); m, s соединении и аппроксимация законом Вейбулла m = 0.6010 s = 0.3964 Интенсивность отказов по закону Вейбулла (парабола al(lx)a –1, l = 1,48, a = 1,46) качественно отличается от статистической интенсивности (синие кривые): >> plot(f.x(1:30),f.f(1:30)./(1-F.F(1:30))/3, 'g', f.x,ff./(1-FF)/3) Вероятностные основы. 5. Законы распределения непрерывных СВ 6 Объектноориентированный анализ надежности Инкапсуляция логических правил исчисления надежности системы в специальный класс имеет очевидное преимущество перед традиционным подходом, основанным на аналитическом моделировании. Объектное моделирование не требует упрощений, свойственных аналитическим методам, поэтому точность вычислений не зависит от степени сложности системы. Достаточно лишь четко определить параметры надежности элементов и схему их соединения. Но это не всегда возможно. Характеристики надежности элементов могут зависеть от времени, от условий эксплуатации, профилактических мероприятий и т.д. Резервирование может быть эксплуатационным (заменяется вышедшее из строя устройство целиком, как участок S2 на рис. 5.6) или блочным. Блочное резервирование может быть нагруженным, когда резервный элемент работает одновременно с основным, или ненаруженным, включаемым только при выходе из строя основного элемента. При резервировании (элемента E5 элементом R5) учитывается и надежность переключателя (r5), который может быть единым для всех резервных элементов или индивидуальным, количество резервных элеметов может быть неизвестным и подлежать оптимизацияи по критерию стоимости системы в целом. S1 S2 S3 S4 R62 E1 E2 E31 E41 E3 E4 r5 R5 E5 R61 E6 Рис. 5.6. Функциональная схема надежности системы Если абстрагироваться от всех особенностей или каким-то образом неявно учитывать их, назначая числовой параметр надежности, системный анализ теряет смысл. Полиморфизм объектного моделирования позволяет обогащать набор свойств каждого элемента системы, сохраняя алгебру операций с ними, определенную в базовом классе (RabLog), и базовую технологию приведения подсистем к эквивалентным по надежности простым элементам. В основе этой технологии – статистическое моделирование отказов элементов согласно их индивидуальным свойствам с последующей аппроксимацией статистических распределений наиболее подходящим теоретическим законом (экспоненциальным, нормальным, логнормальным, Вейбулла и др.). Конструктор класса RabSys получает список свойств элементов системы и создает соответствующие объекты. Соединение подсистем считается последовательным, если оно не задано символьной строкой. Метод RabSys\EqLaw подбирает эквивалент надежности для системы, пользуясь генераторами событий и аппроксимационными методами, реализованными в этом же классе. Этими средствами можно, например, описать надежность схемы, показанной на рис. 5.6, оценить закон распределения отказов этой системы и его параметры: >> R=Rab('exp',1.1,'exp',1.2,'exp',2.7,1,'exp',1.5,1,1.4,0.9,'exp',1.6,3); [Law,P]=EqLaw(R) Law = Inline function: Law(x,L) = 1-exp(-(x*L(1)).^L(2)) P = 3.8518 1.2607 Аргументами конструктора Rab заданы надежности элементов E1, …, E6 с параметрами показательного закона 1,1, 1,2, 1,3, 1,4, 1,5, 1,6. Параметр надежности элемента R5 равен 1,4, надежность переключателя r5 задана вероятностью 0,9. Надежность элементов R61, R61 принята равной надежности основного элемента, а переключение – абсолютно надежным. В результате получено, что надежность этой системы описывается законом Вейбулла с параметрами l = 3,85, a = 1,26. Вероятностные основы. 5. Законы распределения непрерывных СВ 7 Это значит, что выделенный фрагмент сложной системы можно заменить простым элементом c эквивалентной интенсивностью отказов по закону Law с параметрами P. Чтобы убедиться в этом, присоединим последовательно к подсистеме на рис. 5.6 еще точно такую же, во втором варианте присоединим ее эквивалент, и, наконец, соединим два эквивалента. Надежности трех вариантов должны быть одинаковы: >> R1=Add(R,'exp',1.1,'exp',1.2,'exp',2.7,1,'exp',1.5,1,1.4,0.9,'exp',1.6,3); >> R2=Add(R,'Wei',P); R3=Rab('Wei',P,'Wei',P); >> [L1,P1]=EqLaw(R1); [L2,P2]=EqLaw(R2); [L3,P3]=EqLaw(R3); P,P1,P2,P3 P1 = 6.7901 1.2146 P2 = 6.7712 1.2231 P3 = 6.8384 1.2746 Характеристики надежности систем, представленных объектами R1, R2, R3 практически одинаковы, хотя сами объекты имеют разные структуры: >> R1 R1(1)=exp(1.1) R1(2)=exp(1.2) R1(3)=exp(2.7) rezerv: 1, parameter: 2.7, switch: 1 R1(4)=exp(1.5) rezerv: 1, parameter: 1.4, switch: 0.9 R1(5)=exp(1.6) rezerv: 3, parameter: 1.6, switch: 1 R1(6)=exp(1.1) R1(7)=exp(1.2) R1(8)=exp(2.7) rezerv: 1, parameter: 2.7, switch: 1 R1(9)=exp(1.5) rezerv: 1, parameter: 1.4, switch: 0.9 R1(10)=exp(1.6) rezerv: 3, parameter: 1.6, switch: 1 >> R2 R2(1)=exp(1.1) R2(2)=exp(1.2) R2(3)=exp(2.7) rezerv: 1, parameter: 2.7, switch: 1 R2(4)=exp(1.5) rezerv: 1, parameter: 1.4, switch: 0.9 R2(5)=exp(1.6) rezerv: 3, parameter: 1.6, switch: 1 R2(6)=Wei(3.85,1.26) >> R3 R3(1)=Wei(3.85,1.26) R3(2)=Wei(3.85,1.26) Показательный закон в теории массового обслуживания Вопросы, связанные с пропускной способностью систем, обслуживающих случайные потоки заявок, изучает теория массового обслуживания – раздел теории вероятностей. Параметры одноканальной системы массового обслуживания Поток заявок может быть регулярным или случайным, нестационарным или простейшим пуассоновским. Занятость системы массового обслуживания (СМО) определяется не только плотностью потока заявок l, но и длительностью их обслуживания, зависящей от числа каналов и их производительности – среднего времени обслуживания заявки Tоб. Обычно скорость обслуживания описывают показательным законом с параметром m = 1/Tоб. Вероятности свободного состояния одноканальной системы Одноканальная система может быть в двух состояниях: свободно или занято. В момент времени t система находится в свободном состоянии с вероятностью P0(t) или в занятом с вероятностью P1(t) = 1 – P0(t). К концу интервала [t, t + Dt] канал свободен, если он был свободен в момент t и в течение Dt заявка не поступила, или канал был занят, но освободился. Свободная в начале интервала система останется свободной с вероятностью непоступления ни одной заявки за время Dt: P(T > Dt) = e – lDt » 1 – lDt. Условная вероятность того, что занятая система освободится за время Dt при показательном Вероятностные основы. 5. Законы распределения непрерывных СВ 8 законе длительности обслуживания P(Tоб < Dt) = 1 – e–mDt » mDt. Вероятность P0(t+ Dt) найдем по формуле полной вероятности: P0(t + Dt) = P0(t)(1 – lDt) + (1 – P0(t))mDt. P0(t) 1 P0 р t Пропускная способность одноканальной системы Особенности многоканальных СМО Переходя к пределу, получим уравнение для скорости изменения вероятности свободного состояния одноканальной СМО: dP0 (t ) = -(l + m ) P0 (t ) + m . dt Интегрирование при P0(0) = 1 (в начальный момент система свободна) дает зависимость вероятности свободного состояния от времени m l - (l + m )t (5.21) P0 (t ) = + e . l+m l+m Вероятность свободного состояния системы, а с ней и доля выполняемых заявок – относительная пропускная способность одноканальной системы – со временем снижается до равновесной величины m (5.22) P0 р = . l+m Вероятность того, что поступившая в СМО заявка не будет обработана, это вероятность отказа Pотк = 1 – P0р. Система с n каналами может находиться в одном из n + 1 состояний Ak (k каналов заняты), k = 0, 1, …, n. Условие для состояния A0 такое же, как и в одноканальной системе. Вероятности P(Ak), k > 1 также можно найти по формуле полной вероятности, рассматривая все возможные гипотезы, и получить систему дифференциальный уравнений Эйлера для скорости изменения этих вероятностей [1]. В установившемся режиме вероятности Pk числа занятых каналов получим из системы алгебраических уравнений: -1 ü æ n ak ö ÷÷ , ï P0 = çç å ï è k = 0 k! ø (5.23) ý. ï ak Pk = P0 , k = 1,L , nï k! þ где a = l /m = l Tоб – среднее число заявок, поступающих в систему за среднее время обслуживания одной заявки (интенсивность обслуживания). Многоканальная СМО простаивает (свободны все каналы) с вероятностью P0 и полностью занята с вероятностью Pn (заявки отклоняются). Вероятность q = 1 – Pn того, что хотя бы один канал свободен, – это относительная пропускная способность, а Q = l q – абсолютная. СМО с ожиданиями В СМО с ожиданиями выполняются все заявки, но в случае занятости системы, они поступают в очередь. При показательных законах поступления заявок и их обслуживания среднее время ожидания t e выражается формулой: 1 l (5.24) . m m-l При постоянной продолжительности обслуживания среднее время ожидания t c вдвое меньше вычисленной по формуле (5.24): t c = t e / 2 . te = Вероятностные основы. 5. Законы распределения непрерывных СВ 9 Статистическое моделирование многоканальной СМО Моделирование динамики состояний многоканальной СМО СМО с произвольными законами распределения потока заявок и длительности их обслуживания можно исследовать с помощью электронной формулы MassModel (Листинг 5.3). Она получает закон распределения заявок вместе с параметрами (например, {'exp',1.0}), распределение продолжительности обслуживания, число заявок N, число каналов обслуживания n (по умолчанию n =1) и признак q =1 для СМО с очередью. Она возвращает продолжительность ожидания в очереди каждой заявки (при q =1) или вероятность ее обработки. Для примера моделируем пуассоновский поток заявок с плотностью 1 заявка в минуту при средней длительности обслуживания Tоб = 0,99 минуты с показательным законом распределения. При такой малой разнице между средними переходный процесс будет длинным, поэтому проведем 10 серий по миллиону заявок и вычислим среднюю длительность ожидания в очереди: >> A=[];for i=1:10 a=MassModel({'exp',1},{'exp',1/0.99},10^6);A(i)=mean(a);end;T=mean(A) T = 98.3760 Получается в среднем более 98 минут ожидания при том, что «в среднем» каждую заявку даже одноканальная СМО успевает обработать. Это не может быть ошибкой, фромула (5.24) при l =1, m = 1/0,99 дает T = 98,01. Это еще один пример того, что нельзя оперироавть средними, когда случайные отклонения в одну сторону (быстрая обработка раньше поступления новой заявки) не может компенсировать последующую задержку обработки. Статистическим моделированием можно изучать различные сочетания законов потока заявок и продолжительности обслуживания. Например, при постоянной продолжительности обслуживания среднее время ожидания (теоретически оно должно быть вдвое меньше, чем 98,01) можно получить, заменив 'exp' на 'const' в параметрах СМО: >> A=[];for i=1:10 a=MassModel({'exp',1},{'const',1/0.99},10^6);A(i)=mean(a);end;T=mean(A) T = 49.1612 Теоретические формулы вида (5.24) вычисляют только МО при определенном сочетании законов распределения. Электронная формула MassModel дает всю информацию о динамике состояний СМО при любых законах распределения потока заявок и обслуживания. Занятость n-канальной СМО с отказами и ожиданиями моделирует файл-функция MassDyn(law1,law2,N,n,q,T) (Листинг 5.4). Первые 5 аргументов она передает функции MassModel для моделирования состояний до момента времени, заданного последним аргументом. Построим зависимость вероятности свободного состояния СМО с отказами (рис. 5.7): >> t=[0:0.2:1,1.5:0.5:5]; L=1;m=0.5;v=L+m; P0=m/v+L/v*exp(-v*t); >> a= MassDyn({'exp',L},{' exp',m},10^5,1,0,t); plot(t(1:length(a)),a, t,P0,'k--') t Статистическая вероят1 1.33 ность вместе с кривой P0(t) P (t) exp:m=1.5, n=1 при l =1, m = 0,5 снижаются 1 0.6 до величины P0р = 0,33, что 0.67 const: n=1 можно проверить подста0.33 новкой l =1, m = 0,5 в форexp:n=2 мулу (5.22). Заменив 4-й ар0.1 гумент на 2 (2 канала), поt 1 2 3 4 20 50 100 t строим кривую, стремящуюРис. 5.8. Среднее время ся к 1– P2 = 0,6 согласно Рис. 5.7. Вероятность свободного состояния СМО ожиданий в очереди (5.23) (см. задачу 8). Той же командой после замены 5-го аргумента на 1 (СМО с очередью), построены кривые времени ожиданий в очереди (рис. 5.8). В одноканальной СМО с l =1, m = 1,5 среднее время ожиданий соответствует теоретической оценке согласно формуле (5.24), при равномерной скорости обслуживания оно вдвое меньше. В двухканальной СМО ожиданий практически нет. Пунктирная кривая ожиданий при Tоб = 0,99 стремися к t = 98 (ее ординаты уменьшены в 10 раз). Еще одна пунктирная кривая построена для двухканальной системы с очередью. Если истинный закон распределения СВ неизвестен, его выбирают из математических соображений (например, экспоненциальный закон для продолжительности обработки заявок). Электронные формулы не требуют упрощений, что позволяет выбирать закон по объективным признакам. Закон распределения содержит всю информацию о СВ, хотя достоверной можно считать только ту ее часть, которая содержится в известных признаках (интервал возможных значений, числовые характеристики). Из всех законов, Вероятностные основы. 5. Законы распределения непрерывных СВ 10 имеющих известные признаки данной СВ, нужно выбрать тот, который привносит наименьшую дополнительную (а значит, ложную) информацию о СВ. Информационный подход к выбору закона распределения Наименее информативный закон распределения в интервале Мерой информации, содержащейся в законе распределения f(x), служит функционал ò I(f) = M[ln f] = f ( x) ln f ( x)dx. Функция f(x), минимизирующая этот функционал на [a, b], должна удовлетворять основному свойству плотности распределения ò b a f ( x)dx =1 . Условием стационарности функ- ционала Лагранжа L( f ) = ò b a ( f ln f + lf )dx является уравнение Эйлера ln f + 1 + l = 0, решение которого f = C – постоянная функция на [a, b], причем, чтобы выполнялось основное свойство плотности, константа должна имеет значение C = 1/(b – a). Таким образом, наименее информативен в ограниченном интервале закон распределения с постояной плотностью – равномерный закон. Интервал моментов наступления отказов неограничен (0, ¥), известна средняя продолПоказательный закон – самый не- жительность безотказной работы l, поэтому закон распределения, минимизирующий инпредсказуемый формацию о закономерностях наступления отказов, должен кроме основнного свойства закон наступления плотности в интервале (0, ¥) удовлетворять и условию отказов ¥ ò xf ( x)dx = l , (5.25) Безусловной минимизации подлежит функционал Лагранжа ¥ ò L( f , l ) = ( f ln f + l1 f + l 2 xf )dx , стационарное решение которого находится из уравнения Эйлера ln f + 1 + l1 + l2x = 0. Подстановка f(x) = exp( – 1 – l1 – l2x) в первое ограничение дает l2 = exp( – 1 – l1), после чего из условия (5.25) получим l2 = l. Следовательно, f(x) = lexp( – lx), и именно показательный закон потока отказов, заявок на обслуживание наименее предсказуем. Если пределы возможных значений СВ не ограничены, по экспериментальным реализаОптимальный выбор закона распре- циям X1, X2,…, XN, вычисленны оценки МО и дисперсии m = m * , s 2 = D * , минимизировать x x деления по оценфункционал I(f) нужно с учетом еще одного ограничения: кам МО и дисперсии ¥ ò ( x - m) 2 f ( x)dx = s 2 . (5.26) -¥ Уравнение Эйлера теперь имеет вид ln f + 1 + l1 + l2x + l3 (x – m)2 = 0, а множители Лагранжа l1, l2, l3 после подстановки f(x) = exp[–1– l1 – l2x – l3 (x – m)2] в ограничения получают значения: 1 1 l1 = ln 2p + ln s -1, l 2 = 0, l3 = . 2 2s 2 Плотность распределения, имеющего заданное МО m и дисперсию s2, и, кроме этого, содержащего минимум дополнительной информации о СВ, представляется функцией f ( x) = 1 2p s - e ( x -m)2 2s 2 . (5.27) Это широко распространенное в теории вероятностей и математической статистике нормальное распределение или закон Гаусса. Вероятностные основы. 5. Законы распределения непрерывных СВ 11 Равномерное распределение Равномерным называется распределение с постоянной плотностью на конечном интервале возможных значений [a, b] (рис. 5.7): 1 f(x) = , x Î [a, b]. b-a f(x) 1 b–a x 1 x-a dx = , x Î [ a , b] b-a b-a a F(x) = ò Числовые характеристики a b x a b x F(x) 1 Рис. 5.7. Графики равноВероятность событий (X < x) определяется как мерного распределения геометрическая вероятность. Равномерное распределение не имеет моды, а медиана и МО находятся в середине отрезка [a, b]: a+b . Me = m x = 2 Центральные моменты нечетных порядков равны нулю, а для четных k b (b - a ) , a +bö 1 æ mk [X ] = ò ç x dx = k ÷ 2 ø b-a 2 (k + 1) aè k k откуда (b - a) 2 , 12 b-a Dx , sx = 2 3 (b - a) 4 144 Ex = -3= - 3 = -1,2. 4 80 16 × 5 × s x Dx = Условия применимости равномерного закона (5.28) (5.29) Прямоугольный закон распределения прост для применения, но оно правомерно лишь в следующих случаях: 1. Известны границы возможных значений СВ и отсутствуют факторы, неодинаково благоприятные для всех возможных значений. Примеры таких СВ: угол прецессии в точке падения, результат измерения по грубой шкале с округлением до ближайшего целого. 2. Известны только оценки МО mx* и дисперсии Dx* распределения, или закон распределения известен, но для упрощения вычислений заменяется равномерным. Границы аппроксимирующего равномерного распределения определяются известными МО mx и дисперсией Dx (или СКО sx) a+b ü = mx ïï ìïa = m x - 3s x , 2 ýÞí b-a = D x = s x ï ïîb = m x + 3s x. ïþ 2 3 3. Пределы возможных значений СВ известны, но неизвестен характер распределения в этих пределах. В этом случае прямоугольный закон следует предпочесть всем другим, так как он привносит минимальную дополнительную (произвольную) информацию о СВ по сравнению с любым другим законом распределения с нулевой плотностью за пределами интервала [a, b]. Нормальный закон распределения Вероятностные основы. 5. Законы распределения непрерывных СВ 12 Нормальный закон с плотностью (5.27) и функцией распределения x ò f (t )dt = F ( x) = -¥ 1 ¥ òe 2 ps - (t -m)2 2s 2 dt (5.30) -¥ играет особую роль в теории вероятностей и математической статистике благодаря своим свойствам: 1. нормальная кривая является хорошим приближением биномиальной формулы при большом числе испытаний; 2. сумма большого числа СВ, среди которых нет превалирующих, подчиняется нормальному закону (центральная предельная теорема); 3. нормальный закон устойчив относительно сложения: сумма двух нормально распределенных СВ подчиняется нормальному закону; 4. плотность нормального закона наименее информативна из всех распределений неограниченной СВ, поэтому ее лучше всего использовать для доопределения имеющихся сведений о СВ. Рассеивание снарядов является результатом влияния большого числа случайных факторов, среди которых нет превалирующих, поэтому его описывают нормальным законом. Ошибки целеуказания также распределены нормально. Сумма этих двух ошибок (промах) подчинена тому же закону. Числовые характеристики В силу симметрии нормального распределения относительно значения x = m мода, медиана и МО совпадают: Mo = Me = mx = m (рис. 5.8) Плотность 1 модального значения f (Mo) = обратно про2 ps порциональна параметру s. Это значит, что степень уплотнения наименьших отклонений СВ от среднего значения возрастает с уменьшением параметра s, который, имея размерность случайной величины, играет роль СКО. Чтобы убедиться в этом, определим моментные характеристики: ¥ m ђ [ X ] = ò ( x - m) -¥ k 1 2p s e - ( x -m )2 2s 2 f(x) m x 1 F(x) 0.5 m x Рис. 5.8. Графики нормального распределения x-m sk = dx = t = s 2p ¥ òt k e - t2 2 dt. -¥ При нечетных k интеграл в симметричных пределах обращается в ноль. При четных k интеграл, выраженный через гамма-функцию, ¥ I (k ) = ò t e k -¥ - t2 2 ¥ dt = 2 ò t -¥ k -1 t2 2 2 e k k (k - 1)!! æk 1ö dt = 2 2 Gç + ÷ = 2 2 2p , 2k / 2 è 2 2ø с учетом свойства (5) равен 2p s k (k - 1)!!. Получим для центральных моментов четных порядков общую формулу: m k [ X ] = s k (k - 1)!!, k = 2, 4, … В частности, Dx = m2[X] = s2, sx = s и Ex = m4[X] /s4 = 3s 4 - 3 = 0. s4 Вероятностные основы. 5. Законы распределения непрерывных СВ 13 Таким образом, параметры нормального распределения m, s – это , соответственно, МО и СКО распределения. Принадлежность СВ X к классу нормальных распределений обозначют XÎN(m, s). Вероятность попадания в заданный интервал Определение вероятности попадания СВ в заданный интервал – одна из основных практических задач. При известных параметрах нормального распределения m, s задача сводится к вычислению определенного интеграла b P(a> x=0:0.001:0.477; P=2/sqrt(pi)*Trap(exp(-x.^2),x) P = 0.5001 Таким образом, срединное отклонение E нормального закона связано с параметром s отношением E = r 2s » 0,674s . Срединное отклонение наряду с СКО s применяется как характеристика рассеивания, но в отличие от параметра s получается непосредственно из опыта как половина длины интервала, на который приходится половина всех точек падения при большом числе выстрелов на одной установке прицела. Если СВ задана параметрами m, E, удобнее пользоваться приведенной функцией Лапласа: 1 é ˆ æ b - m ö ˆ æ a - m öù P ( a < X < b) = ê F ç ÷ - Fç ÷ú . (5.43) 2ë è E ø è E øû Вычислим по формуле (5.36) вероятность отклонения от m не более, чем на s, 2s, 3s, Правила «3-х сигм» и «4-х E» воспользовавшись векторизованной электронной функцией Лапласа F_LaplasV: Вероятностные основы. 5. Законы распределения непрерывных СВ 15 >> 2*F_LaplasV(1:3) ans = 0.6827 0.9545 0.9973 Вероятность отклонения не более, чем на 2s, больше 0,95, и почти достоверны отклонения в пределах 3s. Поэтому считается, что практически все реализации СВ XÎN[m, s] заключены в интервале [m –3s, m+3s] (правило «3-х сигм») или в интервале [m – 4E, m+4E] (правило «4-х E»). Вычислим вероятность отклонения от m не более, чем на E, 2E, 3E, 4E с помощью той же функции, домножив аргументы на r 2: >> 2*F_LaplasV([1:4]*(0.477*sqrt(2))) ans = 0.5000 0.8227 0.9570 0.9930 Электронные формулы для нормально распределенных СВ Применение файл-функций Функцию распределения нормального закона F*(x) можно построить, используя векторизованную функцию F_LaplasV согласно (5.33): function F = P_Gauss(x) F=F_LaplasV(x)+0.5; Построим графики функции распределения F*(x), функции Лапласа F(x), а также приведенной функции ˆ ( x) (рис. 5.9 ): Лапласа F 1 0.5 -0.5 1 2 3 -1 -3 -2 -1 1 x 2 Рис. 5.9. Графики функций: 1 - F*(x), 2 -F(x), 3 - приведенной функции Лапласа >> x=-3:0.1:3;plot(x, P_Gauss(x), x,F_LaplasV(x), x,2*F_LaplasV(0.477*sqrt(2)*x)) Файл-функции для вычислений, связанных со стандартным нормальным законом не требуют на входе параметров закона, но их можно использовать и для нормального закона с произвольными параметрами, приводя аргумент к стандартному распределению. Например, построить график плотности распределения СВ X Î N(2, 3) можно с помощью файл-функции f_Gauss (рис. 5.10): >> m=2;s=3;x=-10:0.1:10; plot(x,f_Gauss((x-m)/s)/s) Использование структурных переменных f(x) 0.1 -10 0 2 10 x Рис. 5.10. В простых вычислениях корректная подстановка аргументов не составляет проблемы, но при операциях с несколькими СВ и вложенными вызовами функций могут возникнуть технические трудности с передачей параметров распределений. Файл-функция f_Norm принимает параметры распределения m и s в полях m и s структурной переменной X: function f=f_Norm(X,x) f=f_Gauss((x-X.m)/X.s)/X.s; Определив структурную переменную, ее можно передавать всем вызываемым функциям. Например, предыдущую команду можно изменить так: >> X.m=2;X.s=3;x=-10:0.1:10; plot(x,f_Norm(X,x)) В классе объектов Norm_1 кроме параметров распределения можно определить и часто Класс нормально употребляемые функции обработки нормально распределенных СВ. В папке класса распределенных случайных величин @Norm_1 содержатся следующие полезные функции: Norm_1(varargin) – конструктор – создает объект класса с параметрами m, s, задаваемыми переменным списком (по умолчанию m = 0, s = 1); setval(X,a,b) – изменяет параметры объекта m, s; Net(X,a,b,n,ns) – разбивает интервал [a,b] на n равных частей (по умолчанию n=50, a, b вычисляются функцией Total, ns=4); Вероятностные основы. 5. Законы распределения непрерывных СВ 16 Total(X,a,b,ns) – определяет границы интервала m ± ns σ (в пределах [a,b], если они указаны); f(X,x) – вычислиет плотность распределения на сетке x; Ver(X,a,b) – вычисляет вероятность попадания СВ в интервал [a,b]; Gen(X,N) – генерирует N случайных точек согласно закону распределения; Fint(X,s,varargin) – вычисляет полную вероятность с условным законом, заданным выражением в строке s, и параметрами в списке varargin; display(X) используется средой MATLAB для вывода параметров объкта на экран – Создадим объект, соответствующий СВ X Î N(3,2) и вычислим вероятность отклонения от МО не более, чем E в большую сторону, по определению (равную 0,25): >> X=Norm_1(3,2); p=Ver(X,3,3+2*sqrt(2)*0.477) p = 0.2500 Генерируем 10000 случайных точек и вычислим частоту попаданий в тот же интервал [3, 3+2 r 2 ]: >> N=10000;t=Gen(X,N);p=sum(t>3 & t<3+2*sqrt(2)*0.477)/N p = 0.2502 Вероятностные основы. 5. Законы распределения непрерывных СВ 17 Программа верификации кода MATLAB clear all L=1;N=1000;n=10;B=Gen('exp',L,n,N); minB=min(B); maxB=max(B); [F,f,H,K]=SmartHist(minB,[],20);Show(K),hold on,plot(H.x,1-exp(-L*n.*H.x), 'g') [F,f,H,K]=SmartHist(maxB,[],20);figure,Show(K), hold on,plot(F.x,F.F,'r') [Fun,Par,err]=ApproxLaw('Ray',F); plot(K.x,Fun(K.x,Par),'g') [Fun,Par,err]=ApproxLaw('norm',F); plot(K.x,Fun(K.x,Par),'b') L=1;N=1000;n=10;B=Gen('exp',L,n,N); S='sum(U(1:4))*sum(U(5:8))*(U(9)+U(10))'; b=[]; for i=1:N U=RabLog(B(:,i));b(i)=Value(eval(S));end,[F,f,H,K]=SmartHist(b,[],50); [Fun,Par]=Approx('1-exp(-(x*L(1)).^L(2))',F.x, F.F ,[1 1]) Lam=prod(Par).*(Par(1)*f.x).^(Par(2)-1) ; ff=Lam.*exp(-(Par(1)*f.x).^Par(2)); Show(F,'k', f,'k'), FF=Fun(f.x,Par); hold on,plot(f.x, FF, 'r', f.x, ff, 'r') m=mean(b),s=std(b) [m,D,s]=MDS('Wei',Par); m, s plot(f.x(1:30),f.f(1:30)./(1-F.F(1:30))/3, 'g', f.x,ff./(1-FF)/3) clear all R=Rab('exp',1.1,'exp',1.2,'exp',2.7,1,'exp',1.5,1,1.4,0.9,'exp',1.6,3); [Law,P]=EqLaw(R) R1=Add(R,'exp',1.1,'exp',1.2,'exp',2.7,1,'exp',1.5,1,1.4,0.9,'exp',1.6,3); R2=Add(R,'Wei',P); R3=Rab('Wei',P,'Wei',P); [L1,P1]=EqLaw(R1); [L2,P2]=EqLaw(R2); [L3,P3]=EqLaw(R3); P,P1,P2,P3 R1 clear all A=[];for i=1:10 a=MassModel({'exp',1},{'exp',1/0.99},10^3);A(i)=mean(a);end;T=mean(A) A=[];for i=1:10 a=MassModel({'exp',1},{'const',1/0.99},10^3);A(i)=mean(a);end;T=mean(A) t=[0:0.2:1,1.5:0.5:5]; L=1;m=0.5;v=L+m; P0=m/v+L/v*exp(-v*t); a= MassDyn({'exp',L},{' exp',m},10^3,1,0,t); plot(t(1:length(a)),a, t,P0,'k-') clear all x=0:0.001:0.477; P=2/sqrt(pi)*Trap(exp(-x.^2),x) 2*F_LaplasV(1:3) 2*F_LaplasV([1:4]*(0.477*sqrt(2))) clear all x=-3:0.1:3;plot(x, P_Gauss(x), x,F_LaplasV(x), x,2*F_LaplasV(0.477*sqrt(2)*x)) m=2;s=3;x=-10:0.1:10; plot(x,f_Gauss((x-m)/s)/s) X.m=2;X.s=3;x=-10:0.1:10; plot(x,f_Norm(X,x)) X=Norm_1(3,2); p=Ver(X,3,3+2*sqrt(2)*0.477) N=10000;t=Gen(X,N);p=sum(t>3 & t<3+2*sqrt(2)*0.477)/N Вероятностные основы. 5. Законы распределения непрерывных СВ 18 Контрольные вопросы и задачи 1. Какому закону подчиняется расстояние между ближайшими точками простейшего пуассоновского поля на плоскости? 2. Какому закону подчиняется случайный интервал между двумя последовательными событиями стационарного пуассоновского потока? 3. Какова характерная особенность числовых характеристик показательного закона? 4. Как определяется надежность последовательного и параллельного соединений элементов по характеристикам их надежности? Какому закону подчиняются потоки отказов в таких соединениях? 5. В чем суть объектно-ориентированного моделирования надежности сложных соединений элементов? 6. Объясните содержание электроннй формулы MassDyn для моделирования занятости многоканальной системы массового обслуживания. Как можно анализировать вероятность немедленной обработки заявки в системах массового обслуживания с очередями и отказами? 7. Назовите причины, по которым неизвестное распределение может быть принято нормальным. Вероятностные основы. 5. Законы распределения непрерывных СВ 19 П Р И Л О Ж Е Н И Е к лекции 5 Гамма-функция и ее свойства Гамма-функция, представляющая собой интеграл ¥ G(k ) = ò e -t t k -1 dt , входит множителем практически во все распределения как обобщение факториала на вещественные числа. Основные отношения и свойства гамма-функции справедливы для целых, вещественных и комплексных аргументов: G(k+1) = kG(k) – функциональное уравнение Эйлера, (П5.1) G(k+1) = k! для целых k > 0, G(1) = 1; (П5.2) G(k)G(1 –k) = p – формула дополнения Эйлера. sin pk (П5.3) Во многих распределениях гамма-функция имеет только целые и полуцелые аргументы. В частности, при k = 0,5 из отношения (П5.3) следует: G(0,5) = (П5.4) p . Из отношения (П5.1) и следствия (П5.4) вытекает: G(1,5) = G(0,5 +1) = 0,5G(0,5) = 0,5 p . G(2,5) = G(1,5 +1) =1,5G(1,5) = 0,75 p . … 1ö p (2k - 1)!! æ , где (2k–1)!! = 1×3×…×(2k – 1). Gç k + ÷ = 2ø 2k è (П5.5) Вычисление гамма-функции сталкивается с той же проблемой переполнения разрядной сетки вследсьвие быстрого роста (при аргументах, превышающих 171). В электронной формуле Sampling промежуточные вычисления обходят эту проблему за счет целесообразной организации порядка вычислений. Примерно так же действуют и известные алгоритмы, использующие гамма-функцию в промежуточных вычислениях. Программа gamma из библиотеки MATLAB аккуратно обрабатывае т особые точки, но возвращает Inf при k > 171. Неполная гамма-функция Неполная гамма-функция имеет переменный верхний или нижний предел. У нижней непллной гамма-функции зафиксирован нижний предел: y g (n, y ) = ò e - t t n -1dt . (П5.6) Иногда под гамма-функцией подразумевают регуляризированную гамма-функцию: y I (n, y ) = 1 e -t t n-1 dt . ò G ( n) 0 (П5.7) Если n ³ 1 – целое, то I (n, y ) = 1 - e - y åm = 0 n -1 ym . m! Вероятностные основы. 5. Законы распределения непрерывных СВ (П5.8) 20 Гамма-распределение f(x; n) = ba x a -1e -bx . G(n / 2 ) (7.17) M[X] = a/b; D[X] = a/b2; Mo = (a-1)/b. Вероятностные основы. 5. Законы распределения непрерывных СВ 21 Лекция Система двух случайных величин 6 Системой случайных величин или случайным вектором называют две или более СВ, в совокупности представляющие некоторый объект той или иной природы. Совместная функция распределения системы СВ и ее свойства Хотя каждую СВ системы можно рассматривать в отдельности и описывать их индивидуальными функциями распределения FX(x), FY(y), суть системы СВ в том, что совместная функция распределения F(x, y) = P(X> X=Norm_1(0,2);Y=Norm_1(0,3);x=Net(X,30,4,1);y=Net(Y,30,4,1); Считая X и Y независимыми, вычислим согласно формуле (6.9) совместную плотность распределения f(x, y) на двумерной сетке [xx, yy], построим поверхность функции f(x, y) (рис. 6.1) и проверим выполнение основного свойства (6.6): >> [xx,yy]=meshgrid(x,y); Z=f(X,xx).*f(Y,yy); surf(xx,yy,Z), Trap2(Z,x,y) ans = 0.9999 Объем под выделенной частью поверхности практически равен 1. Численное интегрирование на прямоугольной сетке выполнено с помощью программы Trap2 (Листинг 6.1). Теперь построим сечение поверхности f(x, y)|x = –2 и вычислим площадь под этой кривой: >> x1=find(xx==-2); f1=Trap(Z(x1),y), hold on,plot3(xx(x1),y,Z(x1),'r') f1 = 0.1210 Согласно формуле (6.8) интегрирование практически по всем y (в пределах интервала m ± 4s) – это значение fX(–2), действительно: >> f1=f(X,-2) f1 = 0.1210 График условной плотности распределения fy|x (y|-2) построим, поделив аппликаты графика f(x, y)|x = –2 на fX(–2) согласно формуле (6.15): >> plot3(xx(x1),y,Z(x1)/f1*0.2,'k') Умножение аппликат на 0,2 понадобилось для выравнивания масштабов на общем рисунке. Так же вычислим f(x, y)|y = –4 и построим график условной плотности fx|y (x|-4): >> y1=find(yy==-4); plot3(x,ones(size(x))*(-4),Z(y1)/f(Y,-4)*0.1,'k') f(x,y) 0.02 0.01 10 y 5 -4 -10 -2 5 x -8 Рис. 6.3. График плотности распределения двух СВ и условных распределений Вероятностные основы.6. Системы двух случайных величин 4 Система двух дискретных случайных величин Каждая СВ системы (X, Y) имеет свой ряд распределения P(X = xi) = pi, i =1, …, n, P(Y = yj) = gj, j = 1, …, m, (возможно, n, m ® ¥). Сочетания пар значений (xi, yj) в системе имеют вероятности P(X = xi, Y = yj) = pij, i = 1, …, n; j = 1, …, m. Прямоугольная (n´m) таблица, в которой всем парам (xi, yj) поставлены в соответствие вероятности pij, называют матрицей распределения. Свойства матрицы распределения X: xi pi x1 p1 x2 p2 … xn … pn Y: yi gi y1 g1 y2 g2 … ym … gm xi\yi x1 (X, Y): x2 … xn y1 y2 p11 p21 p12 p22 … … pn1 pn2 … … … … … ym p1m p2m … pnm События (X = xi), (Y = yj), i = 1, …, n; j = 1, …, m образуют полную группу, поэтому сумма всех элементов матрицы распределения равна единице: n m åå p i =1 j =1 ij = 1. Матрица распределения содержит всю информацию о системе СВ. Из нее, в частности, можно получить распределения отдельных СВ: m m æ m ö pi = P( X = xi ) = Pç å ( X = xi , Y = y j )÷ = å P( X = xi , Y = y j ) = å pij , è j =1 ø j =1 j =1 n g j = P(Y = y j ) = å pij , (6.16) (6.17) i =1 то есть, для того, чтобы получить вероятность возможного значения одной из СВ, надо просуммировать соответствующий этому значению столбец или строку матрицы распределения. Если X и Y независимы, можно выполнить и обратную процедуру – построить матрицу распределения по одномерным распределениям: pij = P( X = xi , Y = y j ) = P ( X = xi ) P(Y = y j ) = pi g j . Условный ряд распределения (6.18) В общем случае приходится учитывать условные вероятности: pij = P( X = xi , Y = y j ) = P( X = xi ) P(Y = y j X = xi ) = pi g j i , (6.19) где gj|i, j = 1, …, m – условный ряд распределения СВ Y при условии, что СВ X приняла фиксированное значение X = xi. pij Учитывая, что g j |i = , получить условное распределение можно из i-й pi строки матрицы распределения, разделив все ее элементы на число pi – сумму элементов этой же строки. Очевидно, что условное распределение обладает обязательным свойством дискретных распределений – сумма вероятностей всех возможных значение равна единице: m m p p ij g = = i = 1. å å j |i pi j =1 j =1 pi Аналогично, из столбцов матрицы распределения можно получить условный ряд распределения СВ X при фиксированном Y = yj. Вероятностные основы.6. Системы двух случайных величин 5 Функцию распределения системы дискретных СВ F(x, y) можно получить из матрицы распределения суммированием всех элементов матрицы, находящихся выше x и левее y1. Полиномиальное распределение В испытаниях Бернулли может быть более двух исходов. Например, попадание в цель, содержащую резервированные функциональные элементы, может привести к трем возможным исходам: поражение цели при попадании в нерезервированный элемент, вывод из строя резервированного элемента без поражения цели, отсутствие эффекта при попадании в непоражаемую зону. Результатом n попаданий будут различные комбинации чисел попадания в каждую из трех зон на проекции цели m1, m2, m3. Каждую реализацию можно рассматривать как случайное событие Am1, m2, m3, вероятность которого следует вычислять по формуле (2.3). Вероятность поражения цели зависит от двух случайных чисел X1, X2, которые можно рассматривать как функцию случайных событий Am1, m2, n - m1- m2. P(X1= k1, X2 = k2) = Проекции полиномиального распределения n! p1k1 p 2k2 p 3k3 ; k1+ k2 = 0, …, n; k3 = n – k1 – k2. (6.20) k1!k 2 !k 3 ! Для вычисления полиномиального распределения можно использовать электронную формулу p_Polynom (Листинг 6.2). В отличие от функции p_Binom она принимает вектор вероятностей каждого исхода и вектор интересующих чисел наступления каждого из событий. Многоугольник распределения на рис. 6.4 получен при n = 12, p1 = 0,3, p2 = 0,4: p 0.05 10 k2 5 2 6 4 k1 8 Рис. 6.4. Поверхность полиномиального распределения >> n=9;p=[0.3 0.4]; [I J]=meshgrid([0:n],[0:n]); P=p_Polynom(p,n,[I(:) J(:)]); >> P= reshape(P,size(I)); surf(I,J,P) Сечения многогранника напоминают многоугольники биномиального распределения, но они таковыми не являются. Только сумма всех аппликат по направлению одной из СВ является распределением другой. Сравним эти суммы с соответствующими биномиальными распределениями, имеющих параметры p1 и p2 : >> sum(P),Ber(p(1),n) ans = 0.0404 0.1556 0.2668 0.2668 0.1715 0.0735 0.0210 0.0039 0.0004 0.0000 ans = 0.0404 0.1556 0.2668 0.2668 0.1715 0.0735 0.0210 0.0039 0.0004 0.0000 >> sum(P,2)'-p_Binom(p(2),n) ans = 1.0e-015 * 0.0087 0.0555 0.0833 Операции с дискретными распределениями 0.1665 0.1110 0.0278 0.0139 0.0069 Полиномиальный закон не имеет такого широкого применения, как биномиальный, но выполненные на этом примере операции с матрицей распределения характерны для решения задач с системами дискретных СВ. Часто бывает известен ряд распределения одной из СВ P(Y = yi) = gj и условные вероятности другой P(X = xi /Y = yj) = pi|j, а нужно построить безусловный ряд распределения СВ X. Построив матрицу распределения pij = gjpi|j, "i, j, искомый закон распределения можно вычислить суммированием соответствующих ее строк (или столбцов): P(X = xi) = å pij . j 1 Элементы матрицы распределения, так же как и ряда распределения, упорядочены по возрастанию возможных значений. Вероятностные основы.6. Системы двух случайных величин 6 Числовые характеристики системы двух случайных величин Моментные характеристики Начальными моментами порядка k+s называются МО произведения степеней Xk, Ys, а центральными - МО таких же произведений центрированных СВ X& k = (X – mx)k, Y& s = (Y – my)s: ak,s[X, Y] = M[XkYs], mk,s[X, Y] = M [ X& k Y& s ] . Через плотность непрерывной системы f(x, y) и матрицу распределения дискретной системы pij начальные и центральные моменты вычисляются по формулам: ì¥ ¥ ì¥ ¥ k s ï ï ( x - m x ) k ( y - m x ) s f ( x, y )dxdy, x y f ( x, y )dxdy, ï ï- ¥ - ¥ a k , s [ X | y ] = í- ¥ -¥ m k ,s [ X | y] = í k s ï ï xi y j p ij . ( x i - m x ) k ( y sj - m y ) s p ij . ï ï î i j î i j òò òò åå Числовые характеристики условных распределений åå (6.21) С системой (X, Y) связаны распределения FX(x), FY(y) и условные распределения FX|y(x|y), FY|x(y|x), а значит и все числовые характеристики, определенные для одномерных СВ. Моменты одномерных распределений можно вычислять по соответствующим формулам через частные законы или через совместный закон по формулам (6.21) как ak,0, a0,s и mk,0 и m0,s. Числовые характеристики условных распределений не отличаются особыми свойствами, но в определенной мере они отражают связи между СВ системы. Условное МО распределения fX|y(x|y) ì¥ ïï ò xf X | y ( x | y )dx, (6.22) m x | y = M [ X | y ] = í- ¥ ïå xi pi| j . ïî i называется регрессией X на y (среднее значение СВ X при условии, что Y приняла значение, близкое к y). Аналогично определяется регрессия Y на x. График функции x = M[X|y] называется линией регрессии X на y, а график функции y = M[Y|x] – линией регрессии Y на x. Если X и Y независимы, fx|y(x|y) = fx(x) и mx|y = mx (а также my|x = my), линии регрессии параллельны осям координат. С другой стороны, постоянство условных МО означает лишь независимость случайных величин «в среднем», хотя зависимость условных распределений от значений другой СВ может проявляться в условных моментах старших порядков. Условный центральный момент второго порядка называется условной дисперсией: o 2 D[ X | y ) = M [ X | y ] = ¥ ò (x - m x |y ) 2 f x ( x| y ) dx . -¥ Вероятностные основы.6. Системы двух случайных величин 7 Произведение нормальных законов зависимых СВ Плотность распределения двух зависимых СВ получим как произведение одномерного закона СВ X Î N(0, 2) и условной плотности fy|x (y|x) нормального закона с постоянным СКО σy|x = 3 и линейной регрессией my|x = -1,5x. СВ X представим объектом X=Norm_1(0,2), условное распределение – объектом Yx=Norm_1(0,3). Плотность fy|x (y|x) вычислим с помощью функции f класса Norm_1, передавая ей центрированные аргументы y – my|x = y + 1,5x. С помощью объектов X, Yx построим сетку и поверхность f (x, y) на ней (рис. 6.5): f(x,y), fy|x(y|x) 0.02 0.01 y 5 -5 x -5 Рис. 6.5. Поверхность распределения и кривые условной плотности >> X=Norm_1(0,2); Yx=Norm_1(0,3); x=Net(X,30,3);y=Net(Yx,30,3); >> [xx,yy]=meshgrid(x,y); Z=f(X,xx).* f(Yx,yy+1.5*xx); surf(xx,yy,Z), hold on Построим графики условных распределений fy|x (y|x) на 5-м, 10-м и 25-м узлах сетки: >> for i=[5,10,25] x1=find(xx==x(i));f_1=Z(x1)/f(X,x(i))*0.2; plot3(xx(x1), yy, f_1,'r'),end Центральные моменты второго порядка Центральные моменты второго порядка m 2, 0[X,Y] = M[(X – mx)2] = Dx и m 0, 2[X, Y] = M[(Y – my)2] = Dy характеризуют разброс СВ X, Y в отдельности, а второй смешанный момент m 1,1[X,Y] = M[(X – mx)(Y – my)] = Kxy – еще и степень их взаимного разброса (ковариацию) или корреляционный момент. Эти величины объединяют в матрицу корреляционных моментов æ Dx K XY = çç è K xy K xy ö ÷, D y ÷ø поскольку в таком виде удобно представлять все попарные вторые центральные моменты между компонентами многомерных случайных векторов. В случае независимых СВ матрица корреляционных моментов имеет диагональный вид, так как согласно свойствам МО для независимых СВ Kxy = M[(X – mx)(Y – my)] = M[X – mx]M[Y – my] = 0. Обращение в ноль коэффициента корреляции (некоррелированность) означает отсутствие линейной связи, но не исключает зависимость между СВ по основному признаку fY|x(y|x) ¹ fy(y). Независимые СВ некоррелированы, но обратное утверждение, вообще говоря, неверно. В некоторых случаях корреляционный момент зависимых СВ может обращаться в ноль. Преобразуем выражение для Kxy непрерывной системы следующим образом: ¥ ¥ ¥ -¥ -¥ -¥ K xy = ò ò ( x - m x )( y - m y ) f ( x, y )dxdy = ò ( x - m x )(m y| x - m y ) f X ( x) dx . (6.23) Действительно, выразив f(y, x) по формуле умножения плотностей, интеграл по y с учетом определения (6.22) можно представить в виде: ¥ ò ( y - m y ) f X ( x) f Y | x ( y | x)dy = (m y|x - m y ) f X ( x) . -¥ Из выражения для Kxy в форме (6.23) следует, что Kxy = 0 при my|x = my, то есть независимые в среднем СВ некоррелированы. Коэффициент корреляции По величине Kxy – можно судить только о наличии, но не о степени зависимости, так как ковариация учитывает и совместное, и индивидуальное рассеивание каждой СВ Не учитывает индивидуальное рассеивание второй X Y смешанный центральный момент нормированных СВ : , s x sY Вероятностные основы.6. Системы двух случайных величин 8 éX Y ù é X - m X Y - mY ù K xy rxy = m 1,1 ê , ú = M ê × . ú= s y úû s x s y êë s x s y úû êë s x Эта безразмерная числовая характеристика называется коэффициентом корреляции между X и Y, по ее величине можно судить о степени статистической связи между X и Y. Границы значений коэффициента корреляции Наиболее сильная корреляция имеет место при линейной функциональной зависимости между СВ: Y = aX + b, Dy = a2Dx, sy = |a|sx, K xy = M [ X& (aX& + b)] = M [aX& 2 + bX& ] = aD x , aDx a ì 1, a > 0, = =í s x s y s x | a| s x | a| î- 1, a < 0. Если от X линейно зависит не сама СВ Y, а ее условное МО rxy = Линейная регрессия K xy = my|x = a(x – mx) + my, Y уже не определяется значением аргумента, а имеет случайные отклонения относительно линии регрессии. Подстановка a(x – mx) вместо (my|x – my) в выражение (6.23) даст такой же корреляционный момент, что и при линейной функциональной зависимости: ¥ K xy = ò ( x - m x )a ( x - m x ) f X ( x) dx = aD x , -¥ однако чистая мера зависимости – коэффициент корреляции – по модулю меньше единицы, так как теперь sy >|a|sx. В самом деле, можно доказать, что ¥ ¥ ¥ -¥ -¥ -¥ D y = ò ò ( y - m y ) 2 f ( x, y ) dxdy = ò s Y2 | x f X ( x )dx + a 2 D x , (6.24) и если sY|x ¹ 0 (Y имеет случайные отклонения от линии регрессии), Dy > a2Dx. Между коэффициентом пропорциональности, коэффициентом корреляции и дисперсиями существует связь: a2Dx = (aDx)2/Dx= Kxy2/Dx = r2Dy Dx / Dx = r2Dy. (6.25) Следовательно, коэффициент пропорциональности в линейном уравнении регрессии mY|x = a(x – mx) + my равен a = rs y / s x : mY | x = r sy ( x - mx ) + m y . (6.26) sx Так как X и Y равноправны в системе, существует такая же зависимость и для mX|y s m X | y = r x ( y - m y ) + mx , (6.27) sy причем r является коэффициентом пропорциональности между центрированными, нормированными СВ и условным МО: mY | x - m y sy Нормальная регрессия =r y - my x - mx m X | y - m x , =r . sx sx sy (6.28) Линейная регрессия с постоянным условным СКО sY|x = const называется нормальной регрессией. Из соотношения (6.24) при sY|x = const с учетом соотношения (6.25) следует Вероятностные основы.6. Системы двух случайных величин 9 Dy = sY|x2 + a2Dx = sY|x2 + r2Dy, откуда получим связь между безусловными и условными СКО: sY |x = 1 - r 2 s y , s X | y = 1 - r 2 s x . (6.29) Погрешность оценки СВ Y по линии регрессии не зависит от x и тем меньше, чем больше коэффициент корреляции. Из тех же соотношений выразим коэффициент корреляции через коэффициент пропорциональности в уравнении линейной регрессии: -2 æ s Y2| x ö (6.30) as x as x ç r= = = sign (a) 1 + 2 2 ÷ . ÷ ç sy s Y2| x + a 2s x2 è a sx ø Теперь ясно, что |rxy| < 1 и корреляция тем слабее, чем меньше sY|x. Построение условных распределений Для системы СВ X Î N(0, 2), Y Î N(0, 3) с условным МО my|x = -1,5x (из предыдущего примера) построим условные распределения. Из исходных данных известны параметры: mx = my = 0, sx = 2, sY|x = 3, a = –1,5. Вычислим коэффициент корреляции по формуле (6.30): æ 32 ö r = -çç1 + 2 2 ÷÷ è 1,5 2 ø -2 =- 2 . 2 По формуле (6.29) определим неизвестные параметры sy и sX|y : s Y |x 3 = 3 2 , s X | y = s x 1 - r 2 = 2 0.5 = 2 . 1 . 5 1- r В дополнение к созданным ранее объектам создадим объект Xy – нормальное распреsy = 2 = деление с параметрами m = 0, sX|y = 2 , чтобы с его помощью построить графики условных распределений fx|y (x|y) для нескольких y: >> X=Norm_1(0,2); Yx=Norm_1(0,3); x=Net(X,30,3);y=Net(Yx,30,3); >> [xx,yy]=meshgrid(x,y); Z=f(X,xx).* f(Yx,yy+1.5*xx); >> r=-1/sqrt(2), sX=2;sY=3/sqrt(1-r^2), sXy=sqrt(2), Xy=Norm_1(0, sXy); r = -0.7071 sY = 4.2426 sXy = 1.4142 Так как объект Xy представляет центрированную СВ, для вычисления плотности в его функцию f нужно подставлять аргументы, уменьшенные на mX|y = rsx/sy y: >> y_1=-9;f_1= f(Xy,x-y_1*r*sX/sY);plot3(x,y_1*ones(size(x)),f_1, 'k'), hold on >> for i=1:length(x) plot3([x(i) x(i)],[y_1 y_1],[0 f_1(i)],'k'), end Двумя последними командами построен график fx|y (x|9) на рис. 6.6. Повторение команд с y_1=9 дает еще один график fx|y (x| -9). Так же построим графики fy|x (y|6), fy|x (y| 0), fy|x (y| -6): >> x_1=-6;f_1= f(Yx,y-x_1*r*sY/sX);plot3(x_1*ones(size(y)),y,f_1, 'r') >> for i=1:length(y) plot3([x_1 x_1],[y(i) y(i)],[0 f_1(i)],'r'), end Построим линии регрессии по формулам (6.27), а также линии уровня f(x. y): >> plot3(x,x*r*sY/sX,zeros(size(x)),'r', y*r*sX/sY,y,zeros(size(y)),'k'),contour(xx,yy,Z), grid 0.3 9 mx|y y fx|y(x|-6) fy|x(y|0) my|x x 6 -9 -6 Рис. 6.6. Условные распределения с нормальной регрессией Вероятностные основы.6. Системы двух случайных величин 10 Статистическое моделирование системы двух СВ Статистическое оценивание параметров системы Чтобы разыграть реализации двух зависимых СВ, согласно правилу умножения плотностей нужно получить случайную реализацию rand одной из них (допустим X) по ее закону распределения fX(x) , а затем – другой, но уже по условному распределению fy|x(y|rand). В качестве примера разыграем реализации системы 10 y (X, Y) из предыдущего примера, воспользовавшись объектами X и Yx. Сравним вычисленные характеристики r, sy и my с их статистическими оценками, полученными с помощью функций CorrelCoef (Листинг 4.3), std (стандартное отклонение) и mean (среднее арифметическое): >> X=Norm_1(0,2); Yx=Norm_1(0,3); >> N=10000;xs=Gen(X,N);ys= Gen(X,N); -10 -5 5 x >> for i=1:N ys(i)=Gen(setval(Yx,-1.5*xs(i),[]));end Рис. 6.7. Разброс точек с >> r=CorrelCoef([xs, ys]),sY = std(ys),mY = mean(ys) отрицательной корреляцией r = -0.7017 sY = 4.2383 mY = 0.0086 При большом числе испытаний N =10000 результат оказался очень близок к точным значениям ЧХ r=-0.7071, sY = 4.2426 и my = 0. Выведем первые 500 точек (рис. 6.7): >> plot(xs(1:500),ys(1:500),'.') Расположение точек характерно для сильной отрицательной корреляции. Посмотрим, насколько увеличится погрешность оценок по меньшему объему статистики: >> r=CorrelCoef(xs(1:500),ys(1:500)),sY = std(ys(1:500)),mY = mean(ys(1:500)) r = -0.7363 sY = 4.4120 mY = 0.0971 >> r=CorrelCoef(xs(1:50),ys(1:50)),sY = std(ys(1:50)),mY = mean(ys(1:50)) r = -0.7671 sY = 4.4228 mY = 0.2457 Статистические оценки достаточно близки к теоретическим параметрам распределений, чтобы ими можно оперировать как точными при большом числе испытаний порядка десятков тысяч. Вероятностные основы.6. Системы двух случайных величин 11 Программа верификации кода MATLAB clear all X=Norm_1(0,2);Y=Norm_1(0,3);x=Net(X,30,4,1);y=Net(Y,30,4,1); [xx,yy]=meshgrid(x,y); Z=f(X,xx).*f(Y,yy); surf(xx,yy,Z), Trap2(Z,x,y) x1=find(xx==-2); f1=Trap(Z(x1),y), hold on,plot3(xx(x1),y,Z(x1),'r') f1=f(X,-2) plot3(xx(x1),y,Z(x1)/f1*0.2,'k') y1=find(yy==-4); plot3(x,ones(size(x))*(-4),Z(y1)/f(Y,-4)*0.1,'k') clear all n=9;p=[0.3 0.4]; [I J]=meshgrid([0:n],[0:n]); P=p_Polynom(p,n,[I(:) J(:)]); P= reshape(P,size(I)); surf(I,J,P) sum(P),Ber(p(1),n) sum(P,2)'-Ber(p(2),n) clear all X=Norm_1(0,2); Yx=Norm_1(0,3); x=Net(X,30,3);y=Net(Yx,30,3); [xx,yy]=meshgrid(x,y); Z=f(X,xx).* f(Yx,yy+1.5*xx); surf(xx,yy,Z), hold on for i=[5,10,25] x1=find(xx==x(i));f_1=Z(x1)/f(X,x(i))*0.2; plot3(xx(x1), yy, f_1,'r'),end clear all X=Norm_1(0,2); Yx=Norm_1(0,3); x=Net(X,30,3);y=Net(Yx,30,3); [xx,yy]=meshgrid(x,y); Z=f(X,xx).* f(Yx,yy+1.5*xx); r=-1/sqrt(2), sX=2;sY=3/sqrt(1-r^2), sXy=sqrt(2), Xy=Norm_1(0, sXy); y_1=-9;f_1= f(Xy,x-y_1*r*sX/sY);plot3(x,y_1*ones(size(x)),f_1, 'k'),hold on for i=1:length(x) plot3([x(i) x(i)],[y_1 y_1],[0 f_1(i)],'k'), end x_1=-6;f_1= f(Yx,y-x_1*r*sY/sX);plot3(x_1*ones(size(y)),y,f_1, 'r') for i=1:length(y) plot3([x_1 x_1],[y(i) y(i)],[0 f_1(i)],'r'), end plot3(x,x*r*sY/sX,zeros(size(x)),'r', y*r*sX/sY,y,zeros(size(y)),'k'), contour(xx,yy,Z), grid clear all X=Norm_1(0,2); Yx=Norm_1(0,3); N=10000;xs=Gen(X,N);ys= Gen(X,N); for i=1:N ys(i)=Gen(setval(Yx,-1.5*xs(i),[]));end r=CorrelCoef([xs, ys]),sY = std(ys),mY = mean(ys) plot(xs(1:500),ys(1:500),'.') r=CorrelCoef(xs(1:500),ys(1:500)),sY = std(ys(1:500)),mY = mean(ys(1:500)) r=CorrelCoef(xs(1:50),ys(1:50)),sY = std(ys(1:50)),mY = mean(ys(1:50)) Вероятностные основы.6. Системы двух случайных величин 12 Контрольные вопросы 1. Объясните вероятностный смысл функции распределения системы двух СВ. 2. Плотность распределения системы двух непрерывных СВ. 3. Каков смысл элемента вероятностей непрерывной системы двух СВ? 4. Как связаны функция распределения и плотность распределения системы двух непрерывных СВ? 5. Какова связь между совместным и частными законами распределения независимых и зависимых СВ? 6. Правило умножения плотностей независимых и зависимых СВ. Каков смысл условного закона распределения? Как получить условный закон распределения, если известен совместный закон? 7. Основное свойство матрицы распределения. как получить ряд распределения одной из СВ по матрице распределения системы. 8. Какому закону подчиняется сумма строк и сумма столбцов матрицы распределения полиномиального закона? 9. Как вычислить условное МО одной из СВ системы по совместной плотности распределения? 10. Логическая связь между фактами зависимости (независимости) и коррелированности (некоррелированности) двух СВ? В каких случаях зависимые СВ могут быть некоррелированными? 11. Свойства линейной и нормальной регрессии. Вероятностные основы.6. Системы двух случайных величин 13 Лекция 7 Двумерное нормальное распределение Из двумерных систем СВ особый интерес представляет нормальное распределение на плоскости. Этому закону подчиняются баллистические ошибки, ошибки определения координат цели, подготовки стрельбы, то есть все результаты воздействия большого числа случайных факторов, среди которых нет превалирующих.. Определение многомерного нормального закона Если каждая СВ системы подчиняется нормальному закону и они совместно независимы, то система подчиняется многомерному нормальному закону. Из этого следует, что f(x, y) – плотность двумерного нормального закона, если ее интегрирование по всем возможным значениям одной СВ дает нормальный закон распределения другой: ¥ f X ( x) = ò f ( x, y )dy = 1 2p s x и такой же закон fY(y) с параметрами my, sy. e - ( x -mx )2 2s x2 -¥ Каноническое двумерное нормальное распределение Плотность двумерного нормального распределения Если X, Y независимы, f(x, y) можно получить из частных распределений: f ( x, y ) = f X ( x ) f Y ( y ) = 1 e 2ps xs y - 2 ( x - mx )2 ( y - m y ) 2 2 2s x 2s y , (7.1) но это и не общий вид двумерного нормального закона, и не самый простой. Система независимых, центрированных СВ X1Î N(0, s1) и X2 Î N(0, s2) имеет плотность нормального распределения в канонической форме: f (x1 , x 2 ) = Эллипс рассеивания æ 1 æ x 2 x 2 öö 1 expç - ç 1 + 2 ÷ ÷ . ç 2ç s 2 s 2 ÷÷ 2ps 1s 2 2 øø è è 1 (7.2) Эллипс, на котором показатель степени в (7.2), а значит и плотность распределения, имеют постоянное значение, ìï x 12 ïî s 12 Bk = íx 1 ,x 2 : + x 22 s 22 üï =k 2 ý ïþ (7.3) называется эллипсом равной плотности, ограниченная им область – эллипсом рассеивания, центр эллипса – центром рассеивания. Плотности f1(x1) и f2(x2) различны в разных точках эллипса с полуосями ks1, ks2 (рис. 7.1), но произведение f1(x1) f2(x2) = f(x1, x2) постоянно при данном значении k. Ортогональное преобразование главных осей Компоненты того же случайного вектора в произвольной системе координат x1Ox2, в которой направления осей не совпадают с главными осями рассеивания, уже не будут независимы (хотя бы потому, что линии регрессии не параллельны осям координат). Значение функции f(x, y) совпадает с плотностью канонического нормального распределения в той же точке. Закон Вероятностные основы.7. Двумерное нормальное распределение 1 распределения f(x, y) можно получить преобразованием канонического закона при повороте главных осей на некоторый угол a до совпадения с x1Ox2 : é x1 ù f X ( x ) = f X ( x ) x = Cx , где x = ê ú, x = ë x2 û éx1 ù æ cos a sin a ö êx ú, C = çè - sin a cos a÷ø . ë 2û x2 x1 f1(x1) x2 x2 f2(x2) x2 x1 x2 f2|1(x2|x1) f2(x2) a x1 f1|2(x1|x2) f1(x1) x1 Рис. 7.1. Двумерное нормальное распределение в главной (x1, x2) и произвольной (x1, x2) системах координат В главной системе координат эллипсы равной плотности (1.3) можно представить квадратичными формами с диагональной матрицей D – 1, обратной к матрице, состоящей из главных дисперсий: æ s -2 B k = x : x T D -1x = k 2 , где D -1 = çç 1 è 0 { } æ s 12 0 ö ç ÷ , D = ç 0 s 2- 2 ÷ø è 0 ö ÷. s 22 ÷ø Если векторы x и x связаны преобразованием x = Cx , матрица D получена преобразованием D = CKCT матрицы K, которая должна быть матрицей корреляционных моментов, чтобы выполнялось Dii = si2, i = 1, 2: 2 é 2 ù 2 Dij = M [X1 , X 2 ] = M êå C ir X r X s C sj¢ ú = å C ir M [ X r X s ]C sj¢ = å C ir K rs C sj¢ . r =1 ë r =1 û r =1 Эллипс Bk в произвольной системе x1Ox2 образуется симметричной матрицей K – 1 = CTD –1C, обратной к корреляционной матрице K: { } { } { } Bk = x : x T D -1 x = k 2 = x : (Cx ) T D -1Cx = k 2 = x : x T C T D -1Cx = k 2 , так как из того, что D = CKCT, D –1 = (CT)–1K –1C –1 следует CTD –1C = K –1. Многомерный нормальный закон в канонической векторной форме Квадратичную форму в (7.2) можно заменить матричным выражением, а произведение s1s2 выразить через определитель корреляционной матрицы: f (x) = 1 2p det D e - 12 x T D -1 x . Канонический двумерный нормальный закон в векторной форме легко обобщить на n-мерный нормально распределенный случайный вектор: æ 1 x2 ö 1 expç - i2 ÷ = ç 2s ÷ i =1 2ps i i ø è æ 1 ö expç - x T D -1x ÷. ø (2p )n det D è 2 (7.4) Вероятностные основы.7. Двумерное нормальное распределение 2 n f (x ) = Õ 1 Нормальный закон многомерного вектора в общем виде В произвольной системе координат, в которой корреляционная матрица K не обязательно диагональная, а центр рассеивания находится в точке m , плотность распределения имеет вид нормального закона в общей форме: 1 f (x) = Нормальное распределение на плоскости в координатной форме (2p) n det K e - 12 ( x - m ) T K -1 ( x - m ) . (7.5) Нормальное распределение системы (X, Y) в общем случае задается МО mx = M[X], my = M[Y], а также дисперсиями Dx, Dy и корреляционным моментом Kxy или СКО sx, sy и коэффициентом корреляции r, определяющими корреляционную матрицу K xy ö æ s 2x ÷=ç Dy ÷ø çè rs x s y æ Dx K = çç è K xy rs x s y ö ÷. s 2y ÷ø (7.6) Выразив определитель detK и обратную матрицу K–1 через параметры рассеивания det K = s 2x s 2y - r 2 s 2x s 2y = (1 - r 2 )s 2x s 2y , æ s 2y - rs x s y ö ç ÷, K 2 ç - rs s ÷ s x y x è ø и подставив их в (7.5) при n = 2, получим плотность двумерного нормального распределения, заданного параметрами mx, my, sx, sy, r: -1 f (x, y) = 1 = 2 (1 - r )s 2x s 2y é( x-mx )2 -2r ( x-mx )( y -my ) + ( y-my )2 ù s xs y 2(1-r 2 ) ê s2x s2y ú ë û. e - 1 2psx s y 1 - r 2 1 (7.7) В частности, при r = 0 формула (7.7) превращается в нормальный закон двух независимых СВ, а при mx = my= 0 – в каноническую форму двумерного нормального распределения. Проекции нормального распределения Интегрирование совместной плотности (7.7) по одной из переменных дает нормальное распределение другой СВ: f X ( x) = 1 é( x -mx )2 -r ( x-mx )( y -m y ) + ( y -m y )2 ù s xs y ú 2(1-r 2 ) ê s2x s2y ë û dy = òe ¥ - 1 1 e - ( x - mx ) 2 2s2x 2ps x 2psx s y 1 - r 2 -¥ Действительно, после стандартной замены переменных y - my x - mx u= , v= , dy = sydn sx sy интегрирование по частям 1 v - ru (v - ru) 2 (u 2 - 2 ruv+v 2 ) u2 ¥ u2 ¥ z2 ¥ z= , 2) 2(1-r 2 ) 2 2 2 ( 1 r I = òe dv = e 2 ò e dv = 1- r = 1- r e 2 ò e 2 dz -¥ -¥ . -¥ dv = 1- r 2 dz с учетом интеграла Пуассона дает окончательный результат: f X ( x) = 1 2ps x s y 1 - r 2 - sy 1- r2 e ( x - mx )2 2 s 2x = 1 2 ps x - e ( x -mx )2 2 s 2x Вероятностные основы.7. Двумерное нормальное распределение . 3 Условные распределения нормального закона Применяя теорему умножения плотностей, получим условные распределения нормального закона: fY|x ( y | x) = f (x, y) 1 = f X (x) 2psy 1- r2 2 æ y-my -r x-mx ö÷ 2 ç s s e 2(1-r )è y x ø = - 1 - ( y-my| x )2 1 e 2ps y|x 2s 2y| x . Условная плотность подчиняется нормальному закону с параметрами my|x, sy|x и свойствами нормальной регрессии (6.26) – (6.29), то есть линейной регрессии с постоянной условной дисперсией. Некоррелированность означает независимость системы нормально распределенных СВ. Если СВ системы однородны (например, координаты случайной точки на плоскости), их можно сделать независимыми надлежащим поворотом системы координат. Переход к главной системе координат Система двух нормально распределенных СВ задается пятью параметрами mx, my, sx, sy, r. Если r ¹ 0, то корреляционную матрицу (7.6) можно привести к диагональному виду преобразованием D = СKCT. Необходимый угол поворота a найдем из условия обращения в ноль недиагональных элементов матрицы D: 2 1 1 0 = D12 = å c1i K ij c 2i = - s 2x sin 2a + rs x s y cos 2a + s 2y sin 2a, 2 2 i , j =1 откуда следует æ 2rs xs y ö 2 rs x s y 1 ÷, при s x ¹ s y . (7.8) , a = arctgç 2 tg 2a = 2 2 çs -s 2 ÷ 2 s x -s y x y è ø Круговое рассеивание Если разница между главными СКО уменьшается до ноля, соотношение (7.8) непротиворечиво (не определено) при нулевом коэффициенте корреляции или при a = p/4. Рассеивание с параметрами sx = sy = s и нулевым коэффициентом корреляции называют круговым (эллипс рассеивания принимает форму круга). В круговом рассеивании все направления главные. Рассеивание можно считать практически круговым, если разность между СКО составляет менее четверти от их среднего арифметического. Параметры рассеивания в главной системе координат Координаты центра рассеивания в новой системе координат é m1 ù æ cos a sin a ö é m x ù êm ú = çç - sin a cos a ÷÷ êm ú. øë y û ë 2û è (7.9) Дисперсии можно получить как диагональные элементы матрицы D = СKCT : 2 s 12 = D11 = åc1i Kij c1i = s x2 cos2 a + rs xs y sin 2a + s y2 sin2 a, i , j =1 2 s 22 = D22 = åc2i Kij c2i = s x2 sin2 a - rs xs y sin 2a + s y2 cos2 a. (7.10) (7.11) i , j =1 По этим формулам вычисляют дисперсии после поворота системы координат на угол a, и, в частности, главные СКО s1, s2, если угол соответствует отношению (7.8). В главных осях рассеивания лучше проявляются инвариантные свойства распределения и проще вычислять вероятности попадания случайной точки в заданную область. Вероятностные основы.7. Двумерное нормальное распределение 4 Вероятность попадания в эллипс рассеивания Вероятность попадания в эллипс рассеивания Вероятность попадания случайной точки в произвольную область D можно вычислить интегрированием плотности распределения по этой обласu2 ти. Если D – эллипс рассеивания Bk, интегриx1 рование можно вести по слоям равной плотноr x2 сти Br (0 < r £ k), причем заменой переменных u1 ui = xi / s i (i = 1, 2) эти слои превращаются в круговые Cr = {u1, u2: u12 + u22 < r2} (рис. 7.2). Плотность вероятности на Cr с учетом изменения масштабов переменных принимает вид Рис. 7.2. Переход к интегрированию по кольцевым слоям r2 r2 1 -2 f (r ) = e , вероятность попадания в слой dP(r, dr) = 2prdr f(r) = re 2 dr , 2p а вероятность попадания в Bk можно получить интегрированием по слоям: k pk = ò e - r2 2 rdr = 1 - e - k2 2 . (7.12) Обобщение на n мерные эллипсоиды рассеивания Так же интегрированием по слоям равной плотности можно вычислить вероятность попадания в трехмерный и, вообще, в n-мерный эллипсоид рассеивания: заменой переменных ui = xi si , i = 1, …, n эллипсоид превращается в n-мерную сферу, вероятность попадания в слой (r, r + dr) теперь пропорциональна r n-1 exp(- r 2 s 2 ) , а суммарная вероятность выражается интегралом 2 r k æ n X2 ö Pçç å i2 < k 2 ÷÷ = Pk ;n = C ò e 2 r n -1 dr . è i =1 s i ø (7.13) где С – постоянная. Так как при k® ¥ P¥; n = 1, значение C должно быть обратной величиной к интегралу с бесконечным верхним пределом. Интеграл в (7.13) выражается через неполную гамма-функцию k òe r2 2 t = r 2 / 2, r n -1 dr = r = 2t k2 / 2 ò = dt = 1 / 2t dt -1 æn k2 e -t t 2 dt = g çç , è2 2 n ö ÷÷ , ø а константа С – через гамма-функцию: C = 1/G(n/2). Вероятность попадания в n-мерный эллипсоид можно вычислить по формуле: ( ) æ n X2 ö g n / 2, k 2 / 2 Pçç å i2 < k 2 ÷÷ = Pk ;n = . G(n / 2) è i =1 s i ø (7.14) При n = 2 C = G(1) = 1, Pk; 2 совпадает с pk, определяемым формулой (7.12). Случайная величина «хи-квадрат» Сумма квадратов n случайных величин, имеющих нормальное распределение с нулевым МО и единичным СКО, обозначают c 2n : n c 2n = å i =1 X i2 n 2 X = å c i , X i Î N [0, s i ], c i = i Î N [0,1] . 2 si s i i =1 Закон распределения СВ c 2 n называется распределением «хи-квадрат» с n степенями свободы. Функция распределения F(x; n) CB c 2 n выражается че- Вероятностные основы.7. Двумерное нормальное распределение 5 рез неполную гамма-функцию как вероятность попадания в соответствующий эллипсоид (7.14): g (n / 2, x / 2) . G(n / 2) F ( x; n) = (7.15) При четных n для вычисления F(x; n) можно воспользоваться соотношением (П5.8) для регуляризированной гамма-функции. При n нечетных интеграл (7.13) можно взять по частям: x I ( x; n) = ò e - r2 2 r n -1 u = r n- 2 , dr = dv = e - r2 2 = -r n-2 e - r2 2 rdr x x + (n - 2) ò e - r2 2 r n -3 dr . Получено рекуррентное соотношение I ( x; n) = - x n-2 e - x2 2 + (n - 2) I ( x; n - 2) с граничным интегралом I ( x;1) = 2p F( x) , где F(x) – функция Лапласа. Основные свойства распределения «хи-квадрат» Используя соотношение (П5.8) для четных n и рекуррентное соотношение для нечетных, получим функцию распределения «хи квадрат» в виде: m ì æn k2 ö a i -a ï1 - Rçç - 1, ÷÷, n = 2, 4, 6, K , R(m, a) = å e , (7.16) 2 ø i = 0 i! ï è2 2 F ( k ; n) = í 2 k 2 - 2 n-2 k m ï ï2F (k ) - p e å m!! , n = 3, 5, 7, K m =1 î Плотность распределения «хи квадрат» получим дифференцированием выражения (7.15): f(x; n) = 1 d g (n / 2, x / 2) = n/2 x n / 2 -1e - x / 2 , x >0. dx G(n / 2 ) 2 G(n / 2 ) (7.17) По определению СВ c n2 = å c i2 – сумма независимых СВ, поэтому ее n i =1 МО и дисперсия равны, соответственно, сумме МО и дисперсий слагаемых. Так как ci Î N(0, 1), c i2 – квадрат центрированной СВ, M [ c i2 ] = D[ c i ] = 1 , а второй начальный момент c i2 – это центральный момент 4-о порядка СВ ci , распределенной по нормальному закону: a 4 [ c i ] = M [ c i4 ] = m 4 [ c i ] = 3 . Поэтому D[ c i ] = a 4 [ c i ] - M [ c i2 ] 2 = 3 - 1 = 2 . Следовательно, M[c2] = n, D[c2] = 2n. Распределение «хи квадрат» принадлежит к семейству гамма-распределений с плотностью f(x) = b a a -1 -bx x e , x >0. G(a ) Вероятностные основы.7. Двумерное нормальное распределение (7.18) 6 f(x) При a > 1 оно имеет моду Mo hi2(10) 0.1 = (a-1)/b. Распределение «хи квадhi2(20) hi2(30) рат» – это гамма-распределение с 0.08 N(30,7.75) параметрами a = n/2, b = 0,5, его 0.06 мода равна n – 2. На рис. 7.3 показаны кривые плотности распреде0.04 ления «хи квадрат» при n = 10, 20 0.02 и 30, а также плотность нормального распределения с параметрами x 10 20 30 m = 30, s = 30 . Считается, что Рис. 7.3. Кривые распределения «хи квадрат» при n > 30 распределение «хи квадрат» близко к нормальному. Графики построены следующими командами (первая повторена трижды с n = 10, 20, 30): >> x=0:0.5:40;n=10;n2=n/2;f=1/(2^n2*gamma(n2))*x.^(n2-1).*exp(-x/2);plot(x,f,'g') >> x=0:0.5:40;X=Norm_1(30,sqrt(60));plot(x,fff(X,x),'r') Вероятность попадания в n-мерный эллипсоид рассеивания Вероятность попадания в n-мерный эллипсоид Bk,n – это значение функции распределения СВ c 2n , в которой F(k;n) 1 a a1 = L = n – отношение полуосей s1 sn n-мерного гиперэллипсоида рассеивания к соответствующим главным СКО. В частности, вероятность попадания в трехмерный эллипсоид рассеивания получается из формулы (7.16) для нечетных n: 0.5 k= Pk ; 3 = 2 F ( k ) - 2 ke p k2 2 n =2 n =30 1 2 3 4 k 5 Рис. 7.4. Вероятность попадания в эллипсоиды рассеивания * = 2F (k ) - 1 - 2 ke p k2 2 . (7.19) Вычисление по формулам (7.16) при произвольных n можно выполнять с помощью электронной формулы p_Ellipsoid (Листинг 7.1), которая получает аргумент k в векторной форме, позволяя одновременно вычислить вероятности попадания в эллипсы разных размеров. Графики зависимости вероятности попадания от размеров эллипсоидов при числах измерений 2, 3, 4, 10, 20, 30 (рис. 7.4) построены командой: >> k=0.2:0.2:6; I=[2 3 4 10 20 30]; >> figure, for n=I P=p_Ellipsoid(k,n); plot(k,P),end Распределение n-мерного промаха Если рассеивание по всем направлениям одинаково s1 = s2 = … = sn = s (круговое, шаровое рассеивание), можно говорить о распределении расстояния от случайной точки до центра рассеивания – n-мерного промаха Rn. Функция распределения Fn (r ) = P( Rn < r ) = F (k 2 ; n) при k = r/σ. Плотность распределения промаха можно получить из плотности распределения «хи квадрат» (квадрата промаха), заменив x на (r/σ)2 и умножив на якобиан 2r/σ2: f n (r ) = 2r n -1 ( 2 ) G(n 2)s n n e - r2 2s 2 . Вероятностные основы.7. Двумерное нормальное распределение (7.20) 7 Числовые характеристики n-мерного промаха Числовые характеристики n-мерного промаха Rn должны выражаться через СКО рассеивания σ (систематические ошибки отсутствуют): ¥ ¥ 2s ærö mr = M [ Rn ] = ò rf n (r )dr = n / 2 ç ÷ ò 2 G(n / 2 ) 0 è s ø n -1 e - r2 2s 2 d r2 = 2s 2 (7.21) r2 ænö æ n +1ö = s 2 Gç ÷ Gç ÷ . 2 2s è2ø è 2 ø Второй начальный момент легко определить как МО суммы квадратов независимых СВ: én ù n a 2 [ Rn ] = M [ Rn2 ] = M êå X i2 ú = å M [ X i2 ] = ns 2 , ë i =1 û i =1 2 2 (7.22) D[ R ] = a [ R ] - m = ns - m 2 . =t = n Круговое нормальное рассеивание на плоскости 2 n r r При круговом рассеивании на плоскости вероятность попадания в круг радиуса r, центр которого совпадает с центром рассеивания, можно вычислить по формуле (7.12), подставляя k = r / s: r2 2 (7.23) P(X2 + Y2 £ r2) = 1 – e 2s . Таким образом, промах R = X 2 + Y 2 при круговом нормальном рассеивании при отсутствии систематической ошибки подчиняется закону Рэлея. Через параметр σ закон Рэлея записывается в виде: r2 r - 2 f(r) = 2 e 2 s , r > 0. s (7.24) МО и дисперсию промаха получим из (7.21), (7.22) при n = 2: mr = M[R] = 2sG(3 2)G(1) = s 2 × 0,5 p = s p 2 » 1,25s . 4 -p 2 D[ R] = 2s 2 - mr2 = 2s 2 - 0,5ps 2 = s » 0,429s 2 ; 2 4 -p sr = s » 0,655s . 2 Мода и медиана закона Рэлея: (7.25) (7.26) r2 æ 1 r2 ö - 2 1 Mo 2 f ¢( x) = çç 2 - 4 ÷÷e 2s Þ 2 - 4 = 0 Þ Mo = s , s ø s s ès Me2 1 2 F (Me) = = 1 - e 2s Þ Me = s 2 ln 2 » 1,177s. 2 Радиус круга, в который попадает половина всех случайных точек при круговом нормальном рассеивании, называется срединным (вероятным) промахом или круговым вероятным отклонением (КВО) Ek = Me = 1,177s = 1,74E (s и E = 0,675s – координатные СКО и срединное отклонение). Вероятностные основы.7. Двумерное нормальное распределение 8 На рис. 7.5 показаны вместе с плот- f(r) ностью распределения Рэлея единичный круг рассеивания радиусом σ, круг радиуса Ek, в который попадает половина всех реализаций промаха. Для сравнения на оси абсцисс выделена полоса шириной mr 2E, в которую попадает половина всех E E Ek реализаций одной координаты. КВО больше наивероятнейшего промаха, сов0 1s 2 s r 3s падающего с радиусом единичного круга Рис. 7.5. Распределение Рэлея рассеивания, вероятность попадания в и его характеристики положения который равна 1 – exp(–0.5) = 0,393, и чуть меньше среднего промаха mr = 1,25s > 1,177s = Ek . Вероятность попадания в заданную область Вероятность попадания в заданную область при нормальном рассеивании можно определить аналитически или с помощью таблиц лишь в отдельных случаях, когда область задана эллипсами (эллипсоидами) рассеивания или интервалами отдельных СВ в главных осях рассеивания. В остальных случаях нужно разумно организовать процедуры численного интегрирования плотности распределения по области цели, чтобы не только вычислять вероятность попадания, но и оптимизировать условия для ее повышения. Вероятность попадания в эллипс рассеивания Если распределение задано параметрами в главных осях рассеивания mx = my = 0, sx, sy, r = 0, область – эллипсом рассеивания с полуосями a = ksx, b = ksy, вероятность попадания вычисляется по формуле (7.12). >> k=[1 2 3];P=1-exp(-0.5*k.^2) P = 0.3935 0.8647 0.9889 Вероятность P((X, Y)Î B1) попадания в единичный эллипс с полуосями a = sx, b = sy равна 0,3935. Эллипс B3 с полуосями a = 3sx, b = 3sy называется полным эллипсом рассеивания, в него попадают практически все реализации случайного вектора: P((X, Y)Î B3) = 0,9889. Это значит, что интегрирование «по всем возможным значениям» можно вести в пределах полного эллипса рассеивания. В масштабе срединных (вероятных) отклонений E x = r 2s x E y = r 2s y эллипс рассеивания B ¢ геометрически совпадает с B r 2k 1 k1 : ìï x2 y2 x2 y 2 ïü ïì ïü Bk¢1 = í x, y: 2 + 2 £k12 ý = í x, y: 2 + 2 £( r 2k1 ) 2 ý = B . r 2k 1 sx sy Ex Ey ïî ïþ ïî ïþ Поэтому вероятность попадания в эллипс с полуосями a = k1Ex, b = k1Ey такая же, как в Bk при k = r 2k1 : P((X, Y)Î B ¢ ) = 1 - e k1 Вероятность попадания в круг - ( r 2 k1 ) 2 2 = 1- e - ( rk1 ) 2 . (7.28) При круговом рассеивании (sx = sy = s) вероятность попадания в круг радиуса r, с центром в центре рассеивания, определяется по формуле (7.23). Вероятность попадания в круг, центр которого не совпадает с центром рассеивания, удобно вычислять в полярных координатах (r, j) с началом в Вероятностные основы.7. Двумерное нормальное распределение 9 центре круга (r – промах, j – направление промаха). Плотность в полярных координатах fR,Ф(r, j) можно получить из плотности f(x, y) с учетом якобиана преобразования к полярным координатам J = r: При круговом рассеивании все направления главные, декартову систему координат можно ориентировать так, чтобы центр рассеивания находился на оси Ox. Тогда параметрами рассеивания декартовых координат (X, Y) будут mx = – d, my = 0, sx = sy = s, где d – смещение центра круга от центра рассеивания: 1 æ f R ,F (r ,j ) = r f ( x, y ) x = r cosj y = r sinj ç ( r cosj + d ) r 2s 2 è e = 2ps 2 2 + r 2 sin 2 j ö ÷ ø r e = 2ps 2 r 2 + d 2 rd cosj 2s 2 s 2 . Плотность распределения промахов R теперь можно получить интегрированием совместной плотности по всем возможным значениям Ф: 2p r f R (r ) = ò f R ,F (r , j)dj = 2 e s r 2 +d 2 2 2 s2 p òe - rd s2 cos j (7.29) dj. Если смещение отсутствует (d = 0), промахи подчиняются закону Рэлея. В общем случае распределение отличается от закона Рэлея множителем d2 rd æ r d ö - 2 2p - 2 cos j dj . I 0 ç , ÷ = e 2s ò e s ès s ø (7.30) Имеются таблицы функции нецентрального распределения Рэлея r W(r, h) = ò exp( -0.5(t 2 + h 2 )) I 0 (ht )tdt , с помощью которых вычисляют вероятность попадания в смещенный круг: P((X – d)2+Y 2 £ r) = FR(r, d) = W(r/s, d/s). В качестве примера в Приложении 7 приведена Таблица 1 нецентрального распределения Рэлея, а также программы, с помощью которых она получена (Листинги 7.3, 7.4). Электронная формула f_Rayl(r,s,d) вычисляет плотность распределения Рэлея fR(r, d) по формуле (7.24), если d = 0, или по формуле (7.29) при ненулевом смещении. Функция p_Rayl(r,s,d) вычисляет вероятность попадания в круг радиуса r по формуле (7.24) с параметром s или интегрированием результатов f_Rayl, если задан ненулевой третий аргумент. Так, столбцы Таблицы 1 при 0 < r < 4 получены следующей командой: (7.31) P(r,d) 1 0.5 3 d 2 1 2 r 1 Рис. 7.7. Вероятность попадания в круг радиуса r при круговом рассеивании со смещенным на d центром >> W=p_Rayl(0.1:0.1:4,1,0:0.1:0.9); Двумерный график функции W(r/s, d/s) на рис. 7.7 построен следующей командой: >> r=0.1:0.1:3;d=0:0.3:3;W=p_Rayl(r,1,d);[rr,dd]=meshgrid(r,d);surf(rr,dd,W') Вероятность попадания в эллипсоид Вероятность попадания в 3-мерный эллипсоид (X,Y,Z)ÎBk;3 можно вычислить по одной из формул (7.19): k æ ( X - mx ) 2 (Y - m y ) 2 (Z - m z ) 2 ö 2 -2 2÷ ç P + + £ k = 2F(k ) ke . ç ÷ p s 2x s 2y s 2z è ø (7.32) Вероятностные основы.7. Двумерное нормальное распределение 10 2 Тот же результат можно получить с помощью электронной формулы Вероятность попадания в шар радиуса r при sx= s y= sz= s и отсутствии систематических ошибок mx= my= mz = 0 можно вычислять по этой же формуле с подстановкой k = r / s: r2 2 r - 2s 2 æ rö (7.33) . P(R> X=Norm_2([2;3],[3 4],0.4);R=SmartRec([5;3],[4 8]); >> N=1000;Z=Gen(X,N);n=Impact(R,Z); n/N,p=Ver(X,R) ans = 0.2270 p = 0.2207 Изображение на рис. 7.8 объекты формируют сами: >> ShowAll(X,R,Z,'r.') Пример 1. Вычисление вероятностей попадания в группу объектов y 10 5 -5 -10 -9 x Рис. 7.8. Статистические точки Создадим с помощью соответствующих геометрических классов группу объектов, состоящих из прямоугольников и кругов, разместим их на плоскости: >> C=SmartCirc(5); R=SmartRec([3 6]);c=[-4 5 7.5 -5 1 -2;6 1 -8.7 -2 -7 -3]; >> G={};for i=1:3 G{i}=move(C,c(:,i));G{i+3}=move(R,c(:,i+3));end Создадим объект класса Norm_2 с параметрами mx = my = 0, sx = 5, sy = 3, r = 0, функциями этого класса вычислим вероятности попадания в каждую геометрическую фигуру, покажем единичный и полный эллипсы рассеивания. Покажем на том же графике геометрические фигуры (рис. 7.9, а): >> X=Norm_2([0;0],[5 3]); P=Ver(X,G), figure(5), ShowAll(G,'r',X,'g') P = 0.1439 0.3501 0.0251 0.0846 0.0210 0.1041 Функция Ver поочередно выбирает геометрическую фигуру из массива ячеек G, рациональным образом использует формулы (7.28) – (7.39) или применяет численное интегрирование для вычисления вероятностей попадания в область. Хотя вероятности попадания с помощью объектов очень просто вычислять, эти результаты не характеризуют эффективность действия, если вероятность поражения в каждом попадании зависит от места попадания. Эта зависимость может быть слишком сложной, чтобы выразить ее аналитически и применить интегральную формулу полной вероятности. В таких случаях проводят статистическое моделирование, вычисляют показатели действия и по ним устанавливают факт поражения в каждой реализации, а затем определяют статистическую вероятность поражения цели. Вероятностные основы.7. Двумерное нормальное распределение 13 y y 10 10 5 5 -5 -5 -10 -10 -15 Пример 2. Статистическое моделирование в классе Norm_2 -10 -5 5 10 x 15 -15 -10 -5 5 10 Рис. 7.9. Группа фигур, единичный и полный эллипсы рассеивания (а); точки статистических испытаний (б). x 15 Объект X генерирует N случайных точек в соответствии с хранящимися в нем параметрами нормального закона, а затем каждый из геометрических объектов определяет число попавших в него случайных точек, отношение которого к числу испытаний является оценкой соответствующей вероятности: >> N=10000;Z=Gen (X,N); for k=1:6 m=Impact(G{k},Z); Ps(k)=m/N;end,Ps Ps = 0.1375 0.3578 0.0248 0.0823 0.0200 0.0982 В данном случае учитывались все попадания, поэтому частоты должны быть близки к вычисленным ранее вероятностям, но этот подход позволяет в каждой точке из массива Z сначала проанализировать возможность поражения элементарной цели, на основании чего решить, зачетная точка или нет. Выведем на общий график первые 2000 точек (рис. 7.9 б): >> hold on,Show(Z(1:2000),'k.') Пример 3. Оптимизация параметров распределения Из рис. 7.9, а видно, что вероятность попадания в элементарные цели можно увеличить при тех же СКО, если повернуть эллипсы рассеивания примерно на 45°. Исследуем эту возможность и найдем оптимальный угол поворота. Для этого воспользуемся методом RotAxes, построим зависимость суммарной вероятности от угла (рис. 7.10): >> fi=2:2:90;for i=1:45 Y=RotAxes(X,fi(i));U(i)=sum(Ver(Y,G)); end; figure, plot(fi,U) >> [Um,I]=max(U) Um = 0.7766 I = 23 Если можно изменить тактику стрельбы таким образом, чтобы главные оси рассеивания повернулись на 23×2=46°, суммарная вероятность попадания получила бы максимальное значение при тех же МО и дисперсиях. Определим новый объект Xm и покажем его эллипсы рассеивания (рис. 7.11): >> Xm=RotAxes(X,46), figure(5), ShowEl(Xm) Norm_2 Xm: MO = [0 0], CKO = [4.0891 4.1568], r = -0.4704 y y 0.78 10 10 5 5 0.74 0.72 -5 -5 -10 -10 0.76 0.7 50 f Рис. 7.10. Оптимизация направления главных осей 100 -10 10 x -10 10 x Рис. 7.11. Эллипсы рассеивания Рис. 7.12. Рассеивание в оптимальном направлении с центром в пределах фигуры Принятая в качестве показателя эффективности стрельбы суммарная вероятность попаПример 4. дания в элементарные цели имеет максимум при некоторых оптимальных СКО sx* = ksx, Оптимизация СКО рассеивания sy * = ksy. Действительно, при большом рассеивании уменьшается вероятность попадания во все фигуры, а при малых СКО увеличивается вероятность попадания в фигуры, близкие к Вероятностные основы.7. Двумерное нормальное распределение 14 центру рассеивания, но становится почти нулевой для отдаленных фигур. Для оптимизации СКО можно воспользоваться операцией умножения на скаляр, которая в классе Norm_2 выполняется в отношении СКО: >> U=[];for i=1:8 U(i)=sum(Ver(Xm*0.98^i,G));end;U U = 0.7781 0.7793 0.7800 0.7803 0.7802 0.7797 0.7788 0.7776 Определим объект с оптимальными СКО по принятому показателю и убедимся в том, что существенное уменьшение СКО не приведет к росту показателя: >> Xh=Xm*0.98^4, Z=sum(Ver(Xh*0.5,G)) Norm_2 Xh Xh.m = [0.000 0.000] Xh.s = [3.772 3.834] Xh.r = -0.470 Xh.K = [14.225 -6.802; -6.802 14.701] Z = 0.6443 Однако сдвиг центра рассеивания внутрь одной из геометрических фигур (его можно выполнить операцией сложения объекта Norm_2 с вектор-столбцом смещения) приводит к монотонному росту показателя до 1 с уменьшением СКО: >> X0=Xh*0.5+[1;1], P=Ver(X0,G), P0=sum(P), ShowEl(X0,1) P = 0.1638 0.6254 0.0021 0.0008 0.0013 0.0238 P0 = 0.8172 Полный и единичный эллипсы для объекта X0 показаны на рис. 7.12. Вероятностные основы.7. Двумерное нормальное распределение 15 Программа верификации кода MATLAB clear all x=0:0.5:40;n=10;n2=n/2;f=1/(2^n2*gamma(n2))*x.^(n2-1).*exp(-x/2);plot(x,f,'g') x=0:0.5:40;X=Norm_1(30,sqrt(60));plot(x,fff(X,x),'r') k=0.2:0.2:6; I=[2 3 4 10 20 30]; figure, for n=I P=p_Ellipsoid(k,n); plot(k,P),hold on,end clear all k=[1 2 3];P=1-exp(-0.5*k.^2) W=p_Rayl(0.1:0.1:4,1,0:0.1:0.9); r=0.1:0.1:3;d=0:0.3:3;W=p_Rayl(r,1,d);[rr,dd]=meshgrid(r,d);surf(rr,dd,W') clear all X=Norm_2([2;3],[3 4],0.4);R=SmartRec([5;3],[4 8]); N=1000;Z=Gen(X,N);n=Impact(R,Z); n/N,p=Ver(X,R) ShowAll(X,R,Z,'r.') clear all C=Circ(5); R=SmartRec([3 6]);c=[-4 5 7.5 -5 1 -2;6 1 -8.7 -2 -7 -3]; G={};for i=1:3 G{i}=move(C,c(:,i));G{i+3}=move(R,c(:,i+3));end X=Norm_2([0;0],[5 3]); P=Ver(X,G), figure(5), ShowAll(G,'r',X,'g') N=10000;Z=Gen (X,N); for k=1:6 m=Impact(G{k},Z); Ps(k)=m/N;end,Ps hold on,Show(Z(1:2000),'k.') fi=2:2:90;for i=1:45 Y=RotAxes(X,fi(i));U(i)=sum(Ver(Y,G)); end; figure,plot(fi,U) [Um,I]=max(U) Xm=RotAxes(X,46), figure(5),ShowEl(Xm) U=[];for i=1:8 U(i)=sum(Ver(Xm*0.98^i,G));end;U Xh=Xm*0.98^4, Z=sum(Ver(Xh*0.5,G)) X0=Xh*0.5+[1;1], P=Ver(X0,G), P0=sum(P), ShowEl(X0,1) Вероятностные основы.7. Двумерное нормальное распределение 16 Контрольные вопросы 1. Распределение какой системы СВ описывает канонический нормальный закон? 2. Как получить нормальный закон распределения двух СВ в самом общем виде на основании канонического нормального закона? 3. Как получить нормальный закон распределения n СВ на основании канонического нормального закона? 4. Объясните вероятностный характер сечений поверхности нормального закона системы двух СВ плоскостями, параллельными координатным плоскостям. 5. Параметры двумерного нормального закона зависят от выбора системы координат. В какой системе координат разность между СКО наибольшая? Как перейти к такой системе координат? 6. Каковы особенности регрессии двумерного нормального закона? 7. Можно ли утверждать, что некоррелированные нормально распределенные СВ независимы? Почему? 8. Радиус действия – Rп, рассеивание на плоскости в целевой системе координат нормальное с параметрами sx = sy = s, mx = my = 0. Размеры цели пренебрежимо малы по сравнению с Rп. Как найти вероятность поражения цели? 9. В условиях предыдущей задачи рассеивание шаровое с координатным СКО s. Как найти вероятность поражения цели? 10. В условиях задачи 8 центр рассеивание находится на расстоянии d от цели. Как найти вероятность поражения цели? 11. Ракета сближается с целью на параллельных курсах. Ошибка наведения в картинной плоскости (перпендикулярной траектории) круговое с координатным СКО s. Срабатывание на траектории происходит с ошибкой, распределенной по нормальному закону Z Î N(mz, sz). Максимальный радиус срабатывания rm, зона эффективного действия в целевой системе координат по направлению сближения ограничена плоскостями z1, z1. Как найти вероятность срабатывания в этой области? Вероятностные основы .7. Двумерное нормальное распределение 17 Таблица 1. Функция нецентрального распределения Рэлея FR(r, d) = W(r/s, d/s). d r 0,1 0,2 0,4 0,4 0,5 0,6 0,7 0,8 0,9 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1.0 0.0000 0.0050 0.0198 0.0440 0.0769 0.1175 0.1647 0.2173 0.2739 0.3330 0.3935 0.0000 0.0050 0.0197 0.0438 0.0765 0.1169 0.1639 0.2162 0.2725 0.3315 0.3917 0.0000 0.0049 0.0194 0.0431 0.0754 0.1152 0.1617 0.2134 0.2691 0.3275 0.3872 0.0000 0.0048 0.0189 0.0421 0.0736 0.1126 0.1580 0.2087 0.2634 0.3209 0.3799 0.0000 0.0046 0.0183 0.0407 0.0712 0.1089 0.1530 0.2024 0.2557 0.3119 0.3697 0.0000 0.0044 0.0175 0.0389 0.0681 0.1044 0.1469 0.1945 0.2462 0.3007 0.3571 0.0000 0.0042 0.0166 0.0369 0.0646 0.0992 0.1397 0.1853 0.2349 0.2876 0.3423 0.0000 0.0039 0.0155 0.0346 0.0607 0.0933 0.1317 0.1749 0.2223 0.2728 0.3255 0.0000 0.0036 0.0144 0.0322 0.0565 0.0870 0.1229 0.1637 0.2086 0.2566 0.3071 0.0000 0.0033 0.0133 0.0296 0.0521 0.0803 0.1138 0.1519 0.1940 0.2395 0.2875 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 0.4539 0.5132 0.5704 0.6247 0.6753 0.7220 0.7643 0.8021 0.8355 0.8647 0.4520 0.5112 0.5684 0.6226 0.6732 0.7199 0.7623 0.8002 0.8337 0.8630 0.4471 0.5060 0.5630 0.6171 0.6678 0.7146 0.7572 0.7954 0.8293 0.8590 0.4391 0.4975 0.5541 0.6081 0.6588 0.7058 0.7487 0.7874 0.8219 0.8522 0.4280 0.4857 0.5418 0.5956 0.6464 0.6936 0.7370 0.7764 0.8116 0.8427 0.4142 0.4709 0.5264 0.5799 0.6307 0.6782 0.7222 0.7623 0.7984 0.8306 0.3979 0.4535 0.5082 0.5612 0.6119 0.6597 0.7042 0.7452 0.7824 0.8158 0.3794 0.4336 0.4874 0.5398 0.5904 0.6384 0.6835 0.7253 0.7636 0.7983 0.3591 0.4118 0.4643 0.5160 0.5663 0.6144 0.6600 0.7027 0.7422 0.7783 0.3373 0.3882 0.4394 0.4902 0.5400 0.5881 0.6341 0.6776 0.7182 0.7557 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8 2.9 3.0 0.8897 0.9111 0.9290 0.9439 0.9561 0.9660 0.9739 0.9802 0.9851 0.9889 0.8882 0.9097 0.9278 0.9428 0.9551 0.9651 0.9732 0.9795 0.9845 0.9884 0.8846 0.9065 0.9250 0.9404 0.9530 0.9634 0.9717 0.9784 0.9836 0.9877 0.8785 0.9011 0.9202 0.9363 0.9496 0.9605 0.9693 0.9764 0.9820 0.9864 0.8700 0.8935 0.9135 0.9305 0.9446 0.9563 0.9658 0.9735 0.9796 0.9845 0.8589 0.8836 0.9048 0.9229 0.9381 0.9507 0.9612 0.9696 0.9765 0.9819 0.8454 0.8715 0.8941 0.9135 0.9299 0.9438 0.9553 0.9648 0.9725 0.9787 0.8294 0.8570 0.8811 0.9021 0.9201 0.9353 0.9481 0.9587 0.9675 0.9746 0.8109 0.8402 0.8660 0.8887 0.9083 0.9252 0.9394 0.9514 0.9614 0.9696 0.7900 0.8210 0.8487 0.8732 0.8947 0.9132 0.9292 0.9427 0.9540 0.9634 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 4.0 0.9918 0.9940 0.9957 0.9969 0.9978 0.9985 0.9989 0.9993 0.9995 0.9997 0.9914 0.9937 0.9953 0.9966 0.9975 0.9982 0.9987 0.9990 0.9993 0.9994 0.9908 0.9932 0.9950 0.9963 0.9973 0.9981 0.9986 0.9990 0.9992 0.9994 0.9898 0.9924 0.9944 0.9959 0.9970 0.9978 0.9984 0.9988 0.9991 0.9993 0.9883 0.9912 0.9935 0.9952 0.9965 0.9974 0.9981 0.9986 0.9990 0.9992 0.9863 0.9896 0.9922 0.9942 0.9957 0.9969 0.9977 0.9983 0.9988 0.9991 0.9836 0.9875 0.9906 0.9930 0.9948 0.9961 0.9971 0.9979 0.9985 0.9989 0.9803 0.9849 0.9885 0.9913 0.9935 0.9952 0.9964 0.9974 0.9981 0.9986 0.9762 0.9816 0.9859 0.9892 0.9919 0.9939 0.9955 0.9966 0.9975 0.9982 0.9712 0.9775 0.9826 0.9866 0.9898 0.9923 0.9942 0.9957 0.9968 0.9977 Вероятностные основы .7. Двумерное нормальное распределение 18 Лекция 8 Система произвольного числа случайных величин Законы распределения систем случайных величин Системы двух СВ – частный случай многомерных случайных векторов, вероятностный смысл которых не зависит от числа компонент. В отличие от системы двух СВ, проекции многомерных систем также могут быть системами (подсистемами). Функция распределения системы СВ Функция распределения F(x1, …, xn) = P(X1 < x1, …, Xn < xn) неотрицательна, монотонно возрастает по каждому аргументу, обращается в ноль, если хотя бы один аргумент меньше нижнего предела возможных значений, порождает частные распределения на бесконечных значениях остальных СВ: F(x1, …,– ¥ ,…xn) = 0, F(x1, ¥, …, ¥) = P(X1< x1) = F1(x1), … F(¥, …, ¥, xn) = P(Xn < xn) = Fn(xn). Кроме частных одномерных распределений в системе n СВ можно выделить подсистемы. Например, в системе (X1, …, Xn) можно выделить подсистему (X1, …, Xk), описываемую частной функцией распределения: F(x1, …, xk, ¥ ,…, ¥ ) = P(X1< x1,…, Xk < xk) = F1…k(x1,…, xk). Плотность распределения системы непрерывных СВ Системы непрерывных СВ имеют непрерывную и дифференцируемую по всем аргументам функцию распределения и смешанную частную производную – совместную плотность распределения системы: д n F ( x1 , K , x n ) , f ( x1 ,K , x n ) = дx1L дx n F ( x1 , K , x n ) = x1 xn -¥ -¥ ò ( n ) ò f ( x ,K , x 1 (8.1) n )dx1K dx n , (8.2) Функция совместной плотности порождает частные распределения f i ( xi ) = ¥ ¥ -¥ -¥ ò (n - 1) ò f ( x1 ,K, xn )dx1 K dxi -1dxi +1 K dxn , плотности совместного распределения подсистем f 1Kk ( x1 ,K , x k ) = ¥ ¥ -¥ -¥ ò (n - k ) ò f ( x ,K , x 1 n )dx k +1 K dx n , а также условные законы распределения подсистем при фиксированных значениях остальных компонент: f ( x1 , K, x n ) (8.3) . f k +1 K n ( x k +1 , K, x n ) Подсистема (X1,…, Xk) независима от остальных СВ системы, если ее условный и частный законы распределения совпадают. Тогда совместная плотность системы равна произведению частных законов распределения: f ( x1 , K, x k | x k +1 , K, x n ) = Теорема умножения плотностей Вероятностные основы. 8. Система n случайных величин 1 f ( x1 , K, x n ) = f1Kk ( x1 , K, x k ) f k +1Kn ( x k +1 , K, x n ) . (8.4) В системе независимых СВ (X1,…, Xn) любая подсистема не зависит от остальных СВ и подсистем. Только в этом случае закон распределения системы получается как произведение плотностей отдельных СВ: (8.5) f ( x1 , K , x n ) = f1 ( x1 ) L f n ( x n ) . Числовые характеристики многомерных распределений Наглядное и часто вполне достаточное представление о системах СВ дают их числовые характеристики. В системе (X1,…, Xn) можно определить: а) n комплектов числовых характеристик отдельных СВ ¥ ¥ -¥ -¥ M [ X i ] = ò (n) ò xi f ( x1 ,K x n )dx1 Ldx n , (8.6) a k [ X i ] = M [ X ik ], m k [ X i ] = M [( X i - M [ X i ]) ]; k (8.7) б) числовые характеристики условных распределений отдельных СВ ¥ M [ X 1 | x2 ,K xn ] = òx 1 f ( x1 | x 2 ,K , x n )dx1 , (8.8) -¥ D[ X 1 | x 2 ,K x n ] = M [ X& 12 | x 2 ,K x n ], (8.9) & где X = X - M [ X 1 | x 2 , K, x n ] , и т.д. для всех условных распределений; в) числовые характеристики всевозможных подсистем, главным образом, вторые смешанные моменты между парами СВ: (8.10) K ij = M [ X& i X& j ], i, j = 1, K, n. Корреляционная матрица Матрица коэффициентов корреляции МО каждой СВ системы входят в вектор МО, а дисперсии и ковариации между каждой парой СВ – в симметричную корреляционную матрицу K с n(n + 1) / 2 неповторяющимися элементами Kij, i =1, …, n; j = i, …, m: æ D1 K 12 L K 1n ö ÷ ém1 ù æ K 11 L K 1n ö ç ÷ ç ç D2 L K 2 n ÷ ú ê m = êL ú, K = ç L L L ÷ = ç . L L÷ ÷ ç ÷ êëmn úû è K n1 L K nn ø çç Dn ÷ø è Все диагональные элементы матрицы коэффициентов корреляции едиK ii = 1, i = 1,…, n. Остальные n(n - 1) / 2 независимых эленичные: rii = Di Di ментов rij, i> R=Rect([3,5]);Show(R), hold on Вероятностные основы. 8. Система n случайных величин 3 >> Xg=Norm_2([2,3]);Xi=Xg*2; X=Xi+Gen(Xg,1);n=20; Z=Gen(X, n); ShowAll(Z,'.',Xg) Рис. 8.3. Рассеивание по схеме двух групп ошибок Улучшение кучности в два раза при таком же увеличении групповых ошибок (б) привело к тому, что из семи серий по 20 выстрелов только в одной отмечено одно попадание в прямоугольник (вторая команда выполнена 7 раз): >> Xi=Xg; Xg=Xi*2; ShowAll( Xg, R, 'r' ) >> X=Xi+Gen(Xg,1);Z=Gen(X, n); Show(Z,'.') Одновременное улучшение кучности и меткости (в) дает высокую точность стрельбы: >> Xg=Norm_2([2,3]); Xi=Xg; X=Xi+Gen(Xg,1);Z=Gen(X, n); ShowAll(Z,'.', Xg, R, 'r') Схема двух групп ошибок Ошибки стрельбы удобно исследовать в главных осях рассеивания, тогда компоненты случайных векторов независимы. Пусть Xг – n-мерный вектор, компонентами которого являются групповые ошибки по одному из главных направлений (по дальности) в каждом из n выстрелов, Xи – n-мерный вектор индивидуальных ошибок. Ошибки рассеивания не зависят от ошибок подготовки, так как обусловлены другими факторами, поэтому суммарный вектор отклонений по дальности X = Xг + Xи представляет собой сумму двух независимых случайных векторов, и, следовательно, его корреляционная матрица равна сумме корреляционных матриц слагаемых векторов. Ввиду того, что среди определяющих факторов нет превалирующих, эти случайные векторы подчиняются нормальному закону. Компоненты вектора Xг одинаковы и характеризуются СКО групповых ошибок sг, а значит и элементы корреляционной матрицы одинаковы: K ij( X г ) = M [ X гi X гj ] = Dгi = s xг2 . Индивидуальные ошибки в каждом выстреле независимы, поэтому корреляционная матрица K(Xи) имеет диагональный вид: K ii( X и ) = Dиi = s xг2 , K ij( X и ) = 0, i ¹ j. Согласно теореме о корреляционной матрице суммы независимых случайных векторов æ s 2xã L s 2xã ö æ s 2xè L 0 ö æ s 2xã + s 2xè L s 2xã ö ç ÷ ç ÷ ç ÷ K (X ) = ç L L L ÷ + ç L L L ÷ = ç L L L ÷ . (8.12) ç s2 L s2 ÷ ç 0 L s2 ÷ ç s2 L s 2xã + s 2xè ÷ø xã ø xè ø xè è xã è è Условия стрельбы, которым соответствует корреляционная матрица ошибок (8.12), называются схемой двух групп ошибок. Для нее характерно, что степень зависимости одинакова между любой парой выстрелов в серии: r(X ) æ 1 rx ç 1 çr =ç x L L ç çr r x è x L rx ö ÷ L rx ÷ s x2г , где r = . x L L÷ s x2г + s x2и ÷ L 1 ÷ø Вероятностные основы. 8. Система n случайных величин 4 (8.13) Коэффициент корреляции между выстрелами Матрица r(X) характеризует зависимость между ошибками по дальности, точно так же можно получить матрицу r(Z) коэффициентов корреляции между s2 ошибками в боковом направлении rz = 2 zг 2 . Общую корреляцию между s zг + s zи ошибками вычисляют как среднее геометрическое: r = r x rz . (8.14) В теории стрельбы вместо СКО используют срединные (вероятные) отклонения. Обозначив Exг = r 2s xг , Ezг = r 2s zг срединные отклонения групповых ошибок, Вд = r 2s xи , Вб = r 2s zи – индивидуальные ошибки по дальности и в боковом направлении, а Ex = Ex2г + В2д , Ez = Ez2г + Вб2 – суммарные ошибки, выразим через них коэффициенты корреляции по направлениям: E x2г E x2г E z2г E z2г = , r = = . (8.15) z E x2г + В 2д E x2 E z2г + В б2 E z2 Повторяющиеся и индивидуальные ошибки вносят свой вклад в суммарную дисперсию равноправным образом, для увеличения вероятности попадания в одном выстреле нужно уменьшать дисперсии как индивидуальных так и повторяющихся ошибок: rx = Возможные результаты стрельбы при двух группах ошибок 1 æç x 2 z 2 ö÷ + 1 2 çè s 2x s 2z ÷ø p1 = e dxdz , где s z2 = s z2г + s z2и , s x2 = s x2г + s x2и . 2ps x s z òò D Когда возможности уменьшения ошибок исчерпаны, приемлемую вероятность попадания в малоразмерную цель можно обеспечить за счет увеличения числа выстрелов. Вероятность хотя бы одного попадания в n независимых выстрелах растет вместе с n по степенному закону p n( 0) = 1 - (1 - p1 ) n , зависимость между выстрелами ослабляет этот рост. Дисперсии индивидуальных и повторяющихся ошибок входят в корреляционную матрицу так, что попытка уменьшить только индивидуальное рассеивание приводит к увеличению коэффициента корреляции. В пределе при sxи = 0 из (8.13) следует, что rx =1, и хотя вероятность попадания в одном выстреле p1¢ увеличится благодаря снижению общего СКО sx = sxг, она останется такой же и в n выстрелах ( p n(1) = p1¢ ), так как все снаряды с одинаковой групповой ошибкой летят по одной траектории. Покажем, что p n(1) < p n( r ) < p n( 0) . Вероятность попадания в бесконечно длинную полосу шириной h = 6, расположенную Сравнение вероятностей попадания в перпендикулярно направлению стрельбы, определяется рассеиванием по дальности с ошиб(0) полосу ками Xг Î N(0, 8), Xи Î N(0, 8). Вычислим для сравнения p , p1¢ и p n при n = 10: 1 >> Xg=Norm_1(0,8); Xi=Xg; X=Xg+Xi; T=[-3,3];n=10; >> p1=Ver(X,T),P1=Ver(Xg,T),P0=1-(1-p1)^n p1 = 0.2091 P1 = 0.2923 P0 = 0.9043 Устранение индивидуальных ошибок привело к увеличению вероятности попадания в одном выстреле с p1= 0,21 до p1¢ = 0,29. В десяти выстрелах, если считать их независимыми, вероятность хотя бы одного попадания возросла бы до p10( 0) = 0,90. Но при корреляции rx = 64/128 = 0,5, эта оценка завышена. Чтобы узнать насколько, проведем статистический эксперимент и по его результатам оценим p10( 0,5) . Вероятностные основы. 8. Система n случайных величин 5 Статистическое моделирование схемы двух групп ошибок é X11 L X1n ù ú ê A=ê L ú êë X N 1 L X Nn úû ß é0 1 ... 0 ù é1 ù ê1 0 ... 0 ú ê1 ú ê ú ê ú ê0 0 ... 0ú Þ ê0 ú ê ú ê ú ê... ... ... ú ê...ú ê0 1 ... 1 ú ê1 ú ë û ë û ß P ß P _r Рис. 8.4 Имитацию одномерного нормального рассеивания по схеме двух групп ошибок выполним с помощью генератора случайных реализаций Gen в классе Norm_1. Разыграем N = 100000 серий по n = 10 выстрелов с характеристиками индивидуального рассеивания Xi и групповых ошибок Xg, сложим матрицу N´n реализаций индивидуальных ошибок и n столбцов N´1 одинаковых в каждом выстреле групповых ошибок: >> N=100000;A=Gen(Xi,N,n)+repmat(Gen(Xg,N,1),1,n); Элементы характеристического массива попаданий U равны единице или нулю в зависимости от того, произошло попадание в цель в данном выстреле или нет, а его среднее арифметическое является оценкой вероятности попадания в одном выстреле: >> U=zeros(size(A));U(A>min(T) & A> P_r=sum(sum(U,2)>0)/N P_r = 0.8431 Итак, вероятность хотя бы одного попадания в зависимых выстрелах с коэффициентом корреляции r = 0,5 меньше той, которая вычислена в предположении независимости выстрелов 0.9043. Убедимся, что матрица выборочных коэффициентов корреляции между столбцами матрицы A (ошибками выстрелов) соответствует r = 0,5. Воспользуемся для этого функцией CorrelCoef(A), текст которой приведен в Листинге 4.1 (Приложение к Лекции 4): >> R=CorrelCoef(A) R = 1.0000 0.5000 0.5019 0.5000 1.0000 0.5023 0.5019 0.5023 1.0000 0.5000 0.4997 0.5002 0.4996 0.5016 0.4982 0.4994 0.4990 0.4989 0.5016 0.4986 0.5012 0.4961 0.5006 0.5016 0.5012 0.4985 0.5003 0.4984 0.4977 0.4973 0.5000 0.4997 0.5002 1.0000 0.4980 0.5007 0.5011 0.4963 0.5001 0.4988 0.4996 0.5016 0.4982 0.4980 1.0000 0.4988 0.5033 0.4984 0.5000 0.4988 0.4994 0.4990 0.4989 0.5007 0.4988 1.0000 0.4997 0.4965 0.5028 0.4950 0.5016 0.4986 0.5012 0.5011 0.5033 0.4997 1.0000 0.5032 0.5013 0.5004 0.4961 0.5006 0.5016 0.4963 0.4984 0.4965 0.5032 1.0000 0.5011 0.4983 0.5012 0.4985 0.5003 0.5001 0.5000 0.5028 0.5013 0.5011 1.0000 0.4968 0.4984 0.4977 0.4973 0.4988 0.4988 0.4950 0.5004 0.4983 0.4968 1.0000 Результат подтверждает основной признак схемы двух групп ошибок: недиагональные элементы матрицы выборочных коэффициентов корреляции практически одинаковы и близки к точному значению r = 0,5. Вероятность попадания в цель Вероятность попадания в полосу при зависимых выстрелах Групповая ошибка случайна, но одинакова для всех выстрелов. Это значит, что при реализовавшейся (фиксированной) групповой ошибке выстрелы независимы, потому что рассеивание определяют только индивидуальные ошибки. Условную вероятность хотя бы одного попадания при n выстрелах можно определять по формуле R1,n(xг) = 1 – (1 – p1(xг))n, где p1(xг) – вероятность попадания в цель при фиксированном центре группирования xг: h/2 p1(xг) = ò f ( x | x )dx . г -h / 2 Условная плотность распределения представляет собой нормальный закон с характеристиками индивидуального рассеивания с учетом смещения центра группирования на фиксированную величину xг: f ( x | xг ) = 1 - ( x - m x - xг ) 2 2s x2и . 2p s xи Вероятность хотя бы одного попадания в n зависимых выстрелах можно вычислить по интегральной формуле полной вероятности: e Вероятностные основы. 8. Система n случайных величин 6 [ ¥ ¥ -¥ -¥ ] pn( r ) = ò R1 ( xг ) f г ( xг )dx = ò 1- (1- p1 ( xг ) ) f г ( xг )dx . n (8.16) Точное значение вероятности хотя бы одного попадания в полосу T в n = 10 выстрелах вычислим по формуле (8.16) с помощью электронной формулы Trap и метода Norm_1/Ver: >> x=Net(Xg); p=1-(1-Ver(Xi+x,T)).^n; Pr=Trap(p.*f(Xg,x),x) Pr = 0.8433 Теоретически обоснованный результат вычисления подтвердил ранее полученную статистическую оценку P_r = 0.8431. Вероятность поражения цели в зависимых выстрелах при одномерном рассеивании Вероятностью хотя бы одного попадания можно оценивать эффективность действия по целям, для поражения которых достаточно одного попадания. В остальных случаях нужно учитывать уязвимость цели, которую характеризует условный закон поражения G(m). В формуле для вероятности поражения при фиксированной групповой ошибке n Wn ( xг ) = å p m ,n ( xг )G (m) , m =1 вероятности гипотез определяются по биномиальной формуле с вероятностью успеха p1(xг). По интегральной формуле полной вероятности получим вероятность поражения цели в n зависимых выстрелах: ¥ ò Wn( r ) = Wn ( xг ) f г ( xг )dx . (8.17) -¥ Электронная формула W_r_n(Xg, Xi, T, n, G) (Листинг 8.1) предназначена для вычислеВычисление вероятности поражения ний по формуле (8.17). Она получает объекты Xg, Xi, представляющие групповые и индивив зависимых дуальные ошибки, объект T, представляющий геометрию цели (в данном случае интервал выстрелах интегрирования), а также массив условных вероятностей поражения G. При независимых событиях пражения условный закон определяется вероятностью поражения в одном попадании: G(m) = 1– (1– r1)n. В таком случае вместо массива G достаточно задать r1. Если последний аргумент функции не задан, вычисляется вероятность хотя бы одного пападания. Вычислим вероятность хотя бы одного попадания и поражения при r1 = 0,3: >> P=W_r_n(Xg,Xi,T,n), W=W_r_n(Xg,Xi,T,n,0.3),wr=W_r_n(Xg,Xi,T,n,1-(1-0.3).^(1:n)) P = 0.8433 W = 0.4604 wr = 0.4604 Циклически измененяя СКО индивидуального рассеивания от 0 до 16 (умножением sxи на массив коэффициентов от 0 до 2), будем уменьшать коэффициент корреляции согласно (8.13) от 1 до 1/(1 + 4) = 0,2, чтобы построить график зависимости от r вычисленной с помощью функции W_r_n вероятности хотя бы одного попадания p n(r ) (рис. 8.5): >> n=10;N=50;s=linspace(0,2,N);for i=1:N [p(i),r(i)]=W_r_n(Xg,Xi*s(i),T,n);end, plot(r,p) C усилением корреляции вероятность хотя бы одного попадания резко снижается (синяя кривая), а наличие экстремума при r = 0,5 объясняется тем, что коэффициент корреляции изменялся за счет уменьшения индивидуального СКО (и, соответственно, суммарного). Построим ту же зависимость при постоянстве суммарного СКО за счет компенсирующего изменения группового СКО. Из (8.13) следует, что при равных базовых значениях sxг и sxи, для сохранения постоянного суммарного СКО при изменении sxи в s раз нужно изменить sxи в 2 - s 2 раз: Рис. 8.5. Влияние корреляции на вероятность хотя бы одного попадания >> S=linspace(0.01,1.4,N); >> i=1;for s=S [p(i),r(i)]=W_r_n(Xg*sqrt(2-s^2),Xi*s,T,n);i=i+1;end, hold on, plot(r,p,'r') Вероятностные основы. 8. Система n случайных величин 7 Сплошная кривая на рис. 8.5 показывает монотонное снижение вероятности от p (0) n = 0,90 до p n(1) = 0,23 с ростом корреляции. Кривая близка к параболе, поэтому в при- ближенных расчетах эту зависимость вычисляют по формуле: ( ) Wn( r ) = Wn(1) + 1 - r 2 Wn( 0 ) - Wn(1) . (8.18) Построим по этой формуле еще одну кривую (пунктирную), чтобы убедиться в правомерности приближения по формуле (8.18): >> R=0:0.01:1; Q=P1+sqrt(1-R.^2)*(P0-P1);plot(R,Q,'--') Вероятность поражения цели при плоском рассеивании В общем случае стрельбы проекция цели на картинную плоскость занимает некоторую двумерную область D. При m попаданиях в нее цель поражается с условной вероятностью P(A|m) = G(m). Определив условную вероятность попадания в цель одним выстрелом p1(xг, zг) = ò f ( x, z | xг , zг )dxdz , (8.19) D найдем условную вероятность m попаданий при n выстрелах по формуле Бернулли (поскольку групповая ошибка фиксирована) pm,n(xг, zг) = C nm p1(xг, zг))m(1 – p1(xг, zг))n–m. Условную вероятность поражения цели при фиксированной групповой ошибке определим по формуле: n Wn ( xг , z г ) = å p m ,n ( xг , z г )G (m) . m =1 Вероятность поражения цели в n выстрелах найдем по интегральной формуле полной вероятности ¥ ¥ Wn = ò òW ( x , z ) f ( x , z )dx dz n г г г г г г г . (8.20) -¥ -¥ Электронная формула W_r_n выполняет вычисления по формулам (8.17) или (8.20) в зависимости от того, принадлежат Xg, Xi к классу Norm_1 или Norm_2. Цель T во втором случае должна быть задана плоской фигурой (объектом классов RecShape, CircShape и т.п.). Схема трех и более групп ошибок Если в системе ошибок стрельбы из одного орудия можно выделить только две группы – повторяющиеся в каждом выстреле и индивидуальные, то в стрельбе батареей повторяющиеся ошибки делятся еще на две группы. Часть из них одинаковы для всех орудий (ошибки, связанные с определением положения цели, учетом метеоусловий), часть – индивидуальная особенность орудия (прицельных приспособлений, износа ствола). Соответственно, дисперсия суммарной ошибки стрельбы складывается из трех компонент: дисперсий батарейных, орудийных ошибок и индивидуального рассеивания. Первые два слагаемых можно объединить в дисперсию повторяющихся ошибок (выражения для СКО справедливы и в срединных отклонениях): s x2 = s x2бат + s x2ор + s д2 = s x2п + s д2 , Ex2 = Ex2бат + Ex2ор + В2д = Ex2п + В2д . В структуре корреляционной матрицы трех групп ошибок теперь не один, а два коэффициента корреляции – орудийный rор и батарейный rбат : rор = Ex2ор + E x2бат , rбат = Ex2бат E x2 Ex2 В матрице r(X) элементы, соответствующие парам выстрелов из одного орудия, равны rор , остальные – rбат . С увеличением числа групп в организа- Вероятностные основы. 8. Система n случайных величин 8 ции стрельбы (дивизион, группа дивизионов) соответственно усложняется и схема групп ошибок. Сведение системы ошибок стрельбы к схеме двух групп ошибок Чем больше групп ошибок, тем сложнее учитывать их при расчете показателей эффективности. С другой стороны, даже в случае стрельбы из одного орудия схема двух групп ошибок, которая позволяет достаточно просто оценивать эффективность действия по формуле вида (8.20), не всегда адекватна. Так, при стрельбе из одного орудия очередью повторяющиеся ошибки изменяются от начала к концу очереди, вследствие чего недиагональные элементы матрицы коэффициентов корреляции уже не одинаковы, а уменьшаются по мере их удаления от главной диагонали. С целью упрощения расчетов эффективности реальную систему ошибок, представленную матрицей коэффициентов корреляции сводят к схеме двух групп ошибок, усредняя недиагональные элементы этой матрицы. Минимальные ошибки дает среднее геометрическое: rxо = 1 rx2ij . å n(n -1) (8.21) Величину rxо называют сведенным коэффициентом корреляции. Так как в схеме двух групп ошибок коэффициент корреляции связан со срединными отклонениями суммарных и повторяющихся ошибок соотношениями (8.15), сведенному коэффициенту корреляции должно соответствовать сведенное срединное отклонение повторяющихся ошибок (или соответствующее СКО): Exо = Ex rxо , sxо = sx rxо . (8.22) Должно выполняться также соотношение между суммарной дисперсией и ее компонентами, откуда следует сведенное срединное отклонение индивидуальных ошибок (или СКО): (8.23) Вдо = E 2 - E 2 , sxи о = s 2 - s 2 . x xо x xо Таким образом, независимо от схемы стрельбы матрицу коэффициентов корреляции можно привести к эквивалентной схеме двух групп ошибок с характеристиками повторяющихся ошибок Exо и индивидуальных – Вдо. При этом МО обеих групп равны сумме МО отнесенных к ним факторов (систематические ошибки, как правило, стремятся свести к нулю). Сведение к схеме двух групп ошибок позволяет вычислять показатель эффективности по формуле (8.20). Условный показатель вычисляют согласно нормальному распределению отклонений от фиксированного центра (xг, zг) с параметром рассеивания Вдо, а осреднение условного показателя по всем возможным значениям (xг, zг) выполняют по нормальному закону с параметром Exо. Статистическое моделирование нескольких групп ошибок Статистическое моделирование ошибок срельбы по схеме нескольких групп ошибок выполняет файл-функция Scatter2g(Xg,Xi,N,n,U) (Листинг 8.4). Она получает в качестве обязательных аргументов характеристики групповых Xg и индивидуальных ошибок Xi по одной из координат (объекты Norm_1), число испытаний N и число залпов n. Последний необязательный аргумент U в ScatterG2 позволяет сформировать группы ошибок в иерархическом порядке, начиная с самых крупных. В первой строке массива ячеек U располагаются характеристики ошибок, общих для данной группы, во второй строке – число единиц в данной группе. Возвращает Scatter2g объекты Norm_1 с характеристиками групповых и индивидуальных ошибок, коэффициент корреляции, общее число выстрелов, а также Nxn - матрицу ошибок стрельбы. Статистическое моделирование четырех залпов из двух орудий можно выполнить следующим образом: >> Xg=Norm_1(8,5);Xi=Norm_1(4,6);Xb=Norm_1(0,3);N=100000;T=[-3,3]; >> [Yg,Yi,r,m,A]=Scatter2g(Xg,Xi,N,4,{Xb,2}); Вероятностные основы. 8. Система n случайных величин 9 Сравним оценки МО и СКО по матрице A с характеристиками суммарной ошибки: >> X=Xg+Xb+Xi, M=mean2(A), s=std2(A) Norm_1 X [MO = 12.000 CKO = 8.367] M = 12.0070 s = 8.3599 Их совпадение указывает на хорошее качество статистики (достаточное число испытаний). Вычислим матрицу выборочных коэффициентов корреляции: >> R=CorrelCoef(A) R = 1.0000 0.4855 0.4869 0.4882 0.3581 0.3583 0.3626 0.3602 0.4855 1.0000 0.4895 0.4857 0.3625 0.3615 0.3602 0.3582 0.4869 0.4895 1.0000 0.4877 0.3582 0.3582 0.3625 0.3617 0.4882 0.4857 0.4877 1.0000 0.3555 0.3579 0.3612 0.3617 0.3581 0.3625 0.3582 0.3555 1.0000 0.4871 0.4906 0.4865 0.3583 0.3615 0.3582 0.3579 0.4871 1.0000 0.4887 0.4877 0.3626 0.3602 0.3625 0.3612 0.4906 0.4887 1.0000 0.4898 0.3602 0.3582 0.3617 0.3617 0.4865 0.4877 0.4898 1.0000 Обращает на себя внимание блочная структура вычисленной матрицы. Недиагональные элементы в выделенных блоках близки к 0,49, в остальных - к 0,36. Вычислим согласно схеме трех групп ошибок батарейный и орудийный коэффициенты корреляции: >> X=Xg+Xb+Xi; r_bat=D(Xg)/D(X), r=D(Xg+Xb)/D(X) r_bat = 0.3571 r = 0.4857 Теперь ясно, что в выделенных блоках содержатся коэффициенты корреляции выстрелов, произведенных из одного орудия, а в других - батарейные коэффициенты корреляции. Четыре группы ошибок возникают при стрельбе дивизионом из N1 батарей по N2 орудий в каждом с групповыми ошибками дивизиона X1 и батарей X2. Сформировав надлежащим образом массив U = {X1, N1; X2, N2}, статистическое моделирование можно осуществить с помощью функции ScatterG2: >> Xdiv=Xb*2; [Yg,Yi,r,m,A]=Scatter2g(Xg,Xi,N,3,{Xb,2;Xdiv,2});R=CorrelCoef(A) R = 1.0000 0.6613 0.6600 0.5730 0.5735 0.5749 0.2389 0.2377 0.2350 0.2327 0.2338 0.2329 0.6613 0.6600 0.5730 0.5735 0.5749 0.2389 0.2377 0.2350 0.2327 0.2338 0.2329 1.0000 0.6604 0.5736 0.5751 0.5756 0.2381 0.2358 0.2353 0.2361 0.2348 0.2355 0.6604 1.0000 0.5764 0.5750 0.5744 0.2377 0.2336 0.2349 0.2342 0.2345 0.2336 0.5736 0.5764 1.0000 0.6584 0.6610 0.2424 0.2374 0.2364 0.2379 0.2408 0.2371 0.5751 0.5750 0.6584 1.0000 0.6589 0.2406 0.2384 0.2357 0.2364 0.2376 0.2368 0.5756 0.5744 0.6610 0.6589 1.0000 0.2411 0.2411 0.2377 0.2358 0.2358 0.2337 0.2381 0.2377 0.2424 0.2406 0.2411 1.0000 0.6605 0.6603 0.5759 0.5765 0.5781 0.2358 0.2336 0.2374 0.2384 0.2411 0.6605 1.0000 0.6635 0.5739 0.5746 0.5765 0.2353 0.2349 0.2364 0.2357 0.2377 0.6603 0.6635 1.0000 0.5765 0.5766 0.5775 0.2361 0.2342 0.2379 0.2364 0.2358 0.5759 0.5739 0.5765 1.0000 0.6606 0.6617 0.2348 0.2345 0.2408 0.2376 0.2358 0.5765 0.5746 0.5766 0.6606 1.0000 0.6608 0.2355 0.2336 0.2371 0.2368 0.2337 0.5781 0.5765 0.5775 0.6617 0.6608 1.0000 При сквозной нумерации выстрелов в порядке принадлежности к группам корреляционная матрица имеет блочную структуру, к диагонали примыкают блоки, соответствующие выстрелам из одного орудия. Блоки, корреляций выстрелов из разных групп орудий отдаляются от диагонали по мере укрупнения групп, а корреляция между выстрелами уменьшается. Сопоставим значения в этих блоках с коэффициентами корреляции между ошибками, общими для всех выстрелов дивизиона, батареи и орудия: >> r_div=D(Xg)/D(X), r_bat=D(Xg+Xdiv)/D(X), r_or=D(Xg+Xb+Xdiv)/D(X) r_div = 0.2358 r_bat = 0.5755 r_or = 0.6604 Точные значения коэффициентов корреляции совпадают с соответствующими блоками матрицы. Можно выразить и сведенный коэффициент корреляции через характеристики групп ошибок, но метод, использующий статистическое моделирование более универсален. Вычислим сведенный коэффициент корреляции rxо, сведенные срединные отклонения Сведение произвольной системы повторяющихся и индивидуальных ошибок по формулам (8.21) - (8.23): ошибок стрельбы к >> n=length(R);rm=sqrt((sum(sum(R.^2))-n)/n/(n-1)) схеме двух групп >> M=mean2(A); Sx=std2(A), Sxo=Sx* sqrt(rm), Sxio=sqrt(Sx^2-Sxo^2), rm ошибок Sx = 10.3052 Sxo = 6.8932 Sxio = 7.6604 rm = 0.4474 Результаты Scatter2g получены точно так же, поэтому полностью совпадают: >> Y= Yg +Yi, Yg,Yi, r Norm_1 Y: MO = 12.027 CKO = 10.305 Вероятностные основы. 8. Система n случайных величин 10 Norm_1 Yg: MO = 12.027 CKO = 6.893 Norm_1 Yi: MO = 0.000 CKO = 7.660 r = 0.4474 Ошибки стрельбы, моделирование которых осуществлялось по схеме четырех групп ошибок, корректно сведены к схеме двух групп ошибок, что позволяет вычислять вероятности поражения цели функцией W_r_n. Сравним оценки вероятности одного попадания по характеристическому массиву попаданий и с помощью объекта суммарных ошибок: >> U=zeros(size(A));U(A>min(T) & A0)/N P = 0.1086 P_r = 0.6086 >> P=Ver(X,T), Pr=W_r_n(Yg,Yi,T,n) P = 0.1087 Pr = 0.6121 Результаты вычислений по сведенной схеме двух групп ошибок практически совпадают со статистическими оценками, полученными обработкой большого объема прямых испытаний исходной модели стрельбы по схеме четырех групп ошибок. Это подтверждает корректность и правомерность использования статистического подхода. Реализация метода сведения ошибок стрельбы к двум группам в объектно-ориенВлияние зависимости ошибок на ве- тированной технологии полиморфна: Функцию Scatter2g можно применять к одномерным и роятность пораже- двумерным распределениям. Электронную формулу W_r_n также можно применять к расния цели пределениям, заданным системой двух групп ошибок в виде двух объектов (Xg, Xi), принадлежащих либо классу Norm_1, либо Norm_2. Типу этих объектов должна соответствовать геометрия цели: интервал, прямоугольная область или объект класса плоских фигур. Характеристики распределения, заданные несколькими группами ошибок, необходимо сначала обработать программой Scatter2g. Если структура системы ошибок неизвестна, но известно суммарное распределение и общий коэффициент корреляции r между выстрелами, вероятность W поражения цели T с условным законом поражения G в n выстрелах можно вычислять с помощью той же электронной формулы W_r_n(X,r,T,n,G), задавая в качестве первых двух аргументов объект X с характеристиками суммарного распределения и коэффициент корреляции r. Например, зависимость вероятности хотя бы одного попадания в интервал (рис. 8.6) построим следующим образом: Рис. 8.6. Влияние корреляции на вероятность попадания >> Xg=Norm_1(0,8); Xi=Xg; X=Xg+Xi; T=[-3,3];net=[0.01:0.1:0.9 0.91:0.01:1]; >> p=[];for r=net p(end+1)= W_r_n(X,r,T,10);end, plot(net,p) Объект двумерного нормального распределения создадим так, что его проекциями являются определенные выше одномерные СВ. Построим зависимость вероятности хотя бы одного попадания в прямоугольник 10´10 той же циклической командой: >> X2=Norm_2([Xg Xg])+Norm_2([Xi Xi]); R=RecShape([10 10]); >> p=[];for r=net p(end+1)= W_r_n(X2,r,R,10);end,hold on, plot(net,p,'r') Откуда берутся исходные данные о характеристиках ошибок стрельбы? Источники части индивидуальных ошибок – начальные возмущения при выстреле. Хотя они большей частью не зависят от конструкции снаряда, в конечном итоге влияние на рассеивание точки попадания зависит от баллистических характеристик снаряда. Поэтому индивидуальные ошибки необходимо рассматривать как функцию случайных величин – начальных возмущений. Вероятностные основы. 8. Система n случайных величин 11 Программа верификации кода MATLAB clear all R=RecShape([3,5]);Show(R), hold on Xg=Norm_2([2,3]);Xi=Xg*2; X=Xi+Gen(Xg,1);n=20; Z=Gen(X, n); ShowAll(Z,'.',Xg) Xi=Xg; Xg=Xi*2; ShowAll( Xg, R, 'r' ) X=Xi+Gen(Xg,1);Z=Gen(X, n); Show(Z,'.') Xg=Norm_2([2,3]); Xi=Xg; X=Xi+Gen(Xg,1);Z=Gen(X, n); ShowAll(Z,'.', Xg, R, 'r') clear all Xg=Norm_1(0,8); Xi=Xg; X=Xg+Xi; T=[-3,3];n=10; p1=Ver(X,T),P1=Ver(Xg,T),P0=1-(1-p1)^n N=1000;A=Gen(Xi,N,n)+repmat(Gen(Xg,N,1),1,n); U=zeros(size(A));U(A>min(T) & A0)/N R=CorrelCoef(A) Xg=Norm_1(0,8); Xi=Xg; X=Xg+Xi; T=[-3,3];n=10; x=Net(Xg); p=1-(1-Ver(Xi+x,T)).^n; Pr=Trap(p.*f(Xg,x),x) P=W_r_n(Xg,Xi,T,n), W=W_r_n(Xg,Xi,T,n,0.3),wr=W_r_n(Xg,Xi,T,n,1-(10.3).^(1:n)) n=10;N=50;s=linspace(0,2,N);for i=1:N [p(i),r(i)]=W_r_n(Xg,Xi*s(i),T,n);end, plot(r,p) S=linspace(0.01,1.4,N); i=1;for s=S [p(i),r(i)]=W_r_n(Xg*sqrt(2-s^2),Xi*s,T,n);i=i+1;end, hold on, plot(r,p,'r') R=0:0.01:1; Q=P1+sqrt(1-R.^2)*(P0-P1);plot(R,Q,'--') clear all Xg=Norm_1(8,5);Xi=Norm_1(4,6);Xb=Norm_1(0,3);N=1000;T=[-3,3]; [Yg,Yi,r,m,A]=Scatter2g(Xg,Xi,N,4,{Xb,2}); X=Xg+Xb+Xi, M=mean2(A), s=std2(A) X=Xg+Xb+Xi; r_bat=D(Xg)/D(X), r=D(Xg+Xb)/D(X) Xdiv=Xb*2; [Yg,Yi,r,m,A]=Scatter2g(Xg,Xi,N,3,{Xb,2;Xdiv,2});R=CorrelCoef(A) r_div=D(Xg)/D(X), r_bat=D(Xg+Xdiv)/D(X), r_or=D(Xg+Xb+Xdiv)/D(X) n=length(R);rm=sqrt((sum(sum(R.^2))-n)/n/(n-1)) M=mean2(A); Sx=std2(A), Sxo=Sx* sqrt(rm), Sxio=sqrt(Sx^2-Sxo^2), rm Y= Yg +Yi, Yg,Yi, r U=zeros(size(A));U(A>min(T) & A0)/N P=Ver(X,T), Pr=W_r_n(Yg,Yi,T,n) clear all Xg=Norm_1(0,8); Xi=Xg; X=Xg+Xi; T=[-3,3];net=[0.01:0.1:0.9 0.91:0.01:1]; p=[];for r=net p(end+1)= W_r_n(X,r,T,10);end, plot(net,p) X2=Norm_2([Xg Xg])+Norm_2([Xi Xi]); R=RecShape([10 10]); p=[];for r=net p(end+1)= W_r_n(X2,r,R,10);end,hold on, plot(net,p,'r') Вероятностные основы. 8. Система n случайных величин 12 Контрольные вопросы 1. Какими свойствами обладает функция распределения системы n СВ? 2. В чем принципиальное отличие системы n СВ от системы двух СВ? 3. Сколько информативных (не предопределенных) элементов содержится в матрице коэффициентов корреляции системы n СВ? 4. О чем говорит блочная структура матрицы коэффициентов корреляции системы n СВ? 5. Как можно получить корреляционную матрицу суммы некоррелированных случайных векторов? Вероятностные основы. 8. Система n случайных величин 13 Лекция Функции случайных величин Задачи изучения функций СВ 9 Часто практический интерес представляют не сами СВ, а определенные (не случайные) математические функции от них. Например, угловые положения беспорядочно вращегося удлиненного фрагмента подчиняются некоторому закону распределения (возможно, равномерному), однако аэродинамическое сопротивление на участке траектории рассчитывают по «среднему миделю», то есть по МО случайной площади проекции фрагмента на плоскость, перпендикулярную вектору скорости. Сама площадь проекции функционально зависит от угловых координат, но из-за случайного характера аргументов также имеет случайные значения, распределение которых отличается от распределения аргументов. Зависимость Y = j(X), где j – неслучайная функция, ставит в соответствие возможным значениям СВ X = x одно значение СВ Y: Y = y = j(x). Функция j может иметь несколько аргументов Y = j(X1,…, Xn), может быть векторной Y = j(X). Если закон распределения СВ X известен, можно построить закон распределения Y или ограничиться определением ее числовых характеристик (ЧХ). Так, чтобы учесть влияние аэродинамического сопротивления на потерю скорости фрагмента, достаточно знать МО площади проекции, но для анализа поражающего действия этого мало, возможность пробития определяет фактическая поперечная нагрузка, а не ее МО. Числовые характеристики функций случайных величин Если известен закон распределения СВ X и задана функция y = j(x), определяющая реализации СВ Y = j(X), можно получить закон распределения FY(y), после чего вычислить M[Y], D[Y] и другие характеристики. Если достаточно знать только числовые характеристики, их можно найти по известному закону FX(x) без построения FY(y), что подтверждает следующий пример. Пример функции дискретной СВ Число обнаруженных целей X подчиняется закону Пуассона, из них число атакованных целей Y ограничено боезапасом n: Y = min(X, n). Для нахождения среднего числа атакованных целей рассмотрим СВ Y как функцию случайного аргумента X при данном n и дополним ряд распределения X строкой значений j(xi) = min{xi, n}. Третья и вторая строки расширенной таблицы (Таблица 9.1) содержат возможные значения Y и соответствующие им вероятности, но эти строки не являются рядом распределения, так как в столбцах xi ³ n находятся одинаковые значения yi = j(xi) = n, а ряд распределения должен быть строго упорядоченным по возрастанию возможных значений. Таблица 9.1. Ряд распределения СВ X, дополненный значениями yi = j(xi) Таблица 9.2. Ряд распределения СВ Y xi pi p0 1 …n–1 n n+1 … p1 … pn – 1 pn pn + 1 … j(xi) 1 …n–1 n n … yi gi p0 1 …n–1 n n -1 p1 … pn – 1 1 - å p i i =0 1 Ряд распределения Y (Табл. 9.2) в последнем столбце Y = n объединяет ¥ n -1 события X ³ i, "i ³ n, значит P(Y = n) = P åi = n ( X = xi ) = 1 - P åi =0 ( X = xi ) , ( ) ( ) поэтому сумма произведений j(xi) на соответствующие вероятности P(X = xi) ¥ n -1 n -1 æ n -1 ö = + = + p j ( x ) i p n p i p n ç1 - å p i ÷ = M [j ( x)] å å å å i i i i i i =0 i =0 i =n i =0 è i =0 ø ¥ совпадает с МО, вычисленным по ряду распределения Y. Интегральные числовые характеристики функции одной СВ Таким образом, получать закон распределения функции СВ нет необходимости, если нужно знать только ее моментные характеристики. Начальные моменты функций дискретной СВ можно вычислить по формуле: [ ] a k [Y ] = M j ( x) k = å j ( xi ) k pi (9.1) i Если X – непрерывная СВ с плотностью f(x), начальные моменты k-й степени функции j(X) можно получить интегрированием возможных значений j k (x) по элементам вероятностей f(x)dx: ¥ a k [Y ] = M [Y k ] = ò j k ( x) f ( x)dx. (9.2) -¥ Центральные моменты функции СВ вычисляют согласно определению: [ ] m k [Y ] = M (j ( x) - M [Y ]) . Пример 1: средняя проекция стержня при пространственном беспорядочном вращении k Среднюю длину пробоины в плоском экране от быстро летящего стержня длиной l, свободно вращающегося в плоскости, перпендикулярной к экрану (рис. 9.1), можно определить как первый начальный момент функции Y = l cos X угла X между стержнем и экраном, распределенного равномерно в интервале [0, p/2]. Подставляя в формулу (9.2) j(x) = l cos x, f(x) = 2/p при k = 1, получим p/2 M [Y ] = 2 2l ò l cos x pdx = p (9.3) l j Экран Рис. 9.1. Проекция стержня в плоском вращении = 0,637l. Числовые характеристики функции нескольких СВ Начальные моменты функции векторного аргумента Y = j(X1, …, Xn) вычисляются n-кратным интегрированием k-й степени функции j(x1, …, xn) по элементам вероятностей f(x1, …, xn)dx1… dxn: a k [Y ] = M [Y k ] = Пример 2: средняя проекция стержня при пространственном вращении ¥ ¥ -¥ -¥ k ò (n) ò j( x1 ,..., xn ) f ( x1 ,..., xn )dx1 ...dx n . (9.4) Пространственную ориентацию стержня зададим в сферической системе координат углами j и q (рис. 9.2). Оба угла – возможные значения СВ F Î [0, p/2] и Q Î [0, 2p]. Длина проекции l стержня l cosF зависит только от j, но по j условию равновозможных ориентаций q стержня можно определить не fF(j), а совместную плотность f(q, j). По этому условию Экран элемент вероятности f(q, j)dqdj пропорциоРис. 9.2. Проекция стержня Вероятностные основы. 9. Функции случайных величин 2 нален площади элемента сферической поверхности единичного радиуса cos j djdq, т.е. f(q, j) = Acos j. Основное свойство плотности распределения p / 2 2p ò ò A cos jdqdj = 1 1 . Среднюю длину проекции найдем по формуле (9.4) 2p p / 2 2p p/2 p/2 1 l pl M [Y ] = ò ò l cos j cos jdqdj = l ò cos 2 jdj = ò (1 + cos 2j)dj = . 2p 2 0 4 0 0 выполняется при A = Длина проекции зависит только от угла F, найдем его распределение 2p 2p 1 f F (j) = ò f (q, j)dq = ò cos jdq = cos j , 2p и вычислим ту же характеристику по формуле (9.3): p/2 pl M [Y ] = ò l cos j cos jdj = » 0,785l . 4 Средняя длина проекции немного больше, чем в плоском случае потому, что распределение случайного угла между стержнем и экраном в пространстве подчиняется не равномерному закону, а закону косинуса. Пример 3: средняя площадь проекции параллелепипеда в пространственном вращении Случайную ориентацию по отношению к параллелепипеду со сторонами a, b, c занимает экран, так что его нормаль имеет в сферической системе координат случайное направление (F, Q), распределенное по закону f(q, j) = 1/(2p) cos j. Грань ac горизонтальна, грань bc перпендикулярна к направлению q = 0 (рис. 9.3). Площадь проекции параллелепипеда (выпуклого тела) равна сумме площадей проекций видимых граней: Экран j q b a c Рис. 9.3. Случайная проекция параллелепипеда S = ac sin j + (ab sin q + bc cos q)cos j. (9.5) По формуле (9.4) найдем МО площади проекции: p / 2 2p M [S ï ] = ò 2p 2p p/2 ò S (q, j) f (q, j) dqdj = ac ò dq p/2 1 ò sin j 2p cos j dj + ab + bc + ac . 2 Средняя площадь проекции параллелепипеда в 4 раза меньше его полной площади 2(ab + bc + ac). Площадь проекции любого выпуклого случайно ориентированного тела на плоскость равна одной четверти его полной площади (лемма Коши). Сравним результаты вычисления средней площади проекции по формуле (9.4) и по лемме Коши для параллелепипеда 1´2´3. Так как в (9.5) учтены только видимые грани, численное интегрирование нужно проводить в пределах 0 < q < p/2, увеличив затем результат в 4 раза: + ò (ab sin q + bc cos q) dq 1 ò cos j 2p cos j dj = >> a=1;b=2;c=3;M=(a*c+b*c+b*a)/2 M = 5.5000 >> M=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).*cos(f)/(2*pi),0,pi/2,0,pi/2)*4 M = 5.5000 Вероятностные основы. 9. Функции случайных величин 3 Результаты, естественно, совпадают, но численным интегрированием можно получить и второй начальный момент, чтобы вычислить дисперсию площади проекции: >> a2=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).^2.*cos(f)/(2*pi),0,pi/2,0,pi/2)*4; >> D=a2-M^2,sigma=sqrt(D) D = 1.3622 sigma = 1.1671 Очевидно, у куба с той же площадью поверхности дисперсия минимальна: >> a=sqrt(11*2/6);b=a;c=a; >> M=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).*cos(f)/(2*pi),0,pi/2,0,pi/2)*4 M = 5.5000 >> a2=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).^2.*cos(f)/(2*pi),0,pi/2,0,pi/2)*4; >> D=a2-M^2,sigma=sqrt(D) D = 0.3124 sigma = 0.5590 Числовые характеристики линейных функций СВ Числовые характеристики некоторых функций СВ можно вычислить непосредственно по числовым характеристикам аргументов. МО и дисперсия полилинейной функции Непосредственно из свойств ЧХ следует, что МО линейной функции n Y = a 0 + å ai X i равно той же функции от МО аргументов (Лекция 3): i =1 n n é ù M [Y ] = M êa 0 + å ai X i ú = a 0 + å ai M [ X i ] . i =1 i =1 ë û (9.6) Дисперсию полилинейной функции можно представить как комбинацию элементов корреляционной матрицы: n n é n ù D[Y ] = M ê å ai a j X& i X& j ú = å ai a j K ( X ) = å ai2 D[ X i ] + 2ai a j å K ( X ) . ij ij i =1 i< j ëi , j =1 û i , j =1 МО и дисперсия произведения СВ (9.7) Согласно формуле (3.12) МО произведения двух СВ отличается от произведения их МО на величину корреляционного момента, следовательно, МО произведения некоррелированных СВ равно произведению их МО: M[X×Y] = M[X]M[Y]. Обобщение этой формулы на произведение нескольких некоррелированных СВ неправомерно, так как некоррелированность между парами СВ не означает некоррелированность между подсистемами. Но если сомножители независимы, то é ù M êÕ X i ú = Õ M [ X i ] . (9.8) ë i û i Таким же свойством обладают и МО произведений степеней независимых СВ – начальные моменты: é ù é ù a k êÕ X i ú = M êÕ X ik ú = Õ M [ X ik ] = Õ a k [ X ik ] . (9.9) i i ë i û ë i û Для дисперсии произведения независимых СВ, используя известную связь между центральными и начальными моментами, получим 2 n n é n ù é n ù æ é n ùö DêÕ X i ú = a 2 êÕ X i ú - ç M êÕ X i ú÷ = Õ a 2 [ X i ] - Õ mi2 , (9.10) ë i =1 û ë i =1 û è ë i =1 ûø i =1 i =1 а если все Xi центрированы ( M [ X i ] = 0, m 2 [ X i ] = a 2 [ X i ] ), дисперсия их произведения равна произведению дисперсий. Вероятностные основы. 9. Функции случайных величин 4 МО и корреляционная матрица векторной линейной функции Векторная линейная функция вида Y = aX имеет МО M [Y ] = aM [ X ] и корреляционную матрицу K(X) = a2K(X). МО и корреляционная матрица линейной комбинации некоррелированных случайных векторов выражаются линейной комбинацей соответствующих характеристик слагаемых векторов: Z = aX + bY , M [ Z ] = aM [ X ] + bM [Y ] , K ijZ = a 2 K ijX + b 2 K ijY . Пример 4: дисперсия суммарной ошибки в однократной коррекции Суммарная ошибка Y состоит из случайной ошибки X Î N(0, s) и постоянной (по абсолютной величине) компенсации Z = – a sign(X). Параметр a нужно выбрать так, чтобы минимизировать суммарную дисперсию. Согласно формуле (9.7) Dy = D[X + Z]= Dx+ Dz+ 2Kxz. Дисперсия СВ X известна Dx = s2, дисперсия СВ Z с двумя одинаковыми по модулю возможными значениями a, – a равна квадрату этого параметра: Dz = (– a)2 P(X > 0) + a2P(X < 0) = a2. Корреляционный момент выразим через параметры s, a с учетом того, что X и Z центрированы: ¥ 1 ¥ x2 2 as . p Теперь из условия минимума дисперсии суммарной ошибки 2 D y = s 2 + a 2 - 2 as p получим оптимальное значение a* и минимальную дисперсию: 2 2s 2 2s 2 æ 2ö a* = s = 0,8s, D ymin = s 2 + -2 = s 2 ç1 - ÷ » 0,36s2. p p p è pø Kxz = M[X×Z] = - 2a ò xf ( x)dx = -2a Метод линеаризации функций ò xe 2p s - 2s 2 dx = - Непосредственное определение ЧХ функций СВ по ЧХ аргументов ограничено классом линейных функций. В остальных случаях приходится привлекать законы распределения аргументов. Для приближенного вычисления МО и дисперсий произвольных функций СВ прибегают к их линеаризации в окрестности mx: ~ ( x) = j(m ) + j¢( x) j( x) » j ( x - mx ) . x x =m x С учетом того, что M[x – mx] = 0, по линеаризованной функции имеем: m y = M [Y ] = j(m x ), (9.11) 2 D y = D[Y ] = [j¢( x)] D x , s y = j¢( x) s x . (9.12) Если Y – функция нескольких случайных аргументов Y = j(X1, …, Xn), известны МО mi = M[Xi] и корреляционная матрица K системы (X1, …, Xn), ЧХ линеаризованной функции n Y » j(m1 , K, mn ) + å j¢xi (m1 , K, mn )( X i - mi ) (9.13) i =1 можно определить по формулам: m y » j (m1 ,..., mn ), (9.14) n Dy = å ai2 Di + 2å ai a j K ij , где ai = j ¢x (m1 ,...mn ), Di = K iiX , i =1 i< j i Вероятностные основы. 9. Функции случайных величин (9.15) 5 Перепишем формулу (9.15) как соотношение для линеаризованных СКО: n s = å a s + 2å ai a j rijs is j , где s i = Di , rij = 2 y i =1 2 i 2 i i< j K ijX s is j . (9.16) Если система (X1, …, Xn) некоррелирована, n n i =1 i =1 [ ] 2 s 2y = å ai2 s i2 = å j ¢x ( x1 ,..., xn ) s i2 . i (9.17) Законы распределения функций случайных величин Если для определения числовых характеристик функций СВ достаточно знать законы распределения аргументов, то для вычисления вероятности попадания значения функции в заданную область нужен закон распределения функции. Так, минимальная дисперсия отклонения после однократной коррекции Y = X – a sign(X) была найдена на основании известного закона fX(x), но для вычисления P(|Y| < y) надо знать закон распределения fY(y). Функция распределения монотонных функций СВ Если j(x) строго монотонна, обратная функция x = j(y) – 1 º y(y) однозначна (рис. 9.4), поэтому событие (Y < y) эквивалентно событию (X < y(y)), если j(x) возрастающая, или событию (X > y(y)), если j(x) убывает, следовательно, y j(x) y y j-1(y) x j-1(y) x Рис. 9.4. Монотонные функции СВ X FY ( y ) = P ( X < y( y ) = FX (y( y )) , если j(x) возрастающая, FY ( y ) = P ( X > y ( y ) = 1 - FX (y ( y )) , если j(x) убывающая, Пример 5: способ получения реализаций СВ с заданным законом распределения j(x) y (9.21) (9.22) Функция распределения F любой СВ монотонно возрастающая, обратная к ней j(x) º F –1(x) тоже возрастающая c областью определения в интервале [0, 1]. Пусть СВ X распределена по равномерному закону в интервале [0, 1], т.е. FX(x) = x на этом интервале. Закон распределения СВ Y = F –1(X) можно получить, подставляя y(y) = j–1(y) = F(y) в формулу (9.21): FY(y) = FX(y(y)) = y(y) = F(y). Таким образом, чтобы получить случайные реализации СВ Y, имеющей функцию распределения F(y), нужно преобразовать реализации датчика случайных чисел rand обратной функцией к F(y): y = F –1(rand). Плотность распределения монотонных функций СВ Если СВ X непрерывна, имеет плотность fX(x) и функция j(x) дифференцируема, плотность СВ Y получим дифференцированием FY(y): ì d y( y) ï ò f X ( x)dx = f X (y( y ))y¢( y), y ¢( y) > 0, ï dy -¥ f Y ( y ) = FY¢ ( y ) = í ¥ ïd f ( x)dx = - f X (y( y ))y ¢( y ), y ¢( y ) < 0. ï dy ò X î -y ( y ) Функция плотности fY(y), как и полагается, положительна в обоих выражениях. Их можно заменить общей формулой, согласно которой плотность СВ Y равна плотности fX(x) при соответствующем значении аргумента x = y(y), умноженной на якобиан |y¢(y)|: Вероятностные основы. 9. Функции случайных величин 6 (9.23) fY(y) = fX(y(y))|y¢(y)|. Пример 6: Связь закона распределения промаха с законом «хи-квадрат» В лекции 7 плотность распределения n-мерного промаха связана с законом «хи квадрат» соотношением (7.22). В самом деле, если Y = R2 /s2, и известен закон распределения fY(y, n) СВ «хи квадрат», можно получить закон распределения fR(r; n) по формуле (9.23): y = y(r ) = Пример 7: распределение проекции стержня 2r 2r r2 , y ¢(r ) = 2 , f R (r , n) = 2 f Y ((r / s) 2 , n). 2 s s s Закон распределения длины пробоины от стержневого ПЭ, свободно вращающегося при подлете к экрану в перпендикулярной плоскости, определяется законом равномерной плотности СВ X (угла между стержнем и экраном) на отрезке [0, p/2] и функцией j(x) = l cos x: 2 2 f X ( x) = , FX ( x) = x, при x Î [0, p / 2], p p x = y ( y ) = arccos( y / l ). Функция j(x) монотонно убывает на отрезке [0, p / 2] , поэтому 2 æ yö FY ( y ) = 1 - arccosç ÷ , p èlø 2 f Y ( y ) = f X (y ( y )) | y ¢( y ) |= , при y Î [0, l ]. p l2 - y2 Теперь можно вычислить не только среднюю длину пробоины 2 l2 - y2 M [Y ] = ò yf Y ( y )dy = ò dy = 2 2 p 0 p l - y l Распределение немонотонных функций СВ l 2l l = 2l , p но и вероятность того, что она не превышает заданную величину, для чего удобнее использовать не плотность, а функцию распределения. Например, вероятность того, что длина пробоины составит менее половины длины стержня, P(Y < 0,5 l) = FY(0,5) = 1– 2 arcсos (0,5)/p = 1/3. y Немонотонная функция y = j(x) может иметь неj(x) сколько значений аргумента xi, i = 1, 2, …, таких, что y y = j(xi). Значения xi = yi(y) выделяют на [a, b] непересекающиеся интервалы Di(y), попадание в которые a x1 x2 x3 b x аргумента X эквивалентно событию (j(X) < y), поРис. 9.5. Немонотонная функция СВ X этому FY(y) = P(Y < y) = å P( X Î D i ( y )) . Составим i это выражение для ситуации, изображенной на рис. 9.5: FY ( y ) = P(Y < y ) = y1 ( y) y 3 ( y) a y 2 ( y) ò f ( x)dx + ò f ( x)dx, f Y ( y ) = FY¢ ( y ) = f (y 1 ( y ))y 1¢ ( y ) + f (y 3 ( y ))y 3¢ ( y ) - f (y 2 ( y ))y 2¢ ( y ). В отрицательных слагаемых, соответствующих нижним пределам интегралов, производные обратной функции также отрицательны. Общая формула для плотности распределения функции непрерывной СВ имеет вид: f Y ( y ) = å f (y i ( y )) | y ¢i ( y ) |, " i : j( xi ) = y. (9.24) i Вероятностные основы. 9. Функции случайных величин 7 Пример 8: распределение нормальной ошибки с однократной коррекцией Суммарная ошибка случайной составляющей X Î N(0, s) и коррекции K = – a sign(X) рассматривалась как линейная функция двух СВ, что позволило найти оптимальное значение параметра a на основании свойств ЧХ. Но ее можно рассматривать и как функцию y = j(x) = x – a sign x одной СВ X, чтобы воспользоваться формулой (9.24) для построения закона распределения суммарной ошибки. Эта функция имеет двузначную обратную функцию y(y) при |y| < a (рис. 9.6): y y=x+a y=x–a a y1(y) y2 (y) x –a Рис. 9.6. Отклонение после коррекции y = x – a sign x ì x + a, x < 0, x = y 1 ( y ) = y - a, y < a, y 1¢ ( y ) = 1, y = j ( x) = í î x - a, x > 0, x = y 2 ( y ) = y + a, y > - a, y 2¢ ( y ) = 1. Подстановка в (9.24) дает искомый закон распределения: ì f X (y 1 ( y )) = f X ( y - a ), y < - a, ï f Y ( y ) = í f X (y 1 ( y )) + f X (y 2 ( y )) = f X ( y - a ) + f X ( y + a ), - a < y < a, ï f (y ( y )) = f ( y + a ), y > a, X î X 2 Составим выражения для расчетной сетки аргументов y в интервалах [-4, -a], [-a, a], [a, 4] и плотности распределения fY(y) в MATLAB: >> Sy='I1=-4:0.01:-a; I2=-a:0.01:a;I3=a:0.01:4;I=[I1,I2,I3];'; >> Sf='fy=[f(X,I1-a),f(X,I2-a)+f(X,I2+a),f(X,I3+a)];Dy=Trap(I.^2.*fy,I)'; Построим функцию fY(y) при s = 1 и оптимальном значении a = 2 / p = 0,8 на расчетной сетке, выведем график этой функции вместе с плотностью нормального закона N(0, 1), а также вычислим дисперсию по сеточной плотности распределения (рис. 9.7): >> X=Norm_1(0,1);a=sqrt(2/pi);eval(Sy);eval(Sf);plot(I,fy,'k',I,f(X,I),'g--');hold on Dy = 0.3624 Вычисленная дисперсия практически совпала с минимальным значением 0,36s2 = 0,36, полученным в примере 4 из соотношений между ЧХ, но теперь можно оценить и вероятность попадания в любой заданный интервал, например: >> T=[-1 1]; J =find(I>T(1) & I> a=a/2; eval(Sy);eval(Sf); plot(I,fy,'r'); -4 -3 -2 -1 1 2 3 y Dy = 0. 5224 >>J=find(I>T(1)&I> a=2; eval(Sy);eval(Sf); plot(I,fy,'b'); J=find(I>T(1)&I> N=100000;Z=Gen(X,N);I1=find(Z<0);I2=find(Z>0); d= Gen('rnd',-0.3,0.3,N); >> z(I1)=Z(I1)+a;z(I2)=Z(I2)-a;[Fz,fz]=SmartHist(z);Show(fz,'b--') Вероятностные основы. 9. Функции случайных величин 8 Синяя пунктирная кривая на рис. 9.7 практически совпала с соответствующим теоретическим распределением. Это значит, что вероятность попадания в цель или в заданную область с тем же успехом можно вычислить и по статистическому закону: >> L=find(fz.x>T(1) & fz.x> z(I1)=Z(I1)+a+d(I1);z(I2)=Z(I2)-a-d(I2);[Fz,fz]=SmartHist(z);Show(fz,'b') Рассмотренная модель слишком бедна, чтобы показать все преимущества статистического моделирования законов распределения функций СВ. Но она построена на общей формуле (9.24), что позволяет легко модифицировать модель, чтобы учесть еще один регулярный фактор – отсутствие ненужных коррекций при малых отклонениях в пределах данной величины e (рис. 9.8). В этой функции добавлен интервал, в котором j(X) = X. Не составляя функции fY(y) сконструируем выражения для ее вычисления по рис. 9.8: y=x–a y a y=x+a –e e x –a Рис. 9.8. Отклонение после коррекции с «мертвой» зоной >> Sy='I1=-4:0.01:-a+e; I2=-a+e:0.01:-e;I3=-e:0.01:e;I4=e:0.01:a-e;I5=a-e:0.01:4;I=[I1,I2,I3,I4,I5];'; >> Sf='fy=[f(X,I1-a),f(X,I2-a)+f(X,I2+a),f(X,I3-a)+f(X,I3)+f(X,I3+a),f(X,I4-a)+f(X,I4+a),f(X,I5+a)];Dy=Trap(I.^2.*fy,I)'; Теперь можно построить график закона fY(y) и вычислить дисперсию той же командой, что и в предыдущем примере: >> e=0.3; a=sqrt(2/pi);eval(Sy);eval(Sf); Dy = 0.2988 >> figure, plot(I,fy,'r',I,f(X,I),'g--'); Как и следовало ожидать, дисперсия ошибки снизилась по сравнению с минимальной дисперсией без выделения «мертвой» зоны. 1 f 0.5 -5 y 5 Рис. 9.9. Закон fY(y) с «мертвой» зоной По формуле (9.24) можно построить и закон распределения промахов на плоскости поПример 9: распределение сле однократной коррекции при круговом рассеивании. Если X Î N(0, s) и Z Î N(0, s), пропромаха после од2 2 мах R = X + Z подчиняется закону Рэлея с параметром s. Коррекция промаха на венократной личину a имеет смысл, если промах превышает допустимую величину e (e < a). Суммарный коррекци промах после условной коррекции Y можно записать как функцию R: ì R, R < e , . Y =í îR -a, R > e Чтобы найти оптимальные значения a и e, нужно построить закон распределения fY(y), в который a и e войдут в качестве параметров, и выразить через этот закон соответствующий критерий (например, вероятность попадания в некоторую область). Построим обратную функцию y(r, a, e) согласно рис. 9.10 y a y=r– a a–e e e a r Рис. 9.10. Коррекция промаха ìr , r < e , r = y 1 (t ) = t , y 1¢ (t ) = 1, ï t = j (r ) = ía - r , e < r < a, r = y 2 (t ) = a - t , y 2¢ (t ) = -1, ïr - a, r > a, r = y (t ) = t + a, y ¢ (t ) = 1. 3 3 î и выполним подстановку в (9.24): ì f R (y 1 (t )) + f R (y 2 (t )) + f R (y 3 (t )) = f R (t ) + f R (t + a ) + f R (a - t ), t < e , ï f T (t ) = í f R (y 2 (t )) + f R (y 3 (t )) = f R (t + a ) + f R (a - t ), e < t < a - e , ï f (y (t )) = f (a + t ) , t > a - e . R î R 3 Составим соответствующие выражения >> Sy='I1=0:0.001:e; I2=e:0.001:a-e;I3=a-e:0.1:4;I=[I1,I2,I3];'; s=1; >> Sf='fy=[f_Rayl(I1,s)+f_Rayl(I1+a,s)+f_Rayl(a-I1,s),f_Rayl(I2+a,s)+f_Rayl(a-I2,s),f_Rayl(a+I3,s)];'; построим законы распределения и вычислим дисперсии промаха для нескольких значений a: Вероятностные основы. 9. Функции случайных величин 9 >> figure,hold on,c='bkrgcm'; >> for a=0:0.5:2.5 e=a/2;eval(Sy);eval(Sf);m=Trap(fy.*I,I);D=Trap(fy.*I.^2,I)-m^2;[a,m,D],plot(I,fy,c(a*2+1)),end f ans = 0 1.2519 0.4267 ans = 0.5000 0.7875 0.3730 1 ans = 1.0000 0.4997 0.2024 ans = 1.5000 0.4478 0.0920 0.5 ans = 2.0000 0.5659 0.0829 ans = 2.5000 0.7543 0.1063 При a = 0 вычисленные МО и дисперсия совпадают с 1 2 3 r теоретическими (см. формулы (7.25), (7.26)). Дисперсия Рис. 9.11. Коррекция промаха минимальна при a » 2 (утолщенная кривая на рис. 9.11). Статистическим моделированием кругового рассеивания подтвердим результаты теоретического определения закона и характеристик распределения промахов при a = 2 и e = a/2: >> X=Norm_2([1 1]); N=100000; Z=Gen(X,N);R=Distance(Z); a=2; >> Ind=find(R>a/2);Rk=R;Rk(Ind)=abs(R(Ind)-a);Y=repmat(Rk./R,2,1).* MyCenter(Z); >> m=mean(Rk),sig=std(Rk);D=sig^2, ShowAll(Z,'r.',Y,'k.') m = 0.5716 D = 0.0819 Пример 10: коррекция эллиптического рассеивания Результаьты практически совпадают с теоретическим расчетом, значит и теоретическая модель и процедура статистического моделирования построены верно. Можно воспользоваться и для моделирования эллиптического распределения той же последовательностью команд, изменив лишь объект X нормального распределения: >> X=Norm_2([3 1]); N=100000; Z=Gen(X,N); R=Distance(Z); a=4; >> Ind=find(R>a/2);Rk=R;Rk(Ind)=abs(R(Ind)-a);Y=repmat(Rk./R,2,1).* MyCenter(Z); >> ShowAll(Z(1:10000),'r.',Y(:,1:10000),'k.'),daspect([1,1,1]) Рис. 9.12. Баллистическое расесеивание точек попадания (красные точки) и результаты однократной коррекции промаха (черные точки) На рис. 9.12 показаны первые 1000 точек кругового и эллиптического распределений до и после коррекций. Зоны высокоплотных попаданий образуют пятно диаметром a. Так как при эллиптическом рассеивании большие промахи по одному из главных направлений не выбираются, в этом направлении наблюдается вытянутое уплотнение точек, напоминающее хвост кометы. Объектные функции случайных величин Преимущества объектного моделирования функций СВ Процедурная реализация функций СВ удобна, если процесс хоть и сложен, но алгоритмизуемый. Обычно таким образом удается описать выделенную часть ситуации, в которой оценивается эффективность, и получить соответствующий промежуточный результат. Так, модель коррекции траектории можно оптимизировать по вероятности попадания в заданную область. Но это не критерий эффективности, которая определяется взаимодействием системы объектов, не всегда поддающимся алгоритмизации. Пример 12: одномерное перекрытие На полосу шириной h брошен круг диаметром d так, что случайное расстояние X центра круга от средней линии полосы подчиняется нормальному закону с параметрами mx, sx. Если d < h, возможные значения СВ Y – заключены в интервале [0, d], причем величина перекрытия имеет наибольшее значение при |x| < (h – d)/2 = a и уменьшается до нуля при возрастании |x| вплоть до значения b = (h + d)/2 (рис. 9.9): Вероятностные основы. 9. Функции случайных величин 10 ì0, x > b, ï y = íb - x , a < x < b, ï a < x. îd , a b X d В интервалах a<|x| x > -b, j ( x) = í îb - x, a < x < b. x1 = y 1 ( y ) = y - b, y 1¢( y ) = 1, x2 = y 2 ( y ) = b - y, y 2¢ ( y ) = -1. Выполнив подстановку в (10.24), получим плотность распределения величины линейного перекрытия внутри интервала [0, d]: fY(y) = fX(y – b) + fX(b – y), 0 < y < d. Функцию распределения FY(y) внутри интервала [0, d] с учетом того, что события (Yy2(y)) эквивалентны: ì0, y £ 0, ï FY ( y ) = í FX (y 1 ( y )) + [1 - FX (y 2 ( y ))], 0 < y < d . ï1, y ³ d . î Воспользовавшись стандартной функцией нормального распределения, получим: æ b - y - mx ö æ y - b - mx ö ÷÷, 0 < y < d . ÷÷ + 1 - F * çç FY ( y ) = F * çç s s x x è ø è ø На концах интервала FY(0) = 0, FY(d+) = 1. Значит, в этих точках функция распределения имеет разрывы первого рода: é æ b - mx ö æ - b - mx ÷÷ - F * çç P(Y = 0) = p 0 = FY (0 + ) - FY (0) = 1 - êF * çç è sx ë è sx ø æ a - mx ö æ - a - mx ö ÷÷ - F * çç ÷÷. P(Y = d ) = p1 = FY (d + ) - FY (d ) = F * çç è sx ø è sx ø öù ÷÷ú, øû Введем исходные данные mx = 10, sx = 15, d = 30, h = 50, построим расчетную сетку, вычислим на ней плотность и функцию распределения СВ Y, построим их графики (рис. 9.11): >> X=Norm_1(10,15);d=30;h=50;b=(h+d)/2;y=0:d; >> ff=f(X,y-b)+f(X,b-y); F=fun(X,y-b)+1-fun(X,b-y); >> plot(y,ff*30,[-0.1, y, d*1.0001, d*1.1],[0,F,1,1]), grid Рис. 9.11. Распределение линейного пререкрытия Вероятностные основы. 9. Функции случайных величин 11 Программа верификации кода MATLAB clear all a=1;b=2;c=3;M=(a*c+b*c+b*a)/2 M=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).*cos(f)/(2*pi),0,pi/2,0,pi/2)*4 a2=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).^2.*cos(f)/(2*pi),0,pi/2,0,pi/2)*4; a=sqrt(11*2/6);b=a;c=a; M=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).*cos(f)/(2*pi),0,pi/2,0,pi/2)*4 a2=dblquad(@(f,t) (a*c*sin(f)+b*(a*sin(t)+c*cos(t))*cos(f)).^2.*cos(f)/(2*pi),0,pi/2,0,pi/2)*4; D=a2-M^2,sigma=sqrt(D) clear all Sy='I1=-4:0.01:-a; I2=-a:0.01:a;I3=a:0.01:4;I=[I1,I2,I3];'; Sf='fy=[f(X,I1-a),f(X,I2-a)+f(X,I2+a),f(X,I3+a)];Dy=Trap(I.^2.*fy,I)'; X=Norm_1(0,1);a=sqrt(2/pi);eval(Sy);eval(Sf);plot(I,fy,'k',I,f(X,I),'g-');hold on T=[-1 1]; J =find(I>T(1) & IT(1)&IT(1)&I0); d= Gen('rnd',-0.3,0.3,N); z(I1)=Z(I1)+a;z(I2)=Z(I2)-a;[Fz,fz]=SmartHist(z);Show(fz,'b--') L=find(fz.x>T(1) & fz.xa/2);Rk=R;Rk(Ind)=abs(R(Ind)-a);Y=repmat(Rk./R,2,1).* MyCenter(Z); m=mean(Rk),sig=std(Rk);D=sig^2, ShowAll(Z,'r.',Y,'k.') X=Norm_2([3 1]); N=100000; Z=Gen(X,N); R=Distance(Z); a=4; Ind=find(R>a/2);Rk=R;Rk(Ind)=abs(R(Ind)-a);Y=repmat(Rk./R,2,1).* MyCenter(Z); ShowAll(Z(1:10000),'r.',Y(:,1:10000),'k.'),daspect([1,1,1]) clear all X=Norm_1(10,15);d=30;h=50;b=(h+d)/2;y=0:d; ff=f(X,y-b)+f(X,b-y); F=fun(X,y-b)+1-fun(X,b-y); plot(y,ff*30,[-0.1, y, d*1.0001, d*1.1],[0,F,1,1]), grid Вероятностные основы. 9. Функции случайных величин 12 Контрольные вопросы 1. На чем основан практический интерес к функциям случайных величин? 2. Как вычислить числовые характеристики фунуции случайных величин, не располагая ее законом распределения? 3. Система n случайных величин характеризуется вектором математических ожиданий M и корреляционной матрицей K. Как найти дисперсию суммы этих случайных величин? 4. Как выразить дисперсию объема параллелепипеда через числовые характеристики его независимых случайных размеров? 5. Как можно вычислить математическое ожидание и дисперсию слабо нелинейной функции Y = j(X1, …, Xn) системы n случайных величин? 6. Каким соотношением связана плотность распределения монотонной функции случайной величины с законом распределения аргумента? 7. Запишите в общем виде выражение, связывающее плотность распределения немонотонной функции случайной величины с законом распределения аргумента. 8. Запишите в общем виде выражение для функции распределения системы двух случайных величин. Вероятностные основы. 9. Функции случайных величин 13 Лекция 10 Вероятностный смысл функции распределения двух СВ Законы распределения функции двух случайных величин Общий подход к построению закона распределения функции двух СВ Подобно тому, как закон распределения функции одного случайного аргумента Y = j(X) связан с вероятностью попадания аргумента в область D(y) = {x: j(x) p/2: >> Grid='[Fi,Teta]= meshgrid(0:d:pi/2,0:d:pi*2);';d=0.1;eval(Grid); >> Spr='S=c*b*sin(Fi)+a*(c*abs(sin(Teta))+b*abs(cos(Teta))).*cos(Fi);'; >> a=10;b=8;c=4;d=0.1;eval(Spr);surfc(Fi, Teta, S) Из графика на рис. 10.1 видно, что область интегрирования D(s) для вычисления вероятности G(s) = P(S < s) может быть сложной, многосвязной. Поэтому будем выделять ее неявно по значениям сеточной функции S: после вычисления на расчетной сетке плотности распределения обнулять ее в тех расчетных ячейках, в которых S >s. Уменьшим шаг сетки, чтобы интеграл плотности f(q, j) = cos(j) / (2p) на всей области стал близким к единице: >> d=0.01;eval(Grid);eval(Spr);Z=ones(size(S));Trap2(Z.*cos(Fi),Fi,Teta)/(2*pi) ans = 0.9995 Разобьем интервал возможных значений площади проекции на 100 отрезков и построим функцию распределения F(s) (рис. 10.2), а в качестве простой проверки сеточной функции вычислим среднюю площадь, которая должна быть равной (ab + bc + ac)/2 = 76, и дисперсию: Рис. 10.2. Функция распределения F(s) >> c1= 'y=linspace(min(min(S)), max(max(S)),100);...'; >> c2= 'F=[];for u=y I=find(S>u);z=Z;z(I)=0;F(end+1)=Trap2(z.*cos(Fi),Fi,Teta)/(2*pi);end'; >> eval(c1),eval(c2);plot(y,F), hold on >> mD='Y=y(1:end-1)+diff(y)/2;m=dot(diff(F),Y),D=dot(diff(F),Y.^2)-m^2'; eval(mD) m = 75.9583 D = 222.754 Построим для сравнения функцию распределения проекции равновеликого куба: >> h=(a*b*c)^(1/3); eval(Spr); eval(c1),eval(c2); M=6*a^2/4,eval(mD),plot(y,F,'r') 1 m = 70.1435 M = 70.1764 D = 53.3603 Первый начальный момент m практически совпал с точным значением M средней площади проекции согласно лемме Коши. График на рис. 10.2 показывает меньший разброс площади проекции компактного тела, что подтверждает и четырехкратное уменьшение дисперсии D. Оптимизация линейных размеров поражающего элемента может существенно повысить эффективность. Еще большее влияние на эффективность могут оказать межреберные углы, но выявить это влияние можно только статистическим моделированием. Построение распределения площади проекции методом статистических испытаний Программа Mid_S (Листинг 10.2) осуществляет статистическое моделирование случайных ориентаций экрана в пространстве (по умолчанию – равномерных на сфере), вычисляет площадь проекции многогранника в пробных точках и строит по ним статистическую функцию распределения. Применим ее к параллелепипеду из предыдущего примера, чтобы убедиться в точности статистического распределения: Рис. 10.3. Точная и статистическая функции распределения >> [F,f]=MID_S(Para3([a b c]));[F1,f1]=MID_S(Para3([h h h])); Show (F,'y:',F1,'g:') Статистическая функция распределения построена пунктирной линией на графике, полученном ранее, и обе кривые практически совпали (рис. 10.3). Преимущество программы Mid_S в том, что ее можно использовать как электронную формулу для построения законов распределения случайной площади проекций произвольных многогранников. Построим закон распределения проекции случайно ориентированной косой ромбичеРаспределение площади проекции ской призмы. Создать такой геометрический объект можно аффинным преобразованием падеформированного раллелепипеда (рис. 10.4): параллелепипеда A Рис. 10.4. Пример 2: Моделирование произвольного многогранника Рис. 10.6. >> a=10;h=10;beta=45;ksi=45; R=ParaShape([a a h]); >> A=Affinor(3,beta/2,221,beta,123,ksi); Fragm=R*A; Объект Fragm может вычислять свои характеристики. Например, объем, среднюю площадь миделя, массу, параметр формы фрагмента можно определить следующим образом: >> V =Volume(Fragm), Sm=Area(Fragm)/4, m =V*0.0078, FI=Sm/V^(2/3) V = 707.1068 Sm = 150.0000 m = 5.5154 FI = 1.8899 Он также обеспечивает необходимыми данными 1 анализ проекций (площади граней, направления нормаF(s) 0.5 лей), благодаря чему функцию распределения площади проекции можно получить подстановкой объекта в элек0 тронную формулу Mid_S (рис. 10.5): 50 100 150 200 s 250 Рис. 10.5. >> [F,f]=MID_S(Fragm); plot(F.x,F.F,f.x,f.f/max(f.f)) Кривая плотности распределения нормирована модальным значением. Легко проверить выполнение основного свойства и МО, которое должно быть близким к 150: >> Trap(f.f,f.x), Ms=Trap(f.x.*f.f,f.x) ans = 1.0000 Ms = 150.0966 Создадим объект PR класса Prism – косую призму на ромбе (объект класса ParaGram) со сторонами a = 10 и углом beta=45°, а затем отсечем часть призмы плоскостью PL, наклоненной под углом ksi=45° к большой диагонали основания: >> a=10; beta=45; ksi=45; h=10; PR=prism(ParaGram([a a beta/180*pi]),50); >> PL=Rot(Plane([0 0 1]),3,beta,2,ksi);T=sect(PR,move(PL,[0;0;25])); Функция Prism/sect возвращает два многогранника – верхний T{1} и нижний T{2}. Готовый фрагмент получим отсечением нижней части объекта T{1} смещенной на h вверх плоскостью PL (рис. 10.6): >> T1=sect(T{1},move(PL,[0;0;25+h]));Frag=T1{2}; T{1}=Move(T{1},[0;0;30]); >> Frag=Move(Frag,[0;0;10]);Show(T{1},T{2},'k',Frag,'FP'); >> Show(T{1},'k',T{2},'k',Frag,'FPA'); view([-0.7 0.5 0.1]) Объект Frag, такой же как и результат аффинного преобразования Fragm, получен более универсальным способом, т.к. в основании призмы может быть любой многоугольник. Вероятностные основы. 10. Функции случайных величин 2 Пример 3: Перекрытие прямоугольных областей На прямоугольник с размерами Lx´Lz (цель) брошен меньший прямоугольник lx´lz, центр которого распределен по нормальному закону с параметрами mx, sx, mz, s z, r = 0 в системе координат, связанной с центром большого прямоугольника. Относительная площадь U перекрытия прямоугольников (отношение площади перекрытия к площади цели) зависит от случайных аргументов – координат центра бросаемой фигуры. Статистический закон распределения U (рис. 10.7) построен с помощью класса «умных» прямоугольников так же, как в Лекции 3, где испытания проводились по равномерному распределению прямоугольников. Рис. 10.7. Функция распределения площади перекрытия >> A=Rect(200,100); B=Rect(100,60);N=1000;X=Norm_2([40,50]);Z=Gen(X,N); >> for i=1:N S(i)=Area(Sect(A,Move(B,Z(i)))); end, [F,f]=SmartHist(S);Show(F) Законы распределения мультипликативных функций двух СВ Закон распределения произведения двух СВ x2 Произведение двух СВ Y = X1X2 имеет значение, меньше, чем некоторое фиксированное y, в той области Dy возможных значений x1 и x2, где они Dy x1 находятся в отношении x1x2 < y, т.е. выполняются Рис. 10.8. Область неравенства x2 < y/x1 при положительном x1 и D y = {x1, x2: x1x2 < y} x2 > y/x1 при x1 < 0 (рис. 10.8): 0æ ¥ ¥ y / x1 ö æ ö ç ÷ G ( y ) = òò f ( x1 , x 2 )dx1 dx 2 = ò ò f ( x1 , x 2 )dx 2 dx1 + ò ç ò f ( x1 , x 2 )dx 2 ÷dx1 , ç ÷ ç ÷ - ¥è y / x1 0 è -¥ x1 x 2 < y ø ø ¥ æ 1 æ yö yö f çç x1 , ÷÷dx1 + ò f çç x1 , ÷÷dx1 . x è x1 ø è x1 ø 0 1 В выражении для плотности оба слагаемых положительны, можно объединить интервалы интегрирования: ¥ 1 æ yö g ( y) = ò f çç x1 , ÷÷dx1 . (10.1) x è x1 ø -¥ 1 1 g ( y ) = G ¢( y ) = - ò x -¥ 1 Закон распределения отношения двух СВ Плотность распределения отношения Y = X2/X1 можно получить интегрированием по области Dy (рис. 10.9), в которой выполняются неравенства x2 < yx1 при x1 < 0 и x2 > yx1 при x1 < 0 или из плотности распределения произведения X2(1/X1) заменой x1 на 1/x1: x2 x2 = yx1 Dy x1 Рис. 10.9. Область Dy = {x1, x2: x2/x1 < y} ¥ g ( y) = òx 1 f ( x1 , yx1 )dx1 . (10.2) -¥ Пример 4: распределение площади прямоугольника со случайными длинами сторон Длины сторон X1 Î N(10, 2) и X2 Î N(15, 4) могут быть зависимыми (r = 0,4), поэтому определим систему двух нормально распределенных СВ, вычислим на расчетной сетке плотность распределения по формуле (10.1), и построим график (рис. 10.10): Рис. 10.10. Закон распределения Y = X1X2 >> X=Norm_2([10;15],[2 4],0.4);x1=Net(X12(X),50); y=linspace(10,500,50); g=[]; Вероятностные основы. 10. Функции случайных величин 3 >> S='for i=1:50 for j=1:50 H(j)=f(X,x1(j),y(i)/x1(j));end,g(i)=Trap(1./abs(x1).*H, x1);end'; >> eval(S),plot(y,g,'r'),hold on Чтобы оценить влияние корреляции сомножителей на закон распределения произведения, построим еще два графика при r = 0; 0,8; – 0,4: >> X=setval(X, 0);eval(S),plot(y,g,'g'), X=setval(X, 0.8);eval(S),plot(y,g,'k') >> X=setval(X, -0.4);eval(S),plot(y,g,'c--') Качество сеточной функции проверим по выполнению основного свойства плотности распределения, а также сравнением МО произведения, полученных как начальный момент, и точным расчетом по формуле (4.12): >> Trap(g,y), m=Trap(y.*g,y), My=10*15+(-0.4)*2*4 ans = 0.9997 m = 146.7942 My = 146.8000 Пример 5: распределение объема параллелепипеда Предположим, что высота параллелепипеда как СВ X3 Î N(5, 1) не зависит от размеров основания X1, X2. В этом случае можно использовать уже известную плотность распределения площади основания (массив g на сетке y) и закон умножения плотностей в виде произведения частных плотностей: ¥ g ( y) = 1 òx -¥ 1 æ yö f 1 ( x1 ) f 2 çç ÷÷dx1 . è x1 ø (10.3) Определим X3 как объект H класса Norm_1, построим расчетную сетку v, вычислим плотность распределения объема по формуле (10.3): >> H=Norm_1(5,1); v=linspace(10,2000,50); >> for i=1:50 z(i)=Trap(1./abs(y).*g.*f(H,v(i)./y), y);end Массив z на сетке v можно использовать как плотность распределения. Вычислим средний объем m и вероятность того, что объем не выйдет из допустимых пределов 0,75m < v < 1,5m: >> m=My*5, Mv=Trap(v.*z,v), Ind=find(v>0.75*m & v<1.5*m);p=Trap(z(Ind),v(Ind)) m = 734 Mv = 733.7118 p = 0.6116 Пример 6: закон распределения отношения нормальных центрированных СВ Если СКО центрированных X1Î N(0, s1), X2 Î N(0, s2) различны, заменой переменных ui = ui / si преобразуем совместное распределение в круговое. Известно, что при любом законе f(u1, u2) с круговой симметрией отношение Y = U2 / U1 подчиняется закону Коши: g ( y) = 1 . p(1 + y 2 ) (10.4) В самом деле, если f(u1, u2) = r(u12 + u22), то f(u1, y u1) = r( u12 (1 + y 2 ) ). Вид функции r не имеет значения, поскольку после замены переменной u = u1 1 + y 2 получим (подынтегральная функция четная): ¥ ¥ 2 2 ur(u 2 )du = C, 2 ò 2 1 + y 1 + y где постоянная C определяется из условия ¥ ¥ 1 1 = ò g ( y )dy = 2C ò dy = 2pC . 2 1 + y -¥ -¥ g ( y ) = 2ò u1 f (u1 , yu1 )du1 = Вероятностные основы. 10. Функции случайных величин 4 s1 X 2 U 2 × = распределена по закону Коши, а s 2 X 1 U1 X s s s так как Z = 2 = 2 Y , y(z) = 1 z , y¢(z) = 1 = k , отношение координат Z X 1 s1 s2 s2 подчиняется закону s k f Z ( z ) = fY (y( z ) )y¢( z ) = , k= 1. 2 2 p 1+ z k s2 Таким образом, СВ Y = ( ) Законы распределения аддитивных функций двух СВ Закон распределения суммы двух случайных величин Закон распределения СВ Y = X1 + X2 полу- x2 x2 чается интегрированием совместной плотности y b2 f(x1, x2) по области D(y) = {x1, x2 : x2 < y – x1}, ¥ Dy y a 2 Dy которую в каждом конкретном случае нужно a1 b 1 x1 x1 согласовывать с областью возможных значеа б ний случайных слагаемых. На рис. 10.13 а по¥ казаны области интегрирования D y для неог- Рис. 10.13. Область интегрирования для суммы СВ раниченных x1, x2. В этом случае ¥ y - x1 æ ö G ( y ) = òò f ( x1 , x 2 )dx1 dx 2 = ò ç ò f ( x1 , x 2 )dx 2 ÷dx1 , ç ÷ (10.6) x1 + x2 < y - ¥è - ¥ ø g ( y ) = G ¢( y ) = ¥ ò ¥ f ( x1 , y - x1 )dx1 = -¥ ò f (y - x 2 , x 2 )dx 2 . -¥ (10.7) Если интервалы возможных значений слагаемых ограничены, соответственно ограничена и область интегрирования Dy (рис. 10.13 б). В частности, область интегрирования положительных слагаемых представляет собой треугольник D y¥ = {x1, x2 : x2 < y – x1, x1>0, x2 >0}, а в формуле (10.7) бесконечные пределы интегрирования следует заменить на [0, y]: y y g ( y ) = ò f ( x1 , y - x1 )dx1 = ò f ( y - x 2 , x 2 )dx 2 . Законы распределения разности двух СВ Закон распределения разности Y = X1 – X2 совпадает с законом распределения суммы Y = X1 + (– X2) системы (X1, –X2). Для плотности распределения разности неограниченных СВ можно применить формулу (10.7) : ¥ g ( y) = ò f ( x ,- y + x )dx 1 1 1 ¥ = -¥ Композиция законов распределения (10.8) ò f (y - x 2 ,- x 2 )dx 2 . (10.9) -¥ Закон распределения суммы независимых СВ называется композицией законов распределения. Для композиции используется специальное обозначение g = f1 ° f2. Совместную плотность в формулах (10.7), (10.8) можно заменить произведением частных законов: ¥ g ( y) = ò -¥ ¥ f 1 ( x1 ) f 2 ( y - x1 )dx1 = ò f (y - x 1 2 ) f 2 ( x 2 )dx 2 . (10.10) -¥ Некоторые законы распределения обладают свойством устойчивости по отношению к композиции, т.е. композиция двух и более СВ с одним из таких законов распределения, подчиняется тому же закону. Вероятностные основы. 10. Функции случайных величин 5 Композиция некоторых законов распределения Композиция двух равномерных законов Функцию распределения композиции двух равx2 номерных законов в интервалах a1 < x1 < b1 и y a2 < x2 < b2 можно получить как произведение постоb янной плотности f(x1, x2) =1/[(b1 – a1)(b2 – a2)] на плоDy щадь области Dy согласно рис. 10.13 б. Особый интеb y 2b x1 рес представляет композиция двух СВ, равномерно распределенных в одном и том же интервале Рис. 10.14. К построе(рис. 10.14). Пусть a1 = a2 = 0, b1 = b2 = b, тогда функ- нию закона Симпсона ция распределения равна площади треугольника под x2 = y – x1 при 0 < y < b и как площадь дополнение к такому треугольнику при b < y < 2b: ì y2 ïï , y < b, G ( y) = í 2 ïb 2 - 1 (2b - y ) 2 , y > b. ïî 2 f(y) Плотность распределения суммы двух независимых реализаций СВ, равномерно распределенной в интервале 1/ b длиной b имеет вид треугольника (рис. 10.15): y b y < b, ì y, g ( y ) = G ¢( y ) = í Рис. 10.15. Закон î2b - y, y > b. Симпсона Это распределение называется законом Симпсона. Ему подчиняется, например, сумма результатов двух независимых измерений по грубой шкале. Сумма большого числа таких измерений подчиняется нормальному закону. Композиция нескольких равномерных законов Построим плотность распределения суммы нескольких независимых реализаций датчика случайных чисел, воспользовавшись файл-функцией SmartHist. Каждое слагаемое будем разыгрывать 500000 раз, а число слагаемых увеличивать от 2 до 6, и построим графики статистических оценок плотностей распределения для каждого варианта (рис. 10.16): >> for k = [12,2:6] A=rand(500000,k); [F,f]=SmartHist(sum(A,2)); plot(f.x,f.f), hold on, end Рис. 10.16. Законы распределения суммы нескольких независимых СВ Качество приближения можно оценить по первому варианту с двумя слагаемыми, который практически совпадает с законом Симпсона. При трех слагаемых плотность распределения нелинейная, дальнейшее увеличение числа слагаемых приближает плотность распределения к нормальной кривой, которая вычислена для n = 6 объектом класса Norm_1 с параметрами m = 3, s = 1 / 2 и выведена на этот же график красным цветом: >> x=0:0.01:6;X=Norm_1(3,sqrt(1/2)); plot(x,fff(X,x),'r', x, fff(Norm_1(6,1),x),'r') Получение реализаций нормального закона с помощью датчика случайных чисел Сумма n независимых СВ X с mx = 1/2, Dx = 1/12 имеет характеристики m(n) = n/2, D(n) = n/12. При n = 6 МО и дисперсия равны, соответственно, 3 и 1/2, поэтому кривая плотности суммы шести слагаемых практически совпала с нормальной кривой с параметрами m = 3, s = 1/ 2 . На этом основан простой способ получения реализаций стандартного нормального закона (m = 0, s = 1) с помощью датчика случайных чисел: сумму шести случайных чисел Вероятностные основы. 10. Функции случайных величин 6 уменьшить на 3 и умножить на уменьшить на 6). 2 (или сумму n = 12 случайных чисел Можно считать, таким образом, что сумма n > 5 независимых реализаций СВ, распределенной равномерно в интервале [a, b], подчиняется нормальному закону с параметрами m(n) = n(b – a)/2, D(n) = n(b – a)2/12. Композиция равномерного и нормального распределений Композиция равномерно распределенной СВ XÎ [a, b] и ZÎ N(m, s) подчиняется закону распределения с плотностью b b b 1 1 g ( y ) = ò f X ( x) f Z ( y - x)dx = f ( y x ) dx = f Z - y ( x)dx , Z ò ò b a b a a a a где fZ–y(x) – плотность нормального закона f Z - y ( x) = f Z ( y - x) = 1 é y- x-m ù s úû - ê 1 e 2ë 2 ps 2 = 1 é x -( y - m ) ù ú s û - ê 1 e 2ë 2 ps 2 с тем же СКО, что у СВ Z, с центром в y – m. Таким образом, плотность композиции в точке y можно вычислить как вероятность попадания в интервал [a, b] СВ UÎ N(y – m, s). Построим график g(y) при a = 0, b = 10, m = 3, s = 2 в интервале значений аргумента [m ± s] ×1,5. Воспользуемся классом Norm_1: >> a=10;Z=Norm_1(3,2);y=Net(Z)*1.5;U=moveTo(Z,y-3);g=Ver(U,[0 a])/a; Выведем также графики плотностей слагаемых СВ (рис. 10.17): >> figure,plot(y,g,'r'),hold on, plot(y,fff(Z,y)), plot([0 0 a a],[0 1/a 1/a 0], 'k') Рис. 10.17. Законы распределения нормального, равномерного законов и их композиции Композиция двух показательных распределений Композицию СВ X1 и X2, распределенных по показательному закону с параметрами l1 и l2 найдем интегрированием произведений плотностей f(x1) x x = l1e–l1 1, x1>0, f(x2) = l2e– l2 2, x2>0 по треугольнику D y¥ : y g ( y) = ò l1e y - l1 x1 l 2e - l 2 ( y - x1 ) dx1 = l 1l 2 e -l 2 y òe ( l 2 - l11 ) x1 dx1 = l 1 l 2 - l 2 y ( l 2 - l1 ) y ll e e - 1 = 1 2 e -l1 y - e -l 2 y , y > 0. l 2 - l1 l 2 - l1 Это распределение называется обобщенным законом Эрланга первого порядка. Раскрыв неопределенность при l1 = l2 = l, получим закон Эрланга первого порядка: æ d - ly ö g ( y ) = l2 ç e ÷ = l2 ye -ly , y > 0. è dl ø = ( ) ( ) Вероятностные основы. 10. Функции случайных величин 7 Композиция нескольких показательных распределений Закон Эрланга Tk+1 Композиция СВ X1, …, Xk, подчиненных показательному закону с параметром l, может означать время Tk Tk ожидания k последовательных событий в потоке соt1 t2 … tk tk+1 бытий с интенсивностью l (рис. 10.18). Очевидно, t Tk < t, если в интервале [0, t] наступило не менее k со10.18. Композиция бытий. Вероятность наступления одного события в ин- Рис.в потоке событий тервале длительностью t определяются по формуле Пуассона с параметром a = lt. Функция распределения СВ Tk – вероятность наступления не менее k таких событий: k -1 ( l t ) i - lt F(t) = P(Tk < t) = 1 - å e . i! i =0 Легко установить, что в выражении для производной F¢(t) после сокращений остается только одно слагаемое: l (lt ) n -1 -lt f (t ) = e . (n - 1)! Часто представляет интерес не сама длительность ожидания k событий, а время ожидания следующего за ними (k + 1)-о события. В таких случаях говорят, что из потока пропускают k событий, а (k + 1)-е – обрабатывают. Закон распределения интервала между обрабатываемыми событиями f k (t ) = l (l t ) k - l t e k! (10.11) называется законом Эрланга k - о порядка. Этому закону подчиняется, например, длина свободного пробега танка на минном поле с определенной линейной плотностью l при условии, что k мин экипаж может обезвредить. Создадим файл-функцию f_Erlang и построим с ее помощью графики распределения Эрланга порядков от 0 до 5 (рис. 10.19): >> t=0:0.1:10; L=1.5; for k=0:5 y=f_Erlang(t,L,k);plot(t,y), hold on,end При k = 0 закон Эрланга превращается в показательный закон и приобретает характерную особенность при малых значениях аргумента плотность показательного распределения в нуле совпадает с параметром l, тогда как вероятность события TÎ[0, Dt] в распределениях Эрланга положительных порядков стремится к нулю при малых Dt (как вероятность более, чем одного события в малом интервале пуассоновского потока). Рис. 10.19. Плотность распределения закона Эрланга С другой стороны, tke-t ® 0 при t ® ¥, следовательно, плотность распределения Эрланга имеет экстремум: f k¢ (t ) = 0 при ktk – 1 – ltk = 0, откуда следует Mo = k/l. МО и дисперсию найдем как ЧХ суммы k + 1 независимых СВ, распределенных по показательному закону с параметром l: mk = k +1 k +1 , Dk = 2 . l l Вероятностные основы. 10. Функции случайных величин 8 Разность двух независимых показательных распределений Закон распределения разности Y = X1 – X2 построим по первой формуле (10.11), изменив знак аргумента функции f2 на противоположный. Показательный закон определен для положительных аргументов, при y>0 неравенство x1 – y>0 выполняется в интервале (y, ¥), при y < 0 – в интервале (0, ¥): ¥ g ( y ) = ò l 1e -l1 x1 l 2 e -l 2 ( x1 - y ) dx1 = y l 1 l 2 l 2 y - ( l1 + l 2 ) y ll e e = 1 2 e - l1 y , y > 0. l1 + l 2 l1 + l 2 ¥ l 1l 2 l 2 y e , y < 0. l1 + l 2 Этому закону подчиняется случайный интервал между двумя событиями из разных пуассоновских потоков. В случае l1 = l2 = l обе ветви можно представить единым выражением – двусторонним экспоненциальным распределением Лапласа: l g ( y ) = e - l | y| . (10.12) 2 g ( y ) = ò l 1e -l1x1 l 2 e -l 2 ( x1 - y ) dx 2 = Композиция двух СВ, распределенных по закону Пуассона Если X1, X2 независимые СВ, распределенные по закону Пуассона с параметрами a1, a2, возможные значения суммы Y = X1 + X2 – все целые числа (с нулем), а вероятности pk = P(Y = k), можно выразить через параметры слагаемых СВ дискретным аналогом формулы (10.10): m m ak a m - k - a2 P( X 1 + X 2 = m) = å P( X 1 = k ) P( X 2 = m - k ) = å 1 e - a1 2 e = (m - k )! k =0 k = 0 k! = e -( a1 + a2 ) m! m! e -( a1 + a2 ) k m-k a a = (a1 + a2 ) m , m = 0, 1, ... . å 1 2 k m k m ! ( )! ! k =0 m Закон Пуассона устойчив к композиции. Это значит, что совмещение нескольких простейших пуассоновских полей (суперпозиция полей) образует простейшее пуассоновское поле. Композиция нормальных распределений Композиция двух независимых нормальных распределений Предположим вначале, что XÎN(m1, s1), Y Î N(m2, s2) независимы. Их сумма Z = X + Y имеет плотность распределения согласно (10.25) ¥ ¥ ( x - m1 ) 2 ( z - x - m1 ) 2 1 2 s12 2 s 22 g ( z ) = ò f 1 ( x) f 2 ( z - x)dx = e dx . ò 2ps1s 2 -¥ -¥ Показатель степени можно представить в виде квадратного трехчлена j(x) = – Ax2 + 2Bx – C, в котором A > 0 не зависит от z, коэффициент B содержит z в первой степени, в коэффициент C – во второй. Из интегрального исчисления известно, что ¥ òe -¥ - Ax 2 ± 2 Bx -C p dx = e A AC - B 2 A . 2 Функция вида g ( z ) = ae - tz со свойствами плотности распределения может быть только функцией Гаусса (4.13). Это значит, что композиция двух нормальных распределений также подчиняется нормальному закону. Параметры этого распределения можно определить из структуры коэффициентов a и t, но их легче найти по теореме о числовых характеристиках: Mz = M[X1] + M[X2] = m1 + m2, s 2z = s12 + s 22 . Вероятностные основы. 10. Функции случайных величин 9 Композиция двух зависимых нормальных распределений Плотность распределения суммы тех же СВ X, Y при ненулевом коэффициенте корреляции получается интегрированием по одной из формул (10.23). Подстановка в нее совместной плотности двумерного нормального закона (6.7) опять приведет к показательной функции с аргументом в виде квадратного трехчлена от z. Таким образом, нормальный закон устойчив относительно сложения: сумма двух нормальных распределений также подчиняется нормальному закону. Параметры распределения суммы X1ÎN(m1, s1), X2ÎN(m2, s2) с коэффициентом корреляции r между X1и X2: my = m1 + m2, s y2 = s 12 + s 22 + 2rs 1s 2 . Композиция двух нормально распределенных случайных векторов Многомерный случайный вектор подчиняется нормальному закону, если его проекции починяются нормальному закону. Векторную сумму двух случайных векторов можно представить суммой проекций слагаемых векторов. Так как одномерные нормальные законы устойчивы относительно сложения, проекции векторной суммы, а значит, и сам вектор подчиняются нормальному закону. Естественно, проекции должны быть взяты в одной и той же системе координат. Ошибки прицеливания и технического рассеивания задаются главными СКО, но в ошибках прицеливания одним из главных является направление на цель с позиции наблюдателя, а в ошибках рассеивания – направление стрельбы. Для нахождения их композиции нужно преобразовать один из слагаемых векторов к системе координат, на которую проецирован другой вектор. Композиция объектов Norm2 В классе двумерных случайных нормально распределенных векторов Norm_2 композицию векторов выполняет операция сложения.. Слагаемые должны быть определены в одной системе координат. Преобразование параметров распределения при повороте локальной системы координат осуществляет метод RotAxes. Если вектор X определен в системе координат групповой цели, а параметры вектора Y заданы в системе координат, повернутой на угол fi (рис. 10.20, а), композицию Z = X + Y (суммарное рассеивание) можно получить выражением: Z=X+RotAxes(Y,–fi). а б Рис. 10.20. Композиция нормальных законов в плоскости расположения группы целей Определим геометрические объекты R, R1, C, вектор групповых ошибок Xg, вектор индивидуальных ошибок в направлении от центра групповой ошибки Xr под углом fi от оси x главной системы. Приведем индивидуальные ошибки к главной системе координат, вычислим суммарную ошибку X, покажем все объекты (рис. 10.20, б): >> R=Rect(4,2); R1=R*2+[12;5];C=Circ(2,[0;10]); >> Xg=Norm_2([4 2]); Xr=Norm_2([3 1],[10; 0]); fi=50;Xi=RotAxes(Xr,-fi,1); X=Xi+Xg; >> ShowAll(R,'Fc',R1,'Fc',C,'Fc',Xg,Xi,'r',X,'k') Покажем параметры всех объектов Norm_2: >> Xg,Xr,Xi,X Norm_2 Xg: MO = [0 0], CKO = [4 2] Norm_2 Xr: MO = [10 0], CKO = [3 1] Вероятностные основы. 10. Функции случайных величин 10 Norm_2 Xi: MO = [6.4279 7.6604], CKO = [2.0749 2.3863], r = 0.7956 Norm_2 X: MO = [6.4279 7.6604], CKO = [4.5062 3.1136], r = 0.2808 Функция Ver с несколькими геометрическими объектами в списке аргументов возвращает вероятность попадания в один из них и вероятности попадания в каждый объект: >> [P,pp]=Ver(X,R,R1,C) P = 0.1270 pp = 0.0036 Задача 0.0955 0.0279 Вычислить вероятность хотя бы одного попадания десятью элементами с теми же параметрами рассеивания в случайных направлениях от центра групповых ошибок. Зависимость вероятности хотя бы одного попадания в десяти повторениях для всех возможных углов вылета (с шагом 1°) (рис. 10.21) можно построить следующей командой: Рис. 10.21. Зависимость вероятности хотя бы одного попадания от направления >> P=[];for fi=1:360 P(fi,:)=1-(1-Ver(Xg+RotAxes(Xr,-fi,1),R,R1,C)).^10; end, plot(1:360,P) Распределение наименьшей и наибольшей из нескольких СВ Распределение наибольшей из нескольких СВ Наибольшая из всех СВ системы (X1, …, Xn) задается функцией Ymax = max{X1, …, Xn}. Событие (Ymax < y) наступает, когда все Xi меньше, чем y, т.е. представляет собой произведение независимых событий (рис. 10.22): x2 y Dy y x1 Рис. 10.22. Область Dy = {x1, x2: max(x1, x2) < y} n n æ n ö FY ( y ) = P(Ymax < y ) = Pçç Õ ( X i < y ) ÷÷ = Õ P( X i < y ) = Õ Fi ( y ) . i =1 è i =1 ø i =1 (10.14) Если все Xi подчиняются одному закону распределения FX(x), (10.15) FY ( y ) = FX ( y ) n , fY ( y) = Распределение наименьшей из нескольких СВ d FX ( y ) n = nFX ( y ) n -1 f Y ( y ) . dy (10.16) Функция Ymin = min{X1, …, Xn} определяет наименьшую из всех СВ системы (X1, …, Xn). Событие (Ymin < y) наступает, когда хотя бы одна из Xi, меньше, чем y (рис. 10.23), т.е. представляет собой сумму независимых событий (Xi < y), i = 1, 2, …, n, вероятность которой можно определить через вероятность противоположного события: n æ n ö FY ( y ) = P(Ymin < y ) = Pç å ( X i < y )÷ = 1 - Õ (1 - P( X i < y ) ) . è i =1 ø i =1 Если все Xi подчиняются одному закону распределения FX(x), (10.17) x2 y Dy y x1 Рис. 10.23. Область Dy = {x1, x2: min(x1, x2) < y} Вероятностные основы. 10. Функции случайных величин 11 FY ( y ) = 1 - (1 - FX ( y ) ) , (10.18) n f Y ( y ) = FY¢ ( y ) = n(1 - FX ( y ) ) n -1 (10.19) f X ( y) . Построим законы распределения стандартного нормального закона, максимального и минимального значений из n = 20 таких СВ (рис. 10.24): >> X=[-5:0.1:5]; F=P_Gauss(X); f=f_Gauss(X); n=20; >> plot(X,[f; f.*n.*(1-F).^(n-1); f.*n.*F.^(n-1)],'r'), hold on,plot(X,[F;1-(1-F).^n; F.^n],'b') Рис. 10.24. Графики нормального закона, максимального и минимального значений Наиболее раннее событие из нескольких пуассоновских потоков Время ожидания первого события в каждом из независимых потоков с плотностями li подчиняется показательному закону Fi (t ) =1 - e - li t . Подстановка в (10.1) дает закон распределения времени ожидания первого из них: F (t ) = 1 - Õ e - l i t = 1 - expæç - t å l i ö÷ . è i ø i Как и следовало ожидать, наиболее раннее событие из нескольких независимых потоков подчиняется тому же закону, что и первое событие в пуассоновском потоке с эквивалентной плотностью l = å li . i Вероятностные основы. 10. Функции случайных величин 12 Программа верификации кода MATLAB clear all Grid='[Fi,Teta]= meshgrid(0:d:pi/2,0:d:pi*2);';d=0.1;eval(Grid); Spr='S=c*b*sin(Fi)+a*(c*abs(sin(Teta))+b*abs(cos(Teta))).*cos(Fi);'; a=10;b=8;c=4;d=0.1;eval(Spr);surfc(Fi, Teta, S) d=0.01;eval(Grid);eval(Spr);Z=ones(size(S));Trap2(Z.*cos(Fi),Fi,Teta)/(2*pi) c1= 'y=linspace(min(min(S)), max(max(S)),100);...'; c2= 'F=[];for u=y I=find(S>u);z=Z;z(I)=0;F(end+1)=Trap2(z.*cos(Fi),Fi,Teta)/(2*pi);end'; eval(c1),eval(c2);plot(y,F), hold on mD='Y=y(1:end-1)+diff(y)/2;m=dot(diff(F),Y),D=dot(diff(F),Y.^2)-m^2'; eval(mD) h=(a*b*c)^(1/3); eval(Spr); eval(c1),eval(c2); M=6*a^2/4,eval(mD),plot(y,F,'r') [F,f]=MID_S(ParaShape([a b c])); [F1,f1]=MID_S(ParaShape([h h h])); Show (F,'y:',F1,'g:') a=10;h=10;beta=45;ksi=45; R=ParaShape([a a h]); A=Affinor(3,beta/2,221,beta,123,ksi); Fragm=R*A; V =Volume(Fragm), Sm=Area(Fragm)/4, m =V*0.0078, FI=Sm/V^(2/3) [F,f]=MID_S(Fragm); plot(F.x,F.F,f.x,f.f/max(f.f)) Trap(f.f,f.x), Ms=Trap(f.x.*f.f,f.x) a=10; beta=45; ksi=45; h=10; PR=prism(ParaGram([a a beta/180*pi]),50,0); PL=Rot(Plane([0 0 1]),3,beta,2,ksi);T=Sect(PR,move(PL,[0;0;25])); T1=Sect(T{1},move(PL,[0;0;25+h]));Frag=T1{2}; T{1}=Move(T{1},[0;0;30]); Frag=Move(Frag,[0;0;10]);Show(T{1},T{2},'k',Frag,'FP'); Show(T{1},'k',T{2},'k',Frag,'FPA');view([-0.7 0.5 0.1]) clear all A=Rect(200,100); B=Rect(100,60);N=500;X=Norm_2([40,50]);Z=Gen(X,N); for i=1:N S(i)=Area(Sect(A,move(B,Z(i)))); end, [F,f]=SmartHist(S);Show(F) clear all X=Norm_2([10;15],[2 4],0.4);x1=Net(X12(X),50); y=linspace(10,500,50); g=[]; S='for i=1:50 for j=1:50 H(j)=f(X,x1(j),y(i)/x1(j));end,g(i)=Trap(1./abs(x1).*H, x1);end'; eval(S),plot(y,g,'r'),hold on X=setval(X, 0);eval(S),plot(y,g,'g'), X=setval(X, 0.8);eval(S),plot(y,g,'k') X=setval(X, -0.4);eval(S),plot(y,g,'c--') Trap(g,y), m=Trap(y.*g,y), My=10*15+(-0.4)*2*4 H=Norm_1(5,1); v=linspace(10,2000,50); for i=1:50 z(i)=Trap(1./abs(y).*g.*f(H,v(i)./y), y);end m=My*5, Mv=Trap(v.*z,v), Ind=find(v>0.75*m & v<1.5*m);p=Trap(z(Ind),v(Ind)) clear all for k = [12,2:6] A=rand(500,k); [F,f]=SmartHist(sum(A,2)); plot(f.x,f.f), hold on, end x=0:0.01:6;X=Norm_1(3,sqrt(1/2)); plot(x,fff(X,x),'r', x, fff(Norm_1(6,1),x),'r') a=10;Z=Norm_1(3,2);y=Net(Z)*1.5;U=moveTo(Z,y-3);g=Ver(U,[0 a])/a; figure,plot(y,g,'r'),hold on, plot(y,fff(Z,y)), plot([0 0 a a],[0 1/a 1/a 0], 'k') clear all t=0:0.1:10; L=1.5; for k=0:5 y=f_Erlang(t,L,k);plot(t,y), hold on,end clear all R=Rect(4,2); R1=R*2+[12;5];C=Circ(2,[0;10]); Xg=Norm_2([4 2]); Xr=Norm_2([3 1],[10; 0]); fi=50;Xi=RotAxes(Xr,-fi,1); X=Xi+Xg; ShowAll(R,'Fc',R1,'Fc',C,'Fc',Xg,Xi,'r',X,'k') Xg,Xr,Xi,X [P,pp]=Ver(X,R,R1,C) Вероятностные основы.10. Функции случайных величин 13 P=[];for fi=1:360 P(fi,:)=1-(1-Ver(Xg+RotAxes(Xr,-fi,1),R,R1,C)).^10; end, plot(1:360,P) clear all X=[-5:0.1:5]; F=P_Gauss(X); f=f_Gauss(X); n=20; plot(X,[f; f.*n.*(1-F).^(n-1); f.*n.*F.^(n-1)],'r'), hold on,plot(X,[F;1-(1F).^n; F.^n],'b') Вероятностные основы.10. Функции случайных величин 14 Контрольные вопросы 1. Какие законы распределения устойчивы по отношению к композиции? Что это значит? 2. Устойчиво ли к композиции равномерное распределение? Какому закону подчиняется сумма 12-и СВ, распределенных равномерно в интервале [0, 1]? 3. Какому закону подчиняется сумма двух нормально распределенных СВ XÎN(m1, s1), Y Î N(m2, s2)? 4. Чем объясняется отличие графиков закона Эрланга положительных порядков и показательного распределения при нулевом значении аргумента? Вероятностные основы.10. Функции случайных величин 15
«Вероятностная модель случайного события. Непосредственный расчет вероятностей» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Найди решение своей задачи среди 1 000 000 ответов
Найти
Найди решение своей задачи среди 1 000 000 ответов
Крупнейшая русскоязычная библиотека студенческих решенных задач

Тебе могут подойти лекции

Смотреть все 173 лекции
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot