Справочник от Автор24
Поделись лекцией за скидку на Автор24

Цепи Маркова и системы массового обслуживания

  • 👀 532 просмотра
  • 📌 455 загрузок
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Цепи Маркова и системы массового обслуживания» pdf
ЦЕПИ МАРКОВА И СИСТЕМЫ МАССОВОГО ОБСЛУЖИВАНИЯ 1. Марковские цепи с конечным числом состояний и дискретным временем. Пусть некоторая физическая система может находиться в k различных состояниях А1, А 2 …А k . Изменения состояний системы могут происходить в определенные моменты времени t 1 ,t 2 ,…t n …, называемые шагами. В другие моменты времени состояние системы не может измениться. Пусть система в некоторый начальный момент находилась в состоянии А i , в момент t 1 перешла в состояние А j , в момент t 2 - в состоянии А r и т.д. Если переходы системы из состояния в состояние на каждом шаге происходят случайно, то говорят, что в системе возник случайный процесс с дискретным временем. Этот процесс может быть описан цепочкой состояний А i  А j  А r  …, в которые попадает система за 1,2… шагов. Важной моделью случайного процесса является марковский процесс (марковская цепь). Случайный процесс с дискретным временем называется марковским, если на любом шаге S вероятность Р i j (S) перехода системы из состояния А i в состояние А j зависит лишь от состояния А i , в которое попала система на (S-1) шаге , и не зависит от того, как и когда она в это состояние попала. Кратко это свойство формулируют так: при заданном настоящем будущее не зависит от прошлого. В силу этого марковский процесс еще называют процессом без последствия. Возможные переходы системы из состояния в состояние удобно изображать с помощью графа состояний. Каждая вершина графа соответствует состоянию системы, а стрелка, направленная из вершины А i в А j , означает переход А i  А j с вероятностью Р i j , которая ставится над стрелкой. Например, граф состояний, соответствующей матрице перехода P   0,40,6 0,30,7  , изображен на рис.1 0.6 0.4 A2 A1 0.3 Рис. 1 0.7 2. Марковские цепи с конечным числом состояний и непрерывным временем Пусть в отличие от предыдущего пункта, физическая система, возможные состояния которой A1 , A2 , , Ak , может переходить из состояния в состояние не в определенные моменты времени, а в любой момент времени случайным образом. При этом возникает случайный процесс (цепь) с непрерывным временем. Если этот процесс обладает отсутствием последействия, то его называют марковским случайным процессом с непрерывным временем или непрерывной цепью Маркова. Для такого процесса вероятность перехода из состояния Ai в состояние Aj в любой момент времени равна нулю. Поэтому вместо вероятности перехода Pi j рассматривают плотность вероятности перехода i j , которая определяется как предел отношения вероятности перехода Pij  t  за время t из состояния Ai в состояние A j к длине промежутка t при t  0 , т.е.  ij  lim t  0 Pij  t  t . Плотность вероятности i j может быть как постоянной величиной, так и величиной, зависящей от момента времени t , с которого начинается промежуток t . Если плотность вероятности перехода i j не зависит от t , марковский процесс (цепь) называется однородным. В дальнейшем будем предполагать, что рассматриваемые процессы удовлетворяют условию ординарности: в один и тот же момент времени t система не может изменять своё состояние более, чем один раз. Для многих практических случаев важно знать, как ведут себя вероятности p1 (t ), i  1, 2,...,  , при большом времени работы системы, т.е. при t   . Если при определённых условиях существуют предельные вероятности состояний p1  lim p1 (t ), i  1, 2,...,  , x  не зависящие от того, в каком состоянии система находилась в начальный момент, то это означает, что с течением времени в системе устанавливается предельный стационарный режим. Система, для которой существуют предельные вероятности, называется эргодической, а возникающий в ней случайный процесс эргодическим. 3. Процессы гибели и размножения Процессом гибели и размножения называется размеченный граф состояний которой изображен на рис 2. марковская t 1 t k 1 0 1 2   A1    A2    ...    At 1      Ak 1   A0  At  ...  Ak      1 2 3 t t 1 k Рис.2 2 цепь, Здесь 0 , 1..., k 1 – интенсивности переходов системы из состояния в состояние слева направо; 1 , 2 ..., k – интенсивности переходов справа налево. Очевидно, все состояния A0 , A1..., Ak являются существенными сообщающимися состояниями. Следовательно, существует предельное распределение вероятностей состояний, которое имеет вид: 1      ...  p0  1  0  0 1  ...  0 1 k 1  ; 1 2 ... k   1 1 2     ... p1  0 p0 ; p1  0 1 p0 ,… , pk  0 1 k 1 p0 . 1 1 2 1 2 ... k §4. Основные понятия и классификация систем массового обслуживания Заявкой (требованием) назовем спрос на удовлетворение какой-либо потребности. Далее будем подразумевать, что все заявки однотипные. Удовлетворение спроса назовем обслуживанием заявки. Системой массового обслуживания (СМО) называется любая система, предназначенная для обслуживания каких-либо заявок, поступающих в нее в случайные моменты времени. Устройства, непосредственно обслуживающее заявку, называется каналом обслуживания. СМО может содержать одно такое устройство, тогда она называется одноканальной. Если СМО содержит несколько обслуживающих устройств, то она называется многоканальной. Поступление заявок в СМО назовем событием. Последовательность событий, состоящих в поступлении заявок в СМО, назовем входящим потоком заявок. Последовательность событий, состоящих в выходе заявок из СМО, назовем выходящим потоком заявок. В зависимости от поведения заявки в СМО различают СМО с отказами и СМО с очередью (или ожиданием). В СМО с отказами заявка, поступившая в момент занятости всех каналов, получает отказ и покидает СМО. В СМО с очередью (или ожиданием) заявка, поступившая в момент занятости всех каналов, становится в очередь и ожидает освобождения одного из каналов обслуживания. Возможны СМО смешанного типа. Например, СМО с ограниченной очередью. В такой СМО заявка становится в очередь при занятости всех каналов, если очередь не велика, скажем, не достигла длины m . Если все m мест в очереди заняты, заявка покидает СМО. К СМО смешанного типа относятся СМО с ограниченным временем ожидания. Заявка, поступившая в момент занятости всех каналов, становится в очередь, но может уйти из СМО не обслуженной, если время ожидания слишком велико. СМО с очередью (или ожиданием) могут быть открытого или замкнутого типа. В открытых СМО интенсивность поступающего на нее потока заявок не зависит от состояния самой СМО, т.к. круг « клиентов» (поступающих заявок) практически неограничен. Примерами таких СМО являются вокзальные кассы, метрополитен, телевизионные ателье больших городов и т.д. В СМО с очередью замкнутого типа обслуживается ограниченный круг «клиентов» , поэтому интенсивность потока заявок существенно зависит от состояния 3 системы. Примерами таких СМО являются различные ремонтные системы в автопарках, цехах и т.д. СМО с очередью и смешанного типа различаются так же по дисциплине обслуживания: обслуживаются ли заявки в порядке поступления, или в случайном порядке, или есть заявки, которые обслуживаются вне очереди (СМО с приоритетом). 5. Простейший поток и его свойства Рассмотрим входящий поток заявок в СМО как последовательность точек t1 , t2 ,..., tn , - моментов поступления заявок на оси времени Ot . Здесь t0 начальный момент. Поток заявок назовем простейшим, если он удовлетворяет трем условиям 1. Отсутствие последействия. Это условие означает, что заявки поступают в СМО независимо друг от друга, т.е. поступление заявки после момента времени t не зависит от того, когда и в каком количестве появились заявки до момента t . 2. Стационарность. Это условие означает, что вероятность поступления некоторого числа заявок СМО за время t зависит лишь от длины интервала t   t  t   t и не зависит от точки t отсчета этого интервала на оси времени Ot .Если выполнено условие стационарности, то можно говорить о среднем числе заявок, поступающих в СМО за единицу времени, например за один час, не указывая за какой именно. 3. Ординарность. Это условие означает, что одновременное поступление в СМО двух и более заявок маловероятно, т.е. вероятность появления за бесконечно малое время t более чем одной заявки есть бесконечно малое высшего порядка малости, чем t . Таким образом, если поток простейший, то случайные моменты времени t1  i  1, 2,... поступления заявок в СМО распределены на оси времени со средней плотностью  (стационарность); эти точки попадают в непересекающиеся интервалы независимо друг от друга (нет последействия); заявки поступают в СМО поодиночке (ординарность). Величина  называется интенсивностью потока заявок и представляет собой среднее число (математическое ожидание числа) заявок, поступающих в единицу времени. Можно показать, что для простейшего потока вероятность Pi  t  поступления в СМО ровно i заявок за время t вычисляется по формуле Pi  t    t  e t , (i  0), i! (1) т.е. вероятности pi  t  распределены по закону Пуассона с параметром t . Этим вызвано другое название простейшего потока – пуассоновский поток. Обозначим через Т интервал времени между поступлениями двух последовательных заявок. Найдем функцию распределения случайной величины Т. F  t   P T  t   1  P0  t  4 где P T  t  - вероятность того, что случайная величина Т примет значение, меньше, чем t; P0 -вероятность противоположного события (т.е. за время t в СМО не поступила ни одна заявка). В силу формулы (1) имеем: P0  t   t   0! e  t  e   t , откуда F  t   1  e t , (t>0) . Найдем плотность распределения случайной величины Т: f  t   F '  t   e  t , (t>0). Определяя математическое ожидание и дисперсию случайной величины Т, получим: M T   1 1 1 , D T   2 ,   D T   .    Таким образом, интервал времени Т между двумя последовательными заявками в простейшем потоке имеет показательное распределение с математическим ожиданием 1 , где  - интенсивность потока.  6. Марковские системы массового обслуживания Для задания СМО необходимо задать вероятностные характеристики времени обслуживания одной заявки. Обозначим это время через Tобсл .Величина Tобсл является случайной. Во многих задачах теории массового обслуживания закон распределения времени обслуживания предполагается показательным, т.е.  1 M Tобсл  . (2) Часто  называют интенсивность потока обслуживания. При этом под потоком обслуживания понимается поток заявок, обслуживаемых одна за другой одним непрерывно занятым каналом. Если Т обсл представляет собой случайную величину, имеющую показательное распределение, то поток обслуживания является простейшим. Если входящий поток и все потоки обслуживания простейшие, то процесс, протекающий в СМО, является марковским случайным процессом (целью) с дискретными состояниями и непрерывным временем. Поэтому СМО в которой все потоки простейшие, называют марковской СМО. Таким образом, предположение о показательном законе распределении времени обслуживания и интервала времени между двумя последовательными поступлениями заявок играет исключительную роль в теории массового обслуживания, так как упрощает аналитическое исследование СМО, сводя его к исследованию цепей Маркова. Пример 1. Автоматизированная система управления АСУ продажей железнодорожных билетов состоит из двух параллельно работающих ЭВМ . При выходе из строя одной ЭВМ АСУ продолжает нормально функционировать за счет работы другой ЭВМ .Поток отказов каждой ЭВМ простейший. Среднее время безотказной работы одной ЭВМ равно 10 суткам. 5 При выходе из строя отказавшую ЭВМ начинают ремонтировать. Время ремонта ЭВМ распределено по показательному закону и в среднем составляет 2 суток. В начальный момент обе ЭВМ исправны. Найти среднюю производительность АСУ, если при исправности хотя бы одной ЭВМ её производительность равна 100%, а при отказе обеих ЭВМ продажа билетов производится вручную, обеспечивая 30% производительности АСУ. Решение. Обозначим состояния АСУ по числу вышедших из строя ЭВМ: A0 - обе ЭВМ исправны; A 1 - одна исправна, другая ремонтируется; A2 - обе ЭВМ ремонтируются. Так как потоки отказов и восстановления ЭВМ являются простейшими, то их интенсивности вычисляются по формулам:  1 1  отказов  1 1  восстановления      ;   M T  10  сутки  M Tобсл  2  сутки  Размеченный граф состояний изображен на рис. 3. Рис. 3 Поскольку в состоянии A0 работают две ЭВМ, каждая из которых может 1 , то АСУ переходит из состояния A0 в 10 1 1 состояние A 1 с интенсивностью  0  2  ; переход A 1 A 2 происходит с 10 5 1 интенсивностью 1    . Из состояния A2 в состояние A 1 система переходит 10 1 с интенсивностью  2  2  2  1 , так как восстанавливаются две ЭВМ; переход 2 1 A 1 A 0 происходит с интенсивностью 1    . Полученный граф сравним с 2 отказать с интенсивностью   графом, построенным для процесса гибели и размножения. Следовательно, в описанной СМО происходит процесс гибели и размножения с числом состояний k  1  3 , так как k  2 . Воспользуемся формулами для вычисления предельного распределения вероятностей 1 1     1  0.2 0.2  0.1  p0  1  0  0 1   1     0.694.  1.44  0.5 0.5 1   1 12  0  0 1 0.2 0.2  0.1 p1  p0  0.694  0.278 p2  p0  0.694  0.028 . 1 0.5  1 2 0.5 1 6 Вычислим p0  p1  p2  0.694  0.278  0.028  1 , что и следовало ожидать, так как система может находиться в одном из трех возможных состояний A0 , A 1 , A2 . Средняя производительность АСУ в установившемся режиме составит 100%( p0  p1 )  30% p2  100%(0.694  0.278)  30%  0.028  98.04% . Расчет показывает, что параллельная работа всего двух ЭВМ обеспечивает достаточно высокую (98.04% от номинальной ) производительность АСУ. Следовательно, нет необходимости повышать производительность системы за счёт, например, присоединения третьей ЭВМ. 7. Показатели эффективности систем массового обслуживания Обычно в теории массового обслуживания интересуются предельными средними характеристиками системы, которые называют показателями эффективности СМО. В качестве показателей эффективности могут рассматриваться следующие : A – среднее число заявок, обслуживаемое СМО в единицу времени. Эту характеристику называют абсолютной пропускной способностью СМО. Q – вероятность обслуживания поступившей заявки или относительная пропускная способность СМО. Очевидно, Q  A .  Pотк –вероятность отказа, т.е. вероятность того, что поступившая заявка не будет обслужена, Pотк  1  Q . z – среднее число заявок в СМО (имеются в виду все заявки, как обслуживаемые, так и не ожидающие очереди, если она есть). r – среднее число заявок в очереди, если она есть. tсист – среднее время пребывания заявки в СМО, как в очереди, если она есть, так и под обслуживанием. tоч –среднее время пребывания заявки в очереди. k –среднее число занятых каналов. Выбор показателей эффективности СМО зависит от типа СМО. Например, абсолютная пропускная способность А, является основной характеристикой обслуживания в СМО с отказами, теряет смысл для СМО с неограниченной очередью. Для открытых СМО справедливы соотношения A z r k оч  t оч  , , , (3) где  – интенсивность потока заявок,  – интенсивность потока обслуживания. t сист  Формулы (3)справедливы только в том случае, когда входящий поток заявок и поток обслуживаний стационарны. 8. Система массового обслуживания с простейшим входящим потоком и показательным временем обслуживания. Здесь рассматриваются СМО, у которых входящий поток пуассоновский, а время обслуживания – показательное. Многоканальная система массового обслуживания с отказами (задача Эрланга) 7 Пусть СМО содержит k каналов, входящий поток заявок имеет интенсивность  , поток обслуживания заявки одним каналом имеет интенсивность  . Будем нумеровать состояния СМО по числу занятых каналов: A0 - все каналы свободны; A1 - один канал занят; … … …; Ai - i каналов занято,  k  i  каналов свободны; … … …; Ak - все каналы заняты. Размеченный граф состояний имеет вид, представленный на рис.4.         A1    A2    Ai 1    Ai    Ak 1    Ak A         2 3 i k  i 1  Рис. 4 Сравнивая рисунки 4 и 3, приходим к выводу, что граф на рис.6 является графом процесса гибели и размножения, для которого: 1   , 1  i . (4) Обозначая через    , предельное распределение вероятностей состояний  можно вычислить по формулам:   2 k    1      k!   1! 2! p1  p2  (5) i 2  p0 ; 1! 1 k   p0 ; …; pi  p0 ; …; 2! i! pk   p0 . k! Формулы (5) называются формулами Эрланга. С их помощью вычисляются показатели эффективности СМО: A   1  pk  где   Q ; A  1  pk  ; Pотк  pk ; k A   1  pk   , (6)  , эта величина называется коэффициентом загрузки системы.  Пример 2 . Диспетчерская служба имеет 5 линий связи. Поток вызовов простейший с интенсивностью   0,8 вызовов в минуту. Среднее время переговоров с диспетчером составляет 3 мин. Время переговоров распределено по показательному закону. Найти абсолютную и относительную пропускные способности диспетчерской службы; вероятность отказа; среднее число занятых каналов. Определить сколько линий связи должна иметь диспетчерская служба, чтобы вероятность отказа не превышала 0,01. Решение. Находим интенсивность потока обслуживания разговора в минуту. Коэффициент загрузки СМО  1 1  M Tобсл  3 составляет  0,8    0,8 3  2, 4 . Из формул (19) при   5 имеем:  1/ 3 1 1   2 3 4 5  1  2, 4 5, 76 13,824 33,178 79, 026  p0  1        1       10, 629   0, 094  1 2 6 24 120    1! 2! 3! 4! 5!  5  5 (2, 4)5 79, 626 0  0, 094  0, 094  0, 062 ; 5! 5! 120 Находим по формулам (6): а) абсолютная пропускная способность: 8 A   (1  5 )  0,8(1  0, 062)  0,8 0,938  0, 750 (следовательно, СМО обслуживает в среднем 0б75 заявки в минуту); б) относительная пропускная способность: Q A  1   5  1  0,062  0,938  (следовательно, вероятность обслуживания вновь поступившей заявки равна 0,938 ); в) вероятность отказа: Pотк  5  0, 062 ; г) среднее число занятых каналов: k A   (1  5 )  2, 4 0,938  2, 251  (следовательно, диспетчерская служба в среднем имеет половину линии связи постоянно занятыми). Поскольку вероятность отказа данной диспетчерской службы Pотк 0,062 превышает 0,01 , то число линий связи следует увеличить. Допустим, что линий связи стало 6. Тогда из формул (5) при k  6 получим: 1 1    5 6  (2, 4) 6  1 1  0  1   ...     10,629   0, 092   10, 629  0, 265  5! 6!  720  10,894  1!  6 (2, 4)6 6  0  0, 092  0, 265 0, 092  0, 024 6! 720 Следовательно, при k  6 вероятность отказов Pотк  6  0, 024 превышает 0,01. Значит, число каналов надо увеличить. При k  7 получим: 1 1    6 7  (2, 4)7  1 1  0  1   ...     10,894   0, 091   10,894  0, 091  6! 7!  5040  10 / 985  1!  7 (2, 4)7 7  0  0, 091  (0, 091)2  0, 008 . 7! 5040 Следовательно , при k  7 вероятность отказов Pотк  7  0, 008 не превышает 0,01. Таким образом, для обеспечения требуемой вероятности отказов следует увеличить количество линий связи диспетчерской службы до 7. МАТЕМАТИЧЕСКАЯ СТАТИСТИКА 1. Генеральная совокупность и выборка Статистические методы связаны с обработкой числовых данных, полученных в результате наблюдений либо измерений. Источник наблюдений называется генеральной совокупностью, а множество измеренных числовых значений – выборкой. Объемом выборки называется количество выборочных значений. Задачей математической статистики является получение информации о поведении некоторой случайной величины по относительно небольшому количеству ее значений (выборке), полученной случайным образом из всего множества значений случайной величины (генеральной совокупности). Для того, чтобы по выборке можно было адекватно судить о случайной величине, выборка должна быть репрезентативной, т.е. все элементы генеральной совокупности должны иметь одинаковую вероятность попадания в выборку. 9 Существует два способа выборочного отбора: 1) повторный – каждый выборочный элемент возвращается в общую совокупность и может быть отобран повторно; 2) бесповторный – каждый выборочный элемент не возвращается в исходную совокупность. §2. Вариационные ряды их способы их представления Если из генеральной совокупности извлечена выборка объема n , в которой число х1 повторяется п1 раз, число х2 – п2 раза,…, число хk – nk раз (то есть выборка содержит k различных значений случайной величины), то числа xi называются вариантами, соответствующие им значения ni – частотами, а последовательность вариант, записанных в порядке возрастания, и относящихся к ним частот – вариационным рядом. При этом вместо абсолютных частот ni можно задавать распределение относительных частот wi  ni n. (1) Вариационный ряд называется дискретным, если он представляет собой выборку значений дискретной случайной величины: Варианты xi x1 x2 x3 x4 x5 Вариационный ряд называется интервальным, если он представляет выборку непрерывной случайной величины: x1 , x2  x2 , x3  x3 , x4  x4 , x5  x5 , x6  Варианты xi Пример 1. Дана выборка, состоящая из чисел: 3.2, 4.1, 8.1, 8.1, 6.7, 4.4, 4.4, 3.2, 5.0, 6.7, 6.7, 7.5, 3.2, 4.4, 6.7, 6.7, 5.0, 5.0, 4.4, 8.1. Составить вариационный ряд распределения абсолютных и относительных частот. Решение. Объем выборки n  20 . Перепишем варианты в порядке возрастания: 3.2, 3.2, 3.2, 4.4, 4.4, 4.4, 4.4, 4.4, 5.0, 5.0, 5.0, 6.7, 6.7, 6.7, 6.7, 6.7, 7.5, 8.1, 8.1, 8.1. Составлен вариационный ряд, который показывает, что выборка состоит из шести различных вариант. Сопоставим вариантам их частоты и вычислим относительные частоты: xi 3.2 4.4 5.0 6.7 7.5 8.1 ni 3 5 3 5 1 3 wi 0,15 0,25 0,15 0,25 0,05 0,15 (относительная частота wi  ni ). 20 Если получена выборка значений непрерывной случайной величины, где число вариант очень велико, составляется сгруппированный статистический ряд. Для его получения интервал (a, b), содержащий все варианты, делится на k равных частей длины h ba , и в качестве абсолютных частот выступают k количества вариант, попавших на данный интервал. 10 Для наглядности представления о поведении случайной величины используют графические изображения статистических рядов в виде полигона и гистограммы. Полигон используется для изображения дискретного ряда и представляет собой ломаную, соединяющую точки плоскости с координатами  xi , ni  . Для интервального ряда тоже можно построить полигон, но его ломаная будет  x  xi 1  соединять точки с координатами  i , ni  . 2   Гистограмма – столбчатая диаграмма, состоящая из прямоугольников, основания которых – интервалы длины h, а высоты – плотности абсолютных  ni  n    или относительных  i  частот. При этом общая площадь гистограммы h  hn  абсолютных частот равна объему выборки, а гистограммы относительных частот – единице. Пример 2. Дана выборка, вариационный ряд которой имеет вид: 10,8; 11,1; 11,7; 12,2; 13,1; 13,4; 13,9; 14,3; 14,3; 14,4; 14,8; 16,5; 17,7; 18,2; 19,9; 20,0; 20,3; 20,8; 23,1; 24,2; 25,1; 25,1; 25,7; 28,4; 28,5; 29,3; 29,8; 29,9; 30,2; 30,4. Составить вариационный ряд распределения абсолютных и относительных частот, состоящий из пяти интервалов, и построить гистограмму относительных частот. Решение. Объем выборки n  30 . Выберем в качестве границ интервала a  10,5; b  30,5 . Тогда h 30,5  10,5  4, и a, b  разбивается на 5 части (10,5; 14,5), (14,5; 18,5), (18,5; 22,5), (22,5; 26,5) и (26,5; 30,5). Статистический ряд распределения имеет вид: Номер интервала Границы Абсолютные Относительные интервала частоты частоты 1 1 10,5; 14,5 10 2 14,5; 18,5 4 3 18,5; 22,5 4 4 22,5; 26,5 5 5 26,5; 30,5 7 Построим гистограмму: ni 120 11 3 2 15 2 15 1 6 7 30 x §3. Оценки параметров генеральной совокупности Рассмотрим распределение случайной величины, зависящей от параметра  . Требуется по известным характеристикам выборки дать оценку характеристикам генеральной совокупности. Для этого используются точечные и интервальные оценки. Точечные оценки параметров распределения Точечная оценка * параметра  – это оценка, которая определяется одним конкретным числом Оценкой математического ожидания генеральной совокупности служит выборочное среднее (или средняя взвешенная) 1 n x   xi ni n i 1 (2) а оценкой дисперсии – выборочная дисперсия n   xi  x ni D i 1 n . (3) где n – объем выборки, xi –варианты с частотами ni . Для удобства вычислений выборочной дисперсии часто пользуются формулой: xi 2 ni  D   x 2  x 2   x 2 n (4) Заданная таким образом оценка математического ожидания является несмещенной, то есть математическое ожидание выборочного среднего равно оцениваемому параметру (математическому ожиданию исследуемой случайной величины). Выборочная дисперсия, напротив, смещенная оценка n 1 D Г . Поэтому вводится несмещенная генеральной дисперсии, и М ( D)  n оценка генеральной дисперсии – исправленная выборочная дисперсия   s2  n D. n 1 12 (5) 2 Соответственно число s  s является несмещенной точечной оценкой среднего квадратичного отклонения. Интервальные оценки параметров распределения Точечная оценка * параметра  дает лишь некоторое приближенное значение  . Чтобы получить представление о точности и надежности оценки, используют интервальную оценку параметра. Интервальной оценкой параметра  называется интервал ,   , который с заданной вероятностью  покрывает неизвестное значение параметра  . Такой интервал ,   называется доверительным интервалом, а вероятность  - доверительной вероятностью или уровнем надежности. Обычно доверительный интервал симметричен относительно оценки * и определяется формулой:   p(|   * |  ) и имеет вид  *   , *   (6)  (7) т.е условие *      *   (8) выполняется с вероятностью  Наибольшее отклонение  выборочного значения параметра от его истинного значения называется предельной ошибкой выборки и характеризует точность оценки. Обычно уровень надежности задается заранее и представляет собой число, близкое к единице: 0,95; 0,99; и т.д. Для построения доверительного интервала требуется знать закон распределения исследуемой случайной величины. Пусть эта величина распределена по нормальному закону. Если при этом известно ее среднее квадратичное отклонение  то доверительный интервал для математического ожидания генеральной средней имеет вид: x t  t  ax  , n n (9) где а – оцениваемое математическое ожидание случайной величины в генеральной совокупности, x – выборочное среднее, п – объем выборки, t – такое значение аргумента функции Лапласа Ф(t), при котором  Ф(t )  . 2 Па ра мет Для удобства пользования формулы для вычисления предельной ошибки выборки сведем в таблицу: Таблица 3 Оценка Предельная ошибка выборки Повторная выборка Бесповторная выборка 13 n>30  P x 1 n   x n i 1 i  t s n m n t (1  ) n  n>30 n  30 t n 1  s n  t n  30 st n 1 N n  stn 1 n 1 N n  (1   )  n  1   n  N При неизвестном среднем квадратичном отклонении доверительный интервал для математического ожидания при заданной надежности γ задается так: xB  t  s n  a  xB  t  s n . (10) Здесь s – исправленное выборочное среднее квадратичное отклонение, а t  t (n, )  критическая точка распределения Стьюдента, значение которой можно найти из таблиц по известным п и γ. Пример 1.На заводе имеется N болванок. Результаты выборочной проверки 500 болванок приведены ниже: Масса 29-30 30-31 31-32 32-33 33-34 Итого болванок (кг) Количество 38 202 198 56 6 500 (штук) Выборка собственно случайная бесповторная. Найти доверительный интервал для оценки средней массы болванок при уровне доверительной вероятности   0.95 . Среднеквадратическую ошибку  для бесповторной выборки s2  n 2 определяют по формуле   1   , где s  s выборочное среднее n  N квадратичное отклонение, n=500, N=3000. Решение. Перепишем таблицу данную в условии задачи в следующем виде: хi 29.5 30.5 31.5 32.5 33.5 итого ni, 38 202 198 56 6 500 Для упрощения расчетов делаем замену переменного yi  xi  31.5 Получим таблицу: yi -2 -1 1 2 n ni, 38 202 198 56 6 500 14 Доверительный интервал вычислим по формуле: x   x 1 1 Находим y   y i ni    2  38  1  202  1  56  2  6  0.42 n 500 Обратная замена: x  y  31.5  0.42  31.5  31.08 1 1 y 2   y i  ni  38  4  202  1  56  1  6  4  0.868 n 500 Найдем выборочное среднеквадратичное отклонение s  s 2  y 2   y 2  0.868  0.42 2  0.8316 Среднеквадратическую ошибку  для бесповторной выборки определяют по s2  n 1    n  N 0.83162  1  500     0.0341 500  3000  t      n По таблице приложения 4 находим t (  )  t 0.95  1.965 n    формуле   1.965  0.0341  0.073 500 Искомый доверительный интервал имеет вид: 31.08  0.073    31.08  0.073 31.007    31.153 Ответ: 31.007    31.153 §4. Элементы теории корреляции. Линейная корреляция Корреляционной зависимостью называется статистическая зависимость, при которой изменение одной из величин влечет за собой изменение среднего значения другой: y x  f x  , (1)  где yx - условная средняя (среднее арифметическое значений Y ,соответствующих значению X  x ). Уравнение (1) называется уравнением регрессии Y на X , функция f  x  называется регрессией Y на X , а ее график – линия регрессии Y на X . Аналогично определяется регрессия X на Y . Если обе линии регрессии Y на Х и Х на Y – прямые, то корреляцию называют линейной. Выборочное уравнение прямой линии регрессии Y на Х имеет вид y y x  y  rв x  x  x (2) где y в - условная средняя; x и y - выборочные средние признаков Х и Y;  x и  y - выборочные средние квадратичные отклонения; rв - выборочный коэффициент корреляции, причем 15 rв   nxy xy  n  x  y  n x  y  (3) Выборочное уравнение прямой линии регрессии Х на Y имеет вид  x y  x  rв  x   y  y  (4) y Если данные наблюдений над признаками Х и Y заданы в виде корреляционной таблицы с равностоящими вариантами, то целесообразно перейти к условным вариантам: u i   xi  C1  h1 , v j  y j  C 2 h2 (5) где С1 – «ложный нуль» вариант Х (новое начало отсчета); в качестве ложного нуля выгодно принять варианту, которая расположена примерно в середине вариационного ряда (условимся принимать в качестве ложного нуля варианту, имеющую наибольшую частоту); h1 – шаг, т.е. разность между двумя соседними вариантами Х; С2 – ложный нуль вариант Y; h2 – шаг вариант Y. В этом случае выборочный коэффициент корреляции rв   nuv uv  nuv nu v  (6)     причем слагаемое  nuv uv удобно вычислять, используя расчетную таблицу 3 (см. далее решение задачи). Величины u , v ,  u ,  v могут быть найдены либо методом произведений (при большом числе данных), либо непосредственно по формулам:  n u  , v  n v n ,   u 2  u 2 ,   v 2  v 2 . u  u  v u v n (7) Зная эти величины, можно определить входящие в уравнения регрессии (2) и (4) величины по формулам: x  u  h1  C1 , y  v h2  C 2 ,  x   u h1 ,  y   v h2 Для оценки силы линейной корреляционной связи служит выборочный коэффициент корреляции rв . Для обоснованного суждения о наличии связи между количественными признаками следует проверить, значим ли выборочный коэффициент корреляции. Пример 2. Данные наблюдений над двумерной случайной величиной (X,Y) представлены в корреляционной таблице. Найти выборочное уравнение прямой регрессии Y на Х. Выполнить чертеж. Таблица 1. Y X ny 20 25 30 35 40 16 4 6 10 26 8 10 18 36 32 3 9 44 46 4 12 6 22 56 1 5 6 16 nx 4 14 46 16 20 N=200 Решение. Составим корреляционную таб. 2 в условных вариантах, выбрав в качестве ложных нулей С1=30 и С2=36 (каждая из этих вариант расположена в середине соответствующего вариационного ряда). Таблица 2. v u -2 -1 1 2 nv -2 4 6 10 -1 8 10 18 32 3 9 44 1 4 12 6 22 2 1 5 6 nu 4 14 46 16 20 N=100 Найдем u и v : u   nu u  n  (4   2   14   1  46  0  16  1  20  2) 100  0.34 v  nv v   10   2   18   1  44  0  22  1  6  2  100  0.04 n Найдем вспомогательные величины u 2 и v 2 :  n u  n  (4  4  14  1  16  1  20  4) 100  1.26  n v   10  4  18  1  22  1  6  4 100  1.04   u2  u 2 v v 2 2 n Найдем  u и  v  u  u 2  u 2  1.26  0.34 2  1.07 2  v  v 2  v   1.04  0.04 2  1.02 Найдем  nuv uv , для чего составим расчетную таблицу 3. 1. Произведение частоты nuv на варианту u, т. е. nuvu, запишем в правом верхнем углу клетки, содержащей значение частоты. Например, в правых верхних углах клеток первой строки запишем произведения: 4   2   8; 6   1  6 2. Суммируем все числа, помещенные в правых верхних углах клеток одной строки, и их сумму помещаем в клетку этой же строки «столбца U». Так, для первой строки u  8   6   14 . 3. Умножим варианту v на U и полученное произведение запишем в соответствующую клетку «столбца vU». Так, в первой строке таблицы v  2, U  14 , следовательно, vU   2    14   28 . 17  vU , 4. Сложив все числа «столбца vU», получим сумму которая равна v искомой сумме  nuv uv . Так, для таблицы 3  uV  82 , следовательно, u  nuv uv  82. Суммируя числа последнего столбца таблицы 3, находим  vU   nuv uv  82 v Для контроля вычислений находим сумму чисел последней строки:  uV   nuvuv  82 u Совпадение сумм свидетельствует о правильности вычислений. Для контроля аналогичные вычисления производят по столбцам: произведения n uv v записывают в левый нижний угол клетки, содержащей значение частоты; все числа, помещенные в левых нижних углах клеток одного столбца, складывают и их сумму помещают в «строку V»;наконец, умножают каждую варианту u на V и результат записывают в клетках последней строки. Таблица 3. u -2 -1 1 2 U=  nuv u vU v -2 -8 -6 -14 28 4 6 -8 -12 -1 -8 -8 8 8 10 -8 -10 3 18 21 32 3 9 1 12 12 24 24 4 12 6 4 12 6 2 1 10 11 22 1 5 2 10 -8 -20 -6 14 16 V=  nuvv  vU  82 v uV 16 20 14 32  uV  82 u Найдем искомый выборочный коэффициент корреляции:  nuv uv  nuv  82  100  0.34   0.04   0.76 rв  n u  v 100  1.07  1.02 Найдем шаги h1 и h2 (разности между любыми двумя соседними вариантами): h1  25  20  5; h2  26  16  10. 18 Найдем x и y , учитывая, что C1  30,C 2  36 : x  u  h1  C1  0.34  5  30  31.70 y  v  h2  C 2   0.04   10  36  35.6 Найдем  x и  y :  x  h1   u  5  1.07  5,35;  y  h2   v  10  1,02  10,2 Подставим найденные величины в соотношение (1), получим искомое уравнение прямой линии регрессии Y на X: 10.2 y x  35.6  0.76  x  31.70 5.35 или окончательно y x  1.45 x  10.36 . Построим график: 20 18.64 10 10 20 y( x) 20  24.86 40  10 x 20 Ответ: y x  1.45 x  10.36 . 5. Проверка статистических гипотез Задача, решаемая проверкой статистических гипотез: по выборочным данным сделать вывод о том, выполняется ли определенное свойство для исследуемой популяции. Также к проверке гипотезы сводится задача о сравнении свойств двух или нескольких популяций. Нулевая гипотеза Н0 – это основное проверяемое предложение о популяции (нескольких популяциях). Альтернативная гипотеза Н1 - это гипотеза, противоречащая нулевой. Ошибки I и II рода. Ошибка первого рода: отвергнуть правильную нулевую гипотезу. Ошибка второго рода: принять неправильную нулевую гипотезу. Следующая таблица показывает все возможности: Верна Н0 Верна Н1 Принять Н0 Верное решение Ошибка II рода Принять Н1 Ошибка I рода Верное решение Вероятность ошибки I рода называется уровнем значимости и обозначается  . Вероятность ошибки II рода обозначается  . Статистическим критерием или просто критерием называется случайная величина К, которая служит для проверки гипотезы. ( В разных конкретных случаях эта величина обозначается по-разному, например F,T,  2 и т.п.) Наблюдаемым (эмпирическим) значением Кнабл называется критическое значение, полученное по выборочным данным. Критическая область– это множество значений Кнабл, при которых нулевая гипотеза отвергается. Область 19 принятии нулевой гипотезы – это множество значений Кнабл, при которых Н0 принимается. Обычная схема проверки гипотезы такова: 1. формулируется гипотеза Н0; 2. формулируется гипотеза Н1; 3. задается уровень значимости  ; 4. по выборочным данным вычисляется Кнабл; 5. находятся (обычно по таблице) критические значения, определяющие область принятия гипотезы Н0; 6. если Кнабл принадлежит области принятия, то считается что выборочные данные не противоречат гипотезе Н0; и она принимается; если Кнабл не принадлежит области принятия, то гипотезу Н0 отвергают и принимают конкурирующую гипотезу Н1. Проверка гипотезы о распределении генеральной совокупности по закону Пуассона Задано эмпирическое распределение дискретной случайной величины Х. Требуется, используя критерий Пирсона, проверить гипотезу о распределении генеральной совокупности по закону Пуассона. Алгоритм проверки гипотезы о распределении генеральной совокупности по закону Пуассона Для того чтобы при уровне значимости  проверить гипотезу о том, что случайная величина Х распределена по закону Пуассона, необходимо: 1. Найти по заданному эмпирическому распределению выборочную среднюю xв . 2. Принять в качестве оценки параметра  распределения Пуассона выборочную среднюю   xв . Найти по формуле Пуассона (или по готовым таблицам) вероятности Pi появления ровно i событий в n испытаниях (i=0,1,2,…,r, где r – максимальное число наблюдавшихся событий, n- объем выборки). 4. Найти теоретические частоты по формуле ni  n  Pi . 5. Сравнить эмпирические и теоретические частоты с помощью критерия Пирсона, приняв число степеней свободы к  s  2 , где s  число различных групп выборки (если производилось объединение малочисленных частот в одну группу, то s  число оставшихся групп выборки после объединения частот). Замечание 1. Малочисленные частоты (ni<5) следует объединить; в этом случае и соответствующие им теоретические частоты также надо сложить. Если производилось объединение частот, то при определении числа степеней свободы по формуле к  s  3 следует в качестве s принять число групп выборки, оставшихся после объединения частот. Пример1.(типовая задача контрольной работы) Известно эмпирическое распределение выборки объема n случайной величины Х. Проверить гипотезу о распределении по закону Пуассона 3. 20 генеральной совокупности этой величины. Использовать критерий согласия Пирсона (хи-квадрат) при уровне значимости   0.05 . xi 1 2 3 4 n ni 116 56 22 4 2 200 Решение. Рассмотрим гипотезы: Н0: случайная величина Х распределена по закону Пуассона. Н1: случайная величина Х не распределена по закону Пуассона. 1. Найдем выборочную среднюю: хв   ni xi  n  116  0  56  1  22  2  4  3  2  4 200  0.6 2. Примем в качестве оценки параметра  распределения Пуассона выборочную среднюю:   0.6. Следовательно, предполагаемый закон i Пуассона Pn i   i  e  / i! имеет вид P200 (i )  0.6   e 0.6 / i! 3. Положив i=0,1,2,3,4 найдем вероятности Pi появления ровно i событий в n испытаниях (i=0,1,2,…,r, где r – максимальное число наблюдавшихся событий, nобъем выборки). Р0  Р200 0   0.5488; Р1  Р200 1  0.3293; Р2  Р200 2   0.0988; Р3  Р200 (3)  0.0198; Р4  Р200 (4)  0.0030 4. Найдем теоретические частоты по формуле ni  n  Pi  200 Pi . Подставив в эту формулу найденные в пункте 3 значения вероятностей Pi , получим n 0  200  0.5488  109.76 . Аналогично найдем:     n1  65.86; n2  19.76; n3  3.96; n4  0.6. 5. Сравним эмпирические и теоретические частоты с помощью критерия Пирсона. Для этого составим расчетную таблицу 1. Учитывая замечание 1, объединим малочисленные частоты (4+2=6) и соответствующие им теоретические частоты (3.96+0.6=4.56), результаты объединения частот запишем в таблицу 1. Таблица 1. 1 2 3 4 5 6 2  2 i ni ni ni- ni   n i  ni   ni  ni     ni  1 2 3  116 56 22 6 109.76 65.86 19.76 4.56 6.54 -9.86 2.24 1.44  38.9376 97.2196 5.0176 2.0736 0.3548 1.4762 0.2539 0.4547  2набл  2.54 200 21 Из расчетной таблицы находим наблюдаемое значение критерия Пирсона:  2набл  2.54 . По таблице критических точек распределения  2 , по уровню значимости   0.05 и числу степеней свободы k  4  2  2 находим критическую точку правосторонней критической области:  2 кр 0.05;2   6.0. 2 Так как  2 набл   кр - нет оснований отвергнуть гипотезу Но о распределении случайной величины Х по закону Пуассона. Ответ: случайная величина Х распределена по закону Пуассона. Приложение 1 Таблица функции  x   х 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 0,3989 3970 3910 3814 3683 3521 3332 3123 2897 2661 2420 2179 1942 1714 1497 1295 1109 0940 0790 0656 0540 0440 0355 0283 0224 0175 0136 0104 1 3989 3965 3902 3802 3668 3503 3312 3101 2874 2637 2396 2155 1919 1691 1476 1276 1092 0925 0775 0644 0529 0431 0347 0277 0219 0171 0132 0101 2 3989 3961 3894 3790 3653 3485 3292 3079 2850 2613 2371 2131 1895 1669 1456 1257 1074 0909 0761 0632 0519 0422 0339 0270 0213 0167 0129 0099 3 3988 3956 3885 3778 3637 3467 3271 3056 2827 2589 2347 2107 1872 1647 1435 1238 1057 0893 0748 062 0508 0413 0332 0264 0208 0163 0126 0096  x2 1 2 e 2 Сотые доли 4 5 3986 3984 3951 3945 3876 3867 3765 3752 3621 3605 3448 3429 3251 3230 3034 3011 2803 2780 2565 2541 2323 2299 2083 2059 1849 1826 1626 1604 1415 1394 1219 1200 1040 1023 0878 0863 0734 0721 0608 0596 0498 0488 0404 0396 0325 0317 0258 0252 0203 0198 0158 0154 0122 0119 0093 0091 22 6 3982 3939 3857 3739 3589 3410 3209 2989 2756 2516 2275 2036 1804 1582 1374 1182 1006 0848 0707 0584 0478 0387 0310 0246 0194 0151 0116 0088 7 3980 3932 3847 3725 3572 3391 3187 2966 2732 2492 2251 2012 1781 1561 1354 1163 0989 0833 0694 0573 0468 0379 0303 0241 0189 0147 0113 0086 8 3977 3925 3836 3712 3555 3372 3166 2943 2709 2468 2227 1989 1758 1539 1334 1145 0973 0818 0681 0562 0459 0371 0297 0235 0184 0143 0110 0084 9 3973 3918 3825 3697 3538 3352 3144 2920 2685 2444 2203 1965 1736 1518 1315 1127 0957 0804 0669 0551 0449 0363 0290 0229 0180 0139 0107 0081 2,8 2,9 3,0 3,1 3,2 3,3 3,4 3,5 0079 0060 0044 0033 0024 0017 0012 0009 0077 0058 0043 0032 0023 0017 0012 0008 0075 0056 0042 0031 0022 0016 0012 0008 0073 0055 0040 0030 0022 0016 0011 0008 0071 0053 0039 0029 0021 0015 0011 0008 0069 0051 0038 0028 0020 0015 0010 0007 0067 0050 0037 0027 0020 0014 0010 0007 0065 0048 0036 0026 0019 0014 0010 0007 0063 0047 0035 0025 0018 0013 0009 0007 0061 0046 0034 0025 0018 0013 0009 0006 Приложение 2 Таблица значений функции  x   х 1 2 3 0,0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1,0 1,1 1,2 1,3 1,4 1,5 1,6 1,7 1,8 1,9 2,0 2,1 2,2 2,3 2,4 2,5 2,6 2,7 2,8 2,9 3,0 3,1 3,2 3,3 0,0000 0398 0793 1179 1554 1915 2257 2580 2881 3159 3413 3643 3849 4032 4192 4332 4452 4554 4641 4713 4772 4821 4861 4893 4918 4938 4953 4965 4974 4981 4987 4990 4993 4995 0040 0438 0832 1217 1591 1950 2291 2611 2910 3186 3438 3665 3869 4049 4207 4345 4463 4564 4649 4719 4778 4826 4864 4896 4920 4940 4955 4966 4975 4982 4987 4991 4993 4995 0080 0478 0871 1255 1628 1985 2324 2642 2939 3212 3461 3686 3888 4066 4222 4357 4474 4573 4656 4726 4783 4830 4868 4898 4922 4941 4956 4967 4976 4982 4987 4991 4994 4995 0120 0517 0910 1293 1664 2019 2357 2673 2967 3238 3485 3708 3907 4082 4236 4370 4484 4582 4664 4732 4788 4834 4871 4901 4925 4943 4957 4968 4977 4983 4988 4991 4994 4996 Сотые доли 4 5 0160 0557 0948 1331 1700 2054 2389 2704 2995 3264 3508 3729 3925 4099 4251 4382 4495 4591 4671 4738 4793 4838 4875 4904 4927 4945 4959 4969 4977 4984 4988 4992 4994 4996 23 0199 0596 0987 1368 1736 2088 2422 2734 3023 3289 3531 3749 3944 4115 4265 4394 4505 4599 4678 4744 4798 4842 4878 4906 4929 4946 4960 4970 4978 4984 4989 4992 4994 4996 1 2 2 x z   e 2 dz 6 7 8 9 0239 0636 1026 1406 1772 2123 2454 2764 3051 3315 3554 3770 3962 4131 4279 4406 4515 4608 4686 4750 4803 4846 4881 4909 4931 4948 4961 4071 4979 4985 4989 4992 4994 4996 0279 0675 1064 1443 1808 2157 2486 2794 3078 3340 3577 3790 3980 4147 4292 4418 4525 4616 4693 4756 4808 4850 4884 4911 4932 4949 4962 4972 4979 4985 4989 4992 4995 4996 0319 0714 1103 1480 1844 2190 2517 2823 3106 3365 3599 3810 3997 4162 4306 4429 4535 4625 4699 4761 4812 4854 4887 4913 4934 4951 4963 4973 4980 4986 4990 4993 4995 4996 0359 0753 1141 1517 1879 2224 2549 2852 3133 3389 3621 3830 4015 4177 4319 4441 4545 4633 4706 4767 4817 4857 4890 4916 4936 4952 4964 4974 4981 4986 4990 4993 4995 4997 3,4 3,5 3,6 3,7 3,8 4997 4998 4998 4999 4999 4997 4998 4998 4999 4999 4997 4998 4999 4999 4999 4997 4998 4999 4999 4999 4997 4998 4999 4999 4999 4997 4998 4999 4999 4999 4997 4998 4999 4999 4999 4997 4998 4999 4999 4999 4997 4998 4999 4999 4999 4998 4998 4999 4999 4999 Приложение 3 Таблица значений t  t  , n   0,9 0,95 0,99 n 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 25 30 35 40 45 50 60 70 80 90 100 120 140 200 250  2,13 2,02 1,94 1,89 1,86 1,83 1,81 1,80 1,78 1,77 1,76 1,75 1,75 1,74 1,73 1,73 1,71 1,70 1,69 1,68 1,68 1,68 1,67 1,67 1,66 1,66 1,66 1,66 1,66 1,65 1,65 1,65 2,78 2,57 2,45 2,36 2,31 2,26 2,23 2,20 2,18 2,16 2,14 2,13 2,12 2,11 2,10 2,09 2,06 2,05 2,03 2,02 2,02 2,01 2,00 1,99 1,99 1,99 1,98 1,98 1,98 1,97 1,97 1,96 24 4,60 4,03 3,71 3,50 3,36 3,25 3,17 3,11 3,05 3,01 2,98 2,95 2,92 2,90 2,88 2,86 2,80 2,76 2,73 2,71 2,69 2,68 2,66 2,65 2,64 2,63 2,63 2,62 2,61 2,60 2,60 2,57 Приложение 4 Критические точки распределения Число степеней свободы k 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 2 Уровень значимости  0,005 0,01 0,025 0,05 0,95 0,975 0,99 0,995 10,6 12,8 14,9 16,7 18,5 20,3 22,0 23,6 25,2 26,8 28,3 29,8 31,3 32,8 34,3 35,7 37,2 38,6 40,0 41,4 42,8 44,2 45,6 46,9 48,3 49,6 51,0 52,3 53,7 55,0 56,3 57,6 59,0 60,3 61,6 9,2 11,3 13,3 15,1 16,8 18,5 20,1 21,7 23,2 24,7 26,2 27,7 29,1 30,6 32,0 33,4 34,8 36,2 37,6 38,9 40,3 41,6 43,0 44,3 45,6 47,0 48,3 49,6 50,9 52,2 53,5 54,8 56,1 57,3 58,6 7,4 9,3 11,1 12,8 14,4 16,0 17,5 19,0 20,5 21,9 23,3 24,7 26,1 27,5 28,8 30,2 31,5 32,9 34,2 35,5 36,8 38,1 39,4 40,6 41,9 43,2 44,5 45,7 47,0 48,2 49,5 50,7 52,0 53,2 54,4 6,0 7,8 9,5 11,1 12,6 14,1 15,5 16,9 18,3 19,7 21,0 22,4 23,7 25,0 26,3 27,6 28,9 30,1 31,4 32,7 33,9 35,2 36,4 37,7 38,9 40,1 41,3 42,6 43,8 45,0 46,2 47,4 48,6 49,8 51,0 0,10 0,35 0,71 1,15 1,64 2,17 2,73 3,33 3,94 4,57 5,23 5,89 6,57 7,26 7,96 8,67 9,39 10,1 10,9 11,6 12,3 13,1 13,8 14,6 15,4 16,2 16,9 17,7 18,5 19,3 20,1 20,9 21,7 22,5 23,3 0,05 0,22 0,48 0,83 1,24 1,69 2,18 2,70 3,25 3,82 4,40 5,01 5,63 6,26 6,91 7,56 8,23 8,91 9,59 10,3 11,0 11,7 12,4 13,1 13,8 14,6 15,3 16,0 16,8 17,5 18,3 19,0 19,8 20,6 21,3 0,02 0,11 0,30 0,55 0,87 1,24 1,65 2,09 2,56 3,05 3,57 4,11 4,66 5,23 5,81 6,41 7,01 7,63 8,26 8,90 9,54 10,2 10,9 11,5 12,2 12,9 13,6 14,3 15,0 15,7 16,4 17,1 17,8 18,5 19,2 0,01 0,07 0,21 0,41 0,68 0,99 1,34 1,73 2,16 2,60 3,07 3,57 4,07 4,60 5,14 5,70 6,26 6,84 7,43 8,03 8,64 9,26 9,89 10,52 11,16 11,81 12,46 13,12 13,79 14,46 15,13 15,82 16,50 17,19 17,89 25
«Цепи Маркова и системы массового обслуживания» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ
Получи помощь с рефератом от ИИ-шки
ИИ ответит за 2 минуты

Тебе могут подойти лекции

Смотреть все 938 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot