Справочник от Автор24
Поделись лекцией за скидку на Автор24

Предмет и задачи математической статистики

  • 👀 528 просмотров
  • 📌 480 загрузок
  • 🏢️ РУТ (МИИТ)
Выбери формат для чтения
Загружаем конспект в формате pdf
Это займет всего пару минут! А пока ты можешь прочитать работу в формате Word 👇
Конспект лекции по дисциплине «Предмет и задачи математической статистики» pdf
Элементы математической статистики ЛЕКЦИЯ 1.1. Предмет и задачи математической статистики Математической статистикой называется раздел математики, занимающийся разработкой методов получения, описания и обработки опытных данных с целью выявления и изучения закономерностей случайных массовых явлений для научных и практических выводов. РУ "М Т ат (М ем ИИ ат Т ) ик а" Математическая статистика наряду с теорией вероятностей изучает массовые случайные явления. Связующим звеном между ними выступают предельные теоремы теории вероятностей. При этом свойства реального процесса теория вероятностей выводит из математической модели, а математическая статистика определяет свойства модели, исходя из данных наблюдений. Предметом математической статистики является изучение случай- ных величин (событий, процессов) по результатам наблюдений. Задачи математической статистики: • сбор, описание и упорядочение статистического материала (собрать данные и представить в удобном для обозрения и анализа виде); • выбор и определение вида распределения для полученных в экспери- менте наборов случайных величин; • оценка, хотя бы приблизительная, параметров распределения (дать оценку неизвестной вероятности события, оценку неизвестной функции распределения и т. п.); • проверка правдоподобия выдвигаемой гипотезы о соответствии стати- стического материала теоретическим выводам (например, выдвигается гипотеза, что случайная величина подчиняется нормальному закону или математическое ожидание, наблюдаемой случайной величины равно нулю, случайное событие обладает данной вероятностью и т. п.). 1 Полученные результаты исследования статистических данных методами математической статистики используются для принятия решения (в задачах планирования, прогнозирования, управления и организации производства, при контроле качества продукции, в медицинских обследованиях, …), т.е. для научных и практических выводов. Говорят, что «математическая статистика – это теория принятия решений в условиях неопределённости». РУ "М Т ат (М ем ИИ ат Т ) ик а" 1.2. Генеральная совокупность и выборка Пусть требуется изучить множество однородных объектов относи- тельно некоторого качественного признака, характеризующего эти объекты. Например, если имеется партия деталей, то качественным признаком может служить стандартность детали, а количественным – контролируемый размер детали. Лучше всего провести сплошное обследование, т. е. изучить каждый объект статистической совокупности (например, всеобщая перепись населения). Но на практике сплошные исследования проводят крайне редко. К тому же, если совокупность содержит большое количество объектов или исследование объекта нарушает его целостность, проводить сплошное исследование бессмысленно (так, если необходимо знать глубину воронки при взрыве снарядов из опытной партии, то при этом всю партию снарядов уничтожать нецелесообразно). В таких случаях из всей совокупности случайно отбирают ограниченное число объектов для изучения. Множество всех изучаемых объектов или возможных результатов всех мыслимых наблюдений некоторой случайной величины, которые могут быть получены в данных условиях, называется генеральной совокупностью. Число N (конечное или бесконечное) объектов (наблюдений) в совокупности называется её объёмом. 2 Множество случайно n отобранных объектов (измерений) случайной величины из генеральной совокупности называется выборочной совокупностью или просто выборкой. Число n – объём выборки ( n << N ). Для получения хороших оценок характеристик генеральной совокупности необходимо, чтобы объекты выборки правильно представляли изучаемые признаки, т.е. выборка должна быть репрезентативной (представительной) и основана на принципе случайного и равновероятност- РУ "М Т ат (М ем ИИ ат Т ) ик а" ного отбора единиц. Считается, что выборка репрезентативна, если все объекты генеральной совокупности имеют одинаковую вероятность попасть в выборку, т. е. выбор проводится случайно. Например, для того чтобы оценить будущий урожай ещё несозревших яблок и исследовать их характеристики (массу, качество и пр.). Если вся выборка будет сделана с одного дерева, то она не будет репрезентативной. Репрезентативная выборка должна состоять из случайно отобранных плодов со случайно выбранных деревьев. Различают следующие виды выборок: • простая или собственно-случайная выборка, при которой из генеральной совокупности случайным образом извлекают по одному объекту; • механическая выборка, когда элементы отбирают через опреде- лённый интервал, например каждая десятая деталь; • типическая выборка характеризуется случайным отбором элемен- тов из типических групп (например, мнение о прошедших выборах спрашивают у случайно отобранных людей, разделённых по признаку пола, возраста, социального статуса, …); • серийная выборка, в которую случайным образом отбираются не отдельные элементы, а целые группы совокупности подвергаются сплошному наблюдению (сдача ЕГЭ по математике выпускниками школ). 3 Используют два способа образования выборки: • повторный отбор (с возвращением), когда случайно отобранный и уже обследованный объект, возвращается в общую совокупность и теоретически может быть повторно отобран; • бесповторный отбор, когда отобранный элемент не возвращается в общую совокупность. На практике пользуются сочетанием вышеуказанных способов и видов отбора. РУ "М Т ат (М ем ИИ ат Т ) ик а" Важнейшей задачей выборочного метода является оценка параметров (математическое ожидание, дисперсия и т. д.) генеральной совокупности, что невозможно для больших значений N. Оцениваемые характеристики рассчитываются для выборки и объявляются точечными оценками характеристик всей совокупности. Чем больше n → N , тем с большим основанием можно судить о свойствах генеральной совокупности согласно закону больших чисел. 1.3. Статистическое распределение выборки 1.3.1. Дискретный случай Пусть для исследования некоторой случайной величины Х из гене- ральной совокупности извлечена выборка, в которой значение x1 наблюдалось m1 раз, x 2 – m2 раз, …, значение x k – mk раз, причём m1 + m2 + ... + mk = n – объём выборки. Значения x1 , x 2 , …, x k называются вариантами. Числа наблюдений m1 , m2 , …, mk называются частотами или веm * сами. Отношения частот к объёму выборки pi = i называются отноn сительными частотами или частостями. Т. е. по определению m m m p1* = 1 , p2* = 2 , …, pk* = k . При этом p1* + p2* + ... + pk* = 1 . n n n 4 Вся совокупность значений случайной величины Х представляет собой первичный статистический материал, который необходимо обработать, прежде всего – упорядочить (расположение выборочных наблюдений по возрастанию называется ранжированием). Упорядоченный перечень вариант и соответствующих им частот или частостей называется статистическим распределением выборки или дискретным вариационным рядом. Записывается такое распределение в виде таблицы. x1 x2 … Σ xk РУ "М Т ат (М ем ИИ ат Т ) ик а" xi k mi pi* = m1 mi n m2 … mk ∑m = n i i =1 k p1* p2* … pk* ∑p * i =1 i =1 Статистическое распределение выборки является оценкой неизвестно- го распределения. В соответствии с теоремой Бернулли относительные частоты pi* сходятся к соответствующим вероятностям pi при n → ∞ , т. е. P pi*  → pi . А это означает, что при большом объёме выборки, статиn →∞ стическое распределение мало отличается от истинного распределения. Пример 1. В супермаркете проводились наблюдения над числом Х покупателей, обратившихся в кассу за один час. Наблюдения в течение 30 часов (15 дней с 9 до 10 и с 10 до 11 часов) дали следующие результаты: 80, 90, 100, 110, 90, 60, 100, 110, 80, 60, 70, 100, 70, 100, 80, 90, 60, 100, 100, 110, 80, 90, 80, 110, 70, 80, 90, 80, 100, 100. Число Х является дискретной случайной величиной, а полученные данные представляют собой выборку из n = 30 наблюдений. Требуется составить ряд распределения частот (вариационный ряд). 5 ☺Решение . Сначала составим ранжированный ряд: 60, 60, 60, 70, 70, 70, 80, 80, 80, 80, 80, 80, 80, 90, 90, 90, 90, 90, 100, 100, 100, 100, 100, 100, 100, 100, 110, 110, 110, 110. Получено шесть различных значений случайной величины (шесть вариант). Подсчитав частоту значений каждой варианты, составим таблицу 1, которая и будет представлять собой вариационный ряд. Таблица 1 Число обращений в кассу 60 70 80 Σ 90 100 110 РУ "М Т ат (М ем ИИ ат Т ) ик а" xi Частота mi 3 3 7 5 8 4 ∑m i = 30 i =1 Относительная частота pi* = 6 n= mi n 3 30 3 30 7 30 5 30 8 30 4 30 6 ∑p * i =1 i =1 ☻ 1.3.2. Непрерывный случай Если признак является непрерывным или число различных значений в выборке велико, вычислять частоту каждого из них не имеет большого смысла. В этом случае составляют интервальный вариационный ряд. Весь промежуток измерения значений выборки [ xmin ; xmax ] (от минимального до максимального) разбивают на частичные интервалы (чаще одинаковой длины), т. е. производится группировка. Число интервалов k следует брать не очень большим, чтобы после группировки ряд не был громоздким, и не очень малым, чтобы не потерять особенности распределения признака. Число интервалов может быть определено по формуле Стерджеса k ≈ 1 + log 2 n , (1) где log 2 n ≈ 3,322 ⋅ lg n , значение k подбирается целым. Такой способ определения числа интервалов (1) является лишь рекомендуемым, но не обязательным. 6 Длина интервала находится по формуле xmax − xmin . (2) k За начало первого частичного интервала, как правило (но не обязательно), выбирается точка x0 = xmin − h . 2 В первую строку таблицы интервального ряда вписывают частичные h= промежутки [ x0 ; x1 ] , ( x1 ; x 2 ] , …, ( x k −1 ; x k ] , имеющие одинаковую длину h, при этом весь интервал [ x0 ; xk ] должен полностью покрывать все имею- РУ "М Т ат (М ем ИИ ат Т ) ик а" щиеся значения признака, т. е. x0 ≤ xmin , xmax ≤ xk . Во второй строке вписывают количество наблюдений mi ( i = 1, 2, ..., k ), попавших в каждый ин- тервал. Таким образом, статистическое распределение примет вид: ( xi −1; xi ] [ x0 ; x1 ] ( x1; x2 ] … Σ ( xk −1; xk ] k mi pi* = m1 mi n m2 … mk ∑ mi = n i =1 k p1* p2* pk* … ∑ pi* = 1 i =1 Пример 2. В таблице 2 приведена выборка результатов измерения роста 105 студентов (юношей). Измерения проводились с точностью до 1 см. Таблица 2 155 173 174 178 156 175 183 170 170 179 183 174 181 190 185 183 184 170 179 188 167 180 175 183 178 179 168 170 188 180 178 181 169 179 178 152 175 180 173 186 178 183 173 193 178 168 174 183 170 178 178 163 185 171 184 178 178 183 166 175 184 178 182 168 180 178 170 175 181 173 185 197 175 155 193 177 168 172 178 182 169 178 163 186 170 181 190 186 184 166 176 183 187 167 179 180 178 171 Требуется составить интервальный вариационный ряд. ☺ Решение . Рост юношей есть случайная непрерывная величина. По формуле (1) найдём количество интервалов при n = 105 : k ≈ 1 + log 2 n = 1 + log 2 105 = 7,714 ≈ 8 . 7 175 168 170 189 196 175 188 Учитывая, что x min = 152 , x max = 196 , по формуле (2) находим длину частичного интервала: h = xmax − xmin 192 − 156 = ≈ 6. 8 k Примем x0 = xmin − h = 152 − 6 = 152 − 3 = 149 . 2 2 Исходные данные разбиваем на 8 интервалов: [149;155] , (155;161] , (161;167] , (167;173] , (173;179] , (179;185] , (185;191] , (191;197] . Подсчитав число студентов mi , попавших в каждый из полученных РУ "М Т ат (М ем ИИ ат Т ) ик а" промежутков, получим интервальный вариационный ряд (табл. 3). Таблица 3 Рост xi 149-155 155-161 161-167 167-173 173-179 179-185 185-191 191-197 3 1 6 22 33 26 10 4 0,03 0,01 0,06 0,21 0,31 0,25 0,09 0,04 Частота mi Частость pi* = mi n 8 Здесь n = ∑m i ☻ = 105 . i =1 При изучении вариационных рядов наряду с понятием частоты ис- пользуется понятие накопленной частоты (обозначаем miнак ). Накопленная частота показывает, сколько наблюдалось вариантов со значением признака, меньшим чем х. Отношение накопленной частоты к общему чис- лу наблюдений назовём накопленной частостью piнак . Накопленные частоты (частости) для каждого интервала находятся последовательным суммированием частот (частостей) всех предшествующих интервалов, включая данный. 8 1.4. Графическое изображение статистического ряда Для наглядности статистический ряд можно изобразить графически в виде полигона, гистограммы и кумуляты. Дискретный вариационный ряд графически изображается с помощью полигона. Полигоном частот называется ломаная линия, соединяющая точки дискретного ряда ( x1 ; m1 ) , ( x 2 ; m2 ) , …, ( x k ; mk ) ; полигоном относительных частот называется ломаная линия, соединяющая точки РУ "М Т ат (М ем ИИ ат Т ) ик а" ( x1; p1* ) , ( x2 ; p2* ) , …, ( xk ; pk* ) (рис. 1). Варианты xi откладываются по оси Ох, а соответствующие им частоты mi (или частости pi* ) – по оси Оу. Заметим, что полигон, построенный по дискретному вариационному ряду, является выборочным аналогом многоугольника распределения дискретной случайной величины. В первом приближении полигон указывает на вид теоретического распределения. Интервальный вариационный ряд графически изображают с помо- щью гистограммы. Гистограммой относительных частот назы- вается ступенчатая фигура (рис. 2), состоящая из прямоугольников, основаниями которых являются частичные интервалы (длины hi = xi − xi −1 ), а высоты равны отношению f i* Неотрицательное число тельной частоты. pi* = (либо иногда fi* = pi* ). h fi* называется плотностью относи- Каждый прямоугольник гистограммы имеет площадь Si = h ⋅ Тогда площадь всей фигуры S = k k i =1 i =1 pi* = pi* . h ∑ Si =∑ pi* = 1, также как и площадь под графиком истинной дифференциальной функции f ( x ) теоретического распределения непрерывной случайной величины. Таким образом, fi* – статистический аналог дифференциальной функции f ( x ) . Гистограмма, являясь статистическим аналогом кривой 9 распределения, в первом приближении указывает на вид теоретического распределения непрерывной случайной величины. Рис. 2. Гистограмма относительных частот РУ "М Т ат (М ем ИИ ат Т ) ик а" Рис. 1. Полигон частот (относительных частот) Если соединить середины верхних оснований прямоугольников отрез- ками, то получим полигон того же распределения. Полигон относительных частот также указывает на вид теоретического распределения. Кумулятой называется кривая накопленных частот (рис. 3), которая представляет собой ломаную линию, соединяющую точки ( xi ; miнак ) или ( xi ; piнак ) . В примере 2 для значения x = 179 имеем: − накопленная частота равна сумме всех предшествующих частот miнак = 4 + 6 + 22 + 33 = 65 , − соответствующая накопленная относительная частота piнак = 0,03 + 0,01 + 0,06 + 0, 21 + 0,31 = 0,62 . Весьма важным является понятие эмпирической функции распределения. Эмпирической функцией распределения называется функция F ∗ (x ) , задающая для каждого значения х относительную частоту события {X < x}. Следовательно, по определению mx , (3) n где m x – число выборочных значений величины Х, меньших х, а п – объём выборки. Очевидно, что F ∗ (x ) удовлетворяет тем же условиям, что и истинная F ∗ ( x) = функция распределения F (x ) , т. к. является её статистическим аналогом. 10 ∗ ∗ Значения F (x ) на интервалах: Свойства F (x ) : • неубывающая; • неотрицательная; • область значений: [0,1] ; x ≤ x1 , 0,  * x1 < x ≤ x2 ,  p1 ,  p* + p* , x2 < x ≤ x3 ,  * 2 F (x ) =  1  p1* + p2* + p3* , x3 < x ≤ x4 ,  .........................................., 1, x > xk . • если x1 – наименьшая варианта, то ( ∀x ≤ x1 ) : F * ( x ) = 0 ; • если xk – наибольшая варианта, то ( ∀x > xk ) : F * ( x ) = 1 . РУ "М Т ат (М ем ИИ ат Т ) ик а" При увеличении числа наблюдений (опытов) относительная частота pi* события {X < x} приближается к вероятности pi этого события (теоре- ма Бернулли). Таким образом, F ∗ (x ) является статистическим аналогом истинной функции распределения F (x ) случайной величины. Имеет место теорема (Гливенко). Пусть F (x ) – теоретическая функция распределения случайной величины Х, а F ∗ (x ) – эмпирическая. { Тогда для любого ε > 0 верно, что lim P | F ∗ ( x ) − F ( x ) | > ε n →∞ } = 0. Примем теорему без доказательства. Для дискретного вариационного ряда эмпирическая функция распре- деления представляет собой разрывную ступенчатую функцию (рис. 4.) по аналогии с функцией распределения дискретной случайной величины с той лишь разницей, что теперь по оси ординат вместо вероятностей p распо- лагаются относительные частоты p* . Для интервального вариационного ряда имеем значения накопленных частот на концах интервалов. Поэтому для графического изображения этой функции в виде непрерывной линии целесообразно её доопределить, со- единив точки графика, соответствующие концам интервалов, отрезками прямой. В результате полученная ломаная совпадёт с кумулятой (рис. 3). 11 Рис. 3. Кумулята относительных частот Рис. 4. Эмпирическая функция дискретного вариационного ряда РУ "М Т ат (М ем ИИ ат Т ) ик а" Пример 3. Построить полигон относительных частот и эмпириче- скую функцию распределения, используя условие и результаты примера 1. ☺ Решение . Используя данные таблицы 1 для точек ( xi ; pi* ) , постро- им полигон (рис.5). Значения функции F ∗ (x ) найдем по формуле (3): ∗ Имеем F ( x ) = 0 = 0 при x ≤ 60 30 (наблюдений меньше 60 нет); F ∗ ( x ) = 3 при 60 < x ≤ 70 ; 30 F ∗ ( x ) = 3 + 3 = 6 при 70 < x ≤ 80 30 30 30 и т. д . 0, 3  30 ,  6 ,  30  ⇒ F ∗ ( x ) =  13 , 30   18 ,  30  26  30 , 1,  при x ≤ 60, при 60 < x ≤ 70, при 70 < x ≤ 80, при 80 < x ≤ 90, при 90 < x ≤ 100, при 100 < x ≤ 110, при x > 110. График функции F ∗ ( x ) представлен на рис. 6. Рис. 5. Полигон относительных частот Рис. 6. Эмпирическая функция распределения 12 ☻ Пример 4. Построить гистограмму и эмпирическую функцию рас- пределения, используя условие и результаты примера 2. ☺Решение. В таблице 3 доопределим середины частичных интерx + xi , i = 1, 2, ..., k . Запишем таблицу 4. xi = i −1 валов ~ 2 Таблица 4 Рост, ( xi −1; xi ] 149-155 155-161 161-167 167-173 173-179 179-185 185-191 191-197 Середина, ~ xi 158 164 170 176 182 188 194 3 1 6 22 33 26 10 4 0,03 0,01 0,06 0,21 0,31 0,25 0,09 0,04 РУ "М Т ат (М ем ИИ ат Т ) ик а" Частота, 152 mi Частость, pi* Гистограмма относительных частот интервального ряда представляет собой ступенчатую фигуру (рис. 7), состоящую из прямоугольников с ос- pi* = , i = 1, 2,..., 8 . нованиями длиной h = 6 и высотами 6 Для интервального вариационного ряда эмпирическая функция рас- fi* пределения совпадает с кумулятой. Значения функции F ∗ ( x ) найдем по формуле (3) и запишем в таблице: x x ≤ 149 F ∗( x) 155 0,03 161 0,04 167 0,10 173 0,31 179 0,62 185 0,87 191 0,96 x ≥ 197 1 Отметим на плоскости точки, соответствующие значениям F ∗ ( x ) , и соединим их отрезками прямых (рис. 8). Рис. 7. Гистограмма относительных частот Рис. 8. Эмпирическая функция распределения ☻ 13 1.5. Числовые характеристики выборки 1.5.1. Средние величины. Показатели вариации Для выборки можно определить ряд числовых характеристик, аналогичных тем, которые в теории вероятностей определялись для случайных величин. Пусть имеется выборка объёма п: Варианта, xi x1 x2 Σ xk … k m1 m2 mk … ∑ mi = n i =1 k РУ "М Т ат (М ем ИИ ат Т ) ик а" Частота, mi Частость, pi* pi* p2* pk* … ∑p * i =1 i =1 Выборочным средним называется среднее арифметическое всех значений выборочной совокупности (обозначения: xв , x , M * [ X ] , m *x ). Выборочное среднее является статистическим аналогом матема- тического ожидания случайной величины. Если все значения x1 , x 2 , …, x n признака выборки объёма п различ- ны, то выборочное среднее определяется по формуле x + x + ... + xn 1 xв = 1 2 = ⋅ n n n ∑x , i (4) i =1 Если статистические данные сгруппированы (т. е. каждому значению варианты xi соответствует определённая частота mi ), то формула (4) примет вид 1 xв = ⋅ n k k ∑x m = ∑ i i =1 i i =1 m xi ⋅ i = n k ∑ xi pi* . (5) i =1 В случае интервального ряда в качестве xi берутся середины частичx +x ных интервалов, т. е. значения ~ xi = i −1 i , mi – соответствующие им 2 частоты, i = 1, 2, ..., k . 14 называется среднее арифметическое Выборочной дисперсией квадратов отклонений вариант от выборочной средней x в 1 1 Dв = (( x1 − xв ) 2 + ( x2 − xв ) 2 + ... + ( xn − xв ) 2 ) = ⋅ n n n ∑(x − x ) i 2 в , (6) i =1 если все значения в выборке различны. Если статистические данные сгруппированы, то формула (6) примет вид k ∑( x − x ) 2 в i ⋅ mi = k ∑ m ( xi − xв ) ⋅ i = n 2 k ∑ ( xi − xв )2 ⋅ pi* . РУ "М Т ат (М ем ИИ ат Т ) ик а" 1 Dв = ⋅ n i =1 i =1 (7) i =1 В результате преобразований в (7), можно получить другую формулу для вычисления выборочной дисперсии: k Dв = ∑( x − x ) в i k 2 ⋅ pi* = i =1 k = ∑ xi ⋅ pi* i =1 − 2 xв ∑ xi ⋅ 2 i − 2 xв ⋅ xi + xв2 ) ⋅ pi* = i =1 k 2 ∑( x k pi* i =1 + xв2 ∑ pi* = x 2 − 2 xв ⋅ xв + xв2 ⋅1 = x2 − xв2 . i =1 Таким образом, получаем Dв = x 2 − ( xв ) 2 . (8) Выборочная дисперсия является статистическим аналогом диспер- сии теоретического распределения. Выборочное среднее квадратическое отклонение определяет- ся по формуле σ в = Dв . (9) Выборочное среднее квадратическое отклонение является мерилом надёжности выборочной средней и измеряется в тех же величинах, что и изучаемый признак. Чем меньше выборочное квадратическое отклонение, тем лучше выборочная средняя отражает собой всю представляемую совокупность. 15 В качестве описательных характеристик вариационного ряда используются мода, медиана, размах и т. д. * Модой Μ O вариационного ряда называется такое значение варианты, которой соответствует наибольшая частота. В случае интервального вариационного ряда мода находится внутри частичного интервала l i = ( xi −1; xi ) , которому соответствует наибольшая частота mi . РУ "М Т ат (М ем ИИ ат Т ) ик а" На рис. 9 показан наглядный гео- метрический способ нахождения приближённого значения моды. Рис. 9 Истинное значение моды Μ O* ∈ ( xi −1; xi ) вычисляется по формуле ли- нейной интерполяции: Μ O = xi −1 + hi ⋅ pi* − pi*−1 * ( pi* − pi*−1 ) + ( pi* − pi*+1 ) , (10) где hi – длина частичного интервала l i , pi*−1 – частость, соответствующая предыдущему частичному интервалу l i −1 , pi*+1 – частость, соответствующая следующему частичному интервалу l i +1 . Особенность моды как меры центральной тенденции заключается в том, что она не изменяется при изменении крайних членов ряда, т. е. обладает определённой устойчивостью к вариации признака. Медианой M *e называется значение признака, приходящееся на се- редину ранжированного ряда наблюдений. Если вариационный ряд имеет нечётное число членов ( n = 2m + 1 ), то x + x m +1 . M e* = x m +1 , если число членов ряда чётно ( n = 2m ), то M e* = m 2 В случае интервального ряда медиана принадлежит тому частичному интервалу l i = ( xi −1; xi ) , для которого накопленная частота составляет по16 ловину или больше половины всей суммы частот, а предыдущая накопленная частота меньше половины всей суммы частот, при этом прямая x = M e* делит площадь гистограммы пополам. Медиана может быть приближённо найдена с помощью кумуляты (графика F * ( x ) ), как значение признака, для которого piнак = 1 2 . РУ "М Т ат (М ем ИИ ат Т ) ик а" На рис. 10 показан наглядный геометрический способ нахождения приближённого значения медианы. Рис. 10 Истинное значение медианы M e* ∈ ( xi −1; xi ) интервального вариацион- ного ряда вычисляется по формуле линейной интерполяции: h  M e = xi −1 + i* ⋅  0,5 − pi   * i −1 ∑ j =1 hj  . p*j   (11) Достоинство медианы как меры центральной тенденции заключается в том, что на неё не влияет изменение крайних членов вариационного ряда, если любой из них, меньший медианы, остаётся меньше её, больший медианы, продолжает быть больше её. Медиана предпочтительнее средней арифметической для ряда, у которого крайние варианты по сравнению с остальными оказались чрезмерно большими или малыми. Для характеристики меры колеблемости изучаемого признака относи- тельно выборочной средней используется коэффициент вариации: V* = σв xв ⋅ 100 % . (12) Коэффициент вариации служит для сравнения величин рассеяния по отношению к выборочной средней двух вариационных рядов: тот из рядов имеет большее рассеяние по отношению к выборочной средней, у которого коэффициент вариации больше. 17 В отличие от σ в коэффициент вариации является безразмерной величиной, поэтому он пригоден для сравнения рассеяний вариационных рядов, варианты которых имеют различную размерность, например, если варианты одного ряда выражены в сантиметрах, а другого – в граммах. Если коэффициент вариации признака, принимающего только положительные значения, высок (например, более 100 %), то, как правило, это говорит о неоднородности значений признака. Замечание. Выше предполагалось, что вариационный ряд составлен РУ "М Т ат (М ем ИИ ат Т ) ик а" по данным выборки, поэтому все описанные характеристики называют выборочными; если вариационный ряд составлен по данным генераль- ной совокупности, то характеристики называют генеральными. Пример 5. Данные о распределении 100 рабочих цеха по выработке в отчётном году (в процентах к предыдущему году) представлены в табл.5. Таблица 5 Выработка в отчётном году в процентах к предыдущему, ( xi −1; xi ] 94 – 100 100 – 106 106 – 112 112 – 118 118 – 124 124 – 130 130 – 136 136 – 142 Середина интервала, ~ xi (%) Количество рабочих, mi (чел.) 97 103 109 115 121 127 133 139 – 3 7 11 20 28 19 10 2 100 Σ Найти среднюю выработку по цеху. Вычислить дисперсию, среднее квадратическое отклонение, моду, медиану, коэффициент вариации. ☺Решение. Вычисляем среднюю выборочную интервального вариа- ционного ряда по формуле (5): 1 xв = n k ∑ x% m = 100 (97 ⋅ 3 + 103 ⋅ 7 + ... + 139 ⋅ 2) = 119, 2 . 1 i i i =1 18 Вычислим выборочную дисперсию по формуле (8): Dв = x 2 − (xв )2 = 1 (972 ⋅ 3 + 1032 ⋅ 7 + ... + 1392 ⋅ 2) − 119,22 = 87,48 . 100 Тогда, согласно (9) σ в = Dв = 87,48 ≈ 9,35 (%). Найдём моду, медиану и коэффициент вариации по формулам (10), (11) и (12) соответственно: 0,28 − 0,20 0,08 = 118 + 6 ⋅ ≈ 120,82 . (0,28 − 0,20) + (0,28 − 0,19) 0,17 6 M e* = 118 + ⋅ (0,5 − (0,03 + +0,07 + 0,11 + 0,20) ) ≈ 119,93 . 0,28 9,35 V* = ⋅ 100 % ≈ 7,84 % . 119,2 РУ "М Т ат (М ем ИИ ат Т ) ик а" M O* = 118 + 6 ⋅ ☻ 1.5.2. Вычисление выборочных средней и дисперсии при больших (очень малых) значениях вариант Для выборочного среднего и выборочной дисперсии справедливы следующие свойства: 1. Если варианты увеличить (уменьшить) на одно и то же число С, то выборочное среднее также увеличится (уменьшится) на это число, а выборочная дисперсия останется неизменной. Тогда для ui = xi + C имеем: k uв = ∑u ⋅ i k pi* = i =1 ∑(x + C) ⋅ i k pi* = i =1 ∑x ⋅ i Du = u − (uв ) = 2 ∑ ⋅ pi* − (uв ) = 2 = xв + C i =1 ∑p * i = xв + C , i =1 ∑ ( x + C ) 2 ⋅ p * − ( xв + C ) 2 = i i i =1 ∑ ( x2 + 2C ⋅ x + C 2 ) ⋅ p* − ( xв2 + 2C ⋅ xв + C 2 ) = i i i =1 k = ∑C ⋅ k pi* k ui2 i =1 k = + i =1 k 2 k pi* ∑ i =1 i k xi2 ⋅ pi* + ∑ 2C ⋅ x ⋅ i i =1 = x + 2C ⋅ xв + C − ( 2 k pi* 2 xв2 + ∑ C 2 ⋅ p* − ( xв2 + 2C ⋅ xв + C 2 ) = i i =1 + 2C ⋅ xв + C 2 ) = x 2 − ( xв ) 2 = Dx . 19 2. Если варианты увеличить (уменьшить) в h раз, то выборочное среднее также увеличится (уменьшится) в h раз, а выборочная дисперсия увеличится (уменьшится) в h 2 раз. Действительно, если ui = h ⋅ xi , то k uв = ∑u ⋅ i k pi* = i =1 ∑h ⋅ x ⋅ i k pi* i =1 = h⋅ ∑ x ⋅ p * = h ⋅ xв , i k Du = u − (uв ) = 2 2 ∑ i i =1 k ui2 ⋅ pi* − (uв ) = 2 i i i =1 РУ "М Т ат (М ем ИИ ат Т ) ик а" i =1 ∑ ( h ⋅ x ) 2 ⋅ p * − ( h ⋅ xв ) 2 = k =h 2 ∑ x 2 ⋅ p * − h 2 ( x в ) 2 = h 2 ⋅ x 2 − h 2 ⋅ ( x в ) 2 = h 2 ⋅ ( x 2 − ( xв ) 2 ) = h 2 D . i i x i =1 Из свойств вытекает метод упрощённых вычислений. xi − C , где С и h – специально подобВводим новые варианты ui = h ранные постоянные. Согласно свойствам получаем xв − C  u = , в   xв = h ⋅ uв + C , h ⇒    Dx = h 2 ⋅ Du = h 2 (u 2 − (uв ) 2 ) .  Du = 1 ⋅ D x ,  h2 (13) Замечание. Выборочная дисперсия, вычисленная по сгруппирован- ным данным интервального вариационного ряда (формула (7)), оказывается меньше дисперсии, найденной по несгруппированным результатам измерений (формула (6)), на величину, приблизительно равную h2 . Это 12 следует учитывать при округлении значения дисперсии, сохраняя один сомнительный знак. Значение выборочной средней округляют при этом до единиц того разряда, который сохранен в значении выборочной дисперсии. Пример 6. Вычислить упрощённым способом среднюю арифметиче- скую и дисперсию распределения рабочих по выработке по данным табл. 5. 20 ☺Решение. Возьмём постоянную h, равную величине интервала, т. е. h = 6, а постоянную С, равную середине одного из двух серединных интервалов, например пятого, т. е. C = 121. Новые варианты теперь имеют вид ui = xi − 121 . Дальнейшие вычисления представим в табл. 6. 6 Таблица 6 ( xi −1; xi ] ~ xi 94 – 100 97 100 – 106 ui = xi − 121 mi ui mi ui2 mi –4 3 – 12 48 103 –3 7 – 21 63 106 – 112 109 –2 11 – 22 44 112 – 118 115 –1 20 – 20 20 118 – 124 121 28 124 – 130 127 1 19 19 19 130 – 136 133 2 10 20 40 136 – 142 139 3 2 6 18 – 100 – 30 252 РУ "М Т ат (М ем ИИ ат Т ) ик а" 6 Σ 8 В итоговой строке табл. 6 имеем ∑u m i i =1 Тогда u в = i 8 = −30 , ∑u m 2 i i = 252 . i =1 1 2 ⋅ ( −30) = −0,3 , u = 1 ⋅ 252 = 2,52 . 100 100 По формулам (13) находим: x в = h ⋅ u в + C = 6 ⋅ ( −0,3) + 121 = 119,2 , Dx = h 2 (u 2 − (uв ) 2 ) = 62 (2,52 − ( −0,3) 2 ) = 87,48 . Как видим, найденные значения совпадают с вычислениями, выпол- ☻ ненными в примере 5. 21 1.5.3. Эмпирические моменты Для вычисления сводных характеристик выборок используют эмпирические моменты, аналогичные соответствующим теоретическим моментам. Выборочное среднее и дисперсия вариационного ряда являются частными случаями более общего понятия – моментов вариационного ряда. Выборочный начальный момент k-го порядка определяется по формуле: r = ∑x k * i pi . (14) РУ "М Т ат (М ем ИИ ат Т ) ик а" νk* i =1 * В частности: ν1 = xв , т. е. выборочное среднее является выборочным на- чальным моментом первого порядка. Выборочный центральный момент k-ого порядка находится по формуле: µk* r = ∑( x − x ) i в k ⋅ pi* . (15) i =1 В частности: µ1* = 0 ; µ2* = Dв = ν2* − (ν1* )2 , т. е. выборочная дисперсия является выборочным центральным моментом 2-го порядка; µ3* = ν*3 − 3 ν1* ν*2 + 2 ( ν1* ) 3 ; µ*4 = ν*4 − 4 ν1* ν*4 + 6 ( ν1* ) 2⋅ ν*2 − 3 ( ν1* ) 4 . Среди моментов высших порядков особое значение имеют централь- ные моменты 3-го и 4-го порядка. 1.5.4. Асимметрия и эксцесс Нормальное распределение является одним из наиболее применяемых в математической статистике. Для оценки отклонения эмпирического распределения от нормального используют коэффициенты асимметрии и эксцесс, которые служат для сравнения полигона теоретических частостей вариационного ряда с функцией плотности нормального распределения. 22 Выборочным коэффициентом асимметрии («скошенно- сти») называется величина a s* = µ 3* . σ в3 (16) Выборочный коэффициент эксцесса («островершинности») определяется по формуле ε k* µ 4* = 4 −3. σв (17) РУ "М Т ат (М ем ИИ ат Т ) ик а" Эксцесс характеризует крутизну подъёма кривой распределения по сравнению с нормальной кривой. Для нормального распределения as = ε k = 0 . При отклонении от нормального распределения: a s* < 0 – если «длинная» и более пологая часть кривой распределения расположена слева от соответствующей моде точки на оси абсцисс (рис. 11). a*s ε k* > 0 – если часть кривой расположена справа от моды (рис. 12). < 0 – кривая имеет более низкую и пологую вершину (рис. 13). ε k* > 0 – кривая имеет более высокую и острую вершину (рис. 13). Рис. 11 Рис. 12 Рис. 13 23 Следует иметь в виду, что при использовании указанных характеристик сравнения опорными являются предположения об одинаковых величинах математического ожидания и дисперсии для нормального и теоретического распределений. 1.6. Оценка неизвестных параметров 1.6.1. Понятие оценки параметров РУ "М Т ат (М ем ИИ ат Т ) ик а" Пусть рассматривается случайная величина Х с законом распределения, содержащим один или несколько параметров (например, параметр λ в распределении Пуассона или параметры a и σ для нормального закона распределения). В результате n наблюдений получена выборка X 1 , X 2 , …, X n , где X i – результат измерения в i-ом опыте (i = 1, 2,..., n ) , который можно рас- сматривать как случайную величину, имеющую закон распределения случайной величины X . Необходимо оценить параметр θ , связанный с законом распределения случайной величины X генеральной совокупности. Приближённое значение неизвестного параметра θ назовём его оценкой и обозначим *θ . Любая оценка θ * , вычисляемая на основе выборки, есть значение не- которой функции результатов наблюдений, т. е. θ * = θ * ( X 1 , X 2 ,..., X n ) . Сама оценка является случайной величиной, так как зависит от слу- чайных величин X 1 , X 2 , …, X n . Если произвести другую выборку, то функция примет, вообще говоря, другое значение. Если число наблюдений (опытов) сравнительно невелико, то замена неизвестного параметра θ его оценкой θ * , например, математического ожидания выборочным средним, приводит к ошибке. Эта ошибка в среднем тем больше, чем меньше число опытов. 24 Для того чтобы оценка неизвестного параметра давала хорошее приближение (была достаточно «близкой» к истинному значению параметра), она должна удовлетворять некоторым требованиям. 1) Желательно, чтобы при использовании величины θ * вместо неизвестного параметра θ мы не делали систематических ошибок ни в сторону завышения, ни в сторону занижения, т. е. чтобы выполнялось равенство M [θ * ] = θ . Если математическое ожидание оценки по всевозможным выборкам РУ "М Т ат (М ем ИИ ат Т ) ик а" данного объёма равно истинному значению определяемого параметра, то оценка θ * называется несмещённой. Если M [θ * ] → θ , то оценка θ * называется асимптотически несмещённой. Требование несмещённости особенно важно при малом числе наблю- дений. 2) Желательно, чтобы с увеличением числа опытов значения случай- ной величины θ * концентрировались около θ всё более тесно, т. е. чтобы с ростом п точность оценки возрастала. Оценка θ * параметра θ называется состоятельной, если она схо- дится по вероятности к оцениваемому параметру, т. е. P ( ) θ  → θ или lim P | θ * − θ | < ε = 1 , n →∞ * n →∞ где ε – сколь угодно малое положительное число. Поскольку мерой рассеяния случайной величины вокруг её математи- ческого ожидания является дисперсия, то из неравенства Чебышева для удовлетворения этого требования достаточно, чтобы оценка была несмещённой и lim D [θ * ] = 0 . n →∞ Несостоятельные оценки не имеют практического смысла, поэтому свойство состоятельности обязательно для любого правила оценивания. 25 3) Несмещённая оценка θ * параметра θ называется эффективной, если она имеет наименьшую дисперсию среди всех возможных несмещённых оценок, вычисленных по выборкам одного и того же объёма. D[θэ* ] , где Эффективность оценки определяется отношением eff θ = D[θ * ] * D[θэ* ] и D[θ * ] – дисперсии соответственно эффективной и данной оценок. Чем ближе eff θ * к 1, тем эффективнее оценка. Если eff θ * → 1 при n → ∞ , то оценка называется асимптотически эффективной. РУ "М Т ат (М ем ИИ ат Т ) ик а" В качестве статистических оценок параметров желательно использо- вать оценки, удовлетворяющие одновременно требованиям несмещённости, состоятельности и эффективности. Все три свойства определяют оценку однозначно. Но на практике не всегда возможно выполнение всех перечисленных требований, поэтому приходится использовать оценки, не обладающие сразу тремя свойствами. 1.6.2. Метод моментов Можно полагать, что начальные и центральные эмпирические мо- менты являются состоятельными оценками соответствующих теоретических моментов. На этом предположении базируется метод момен- тов, который основан на приравнивании теоретических моментов рассматриваемого распределения и соответствующих эмпирических моментов того же порядка. При этом различают случаи распределений с одним параметром и с двумя параметрами. 1. Оценка одного параметра. Пусть задана плотность распределе- ния f ( x, θ ) с одним параметром. Согласно методу моментов приравниваем, например, соответствующие начальные моменты первого порядка, т.е. среднюю выборки x в и математическое ожидание распределения M [ X ] . Здесь достаточно одного уравнения относительно этого параметра M [ X ] = xв . 26 (18) Поскольку математическое ожидание является функцией параметра θ +∞ M[X ] = ∫−∞x ⋅ f ( x,θ ) dx = ϕ (θ ) , (19) соотношение (18) можно рассматривать как уравнение с одним неизвестным, которое определяет точечную оценку параметра θ , являющуюся функцией. Пример 7. Методом моментов по выборке x1 , x2 , …, xn найти то- чечную оценку неизвестного параметра λ показательного распределения с РУ "М Т ат (М ем ИИ ат Т ) ик а" известной функцией плотности распределения f ( x ) = λe − λx ( x ≥ 0 ). ☺ Решение . Формула (19) при помощи интегрирования по частям да- ёт: M [ X ] = 1 . Далее из формулы (18) получаем, что λ = 1 , т. е. искомая λ xв точечная оценка параметра λ показательного распределения равна обратной выборочной средней: λ* = 1 . ☻ xв 2. Оценка двух параметров. Пусть задана функция плотности рас- пределения f ( x, θ1 , θ 2 ) . Для нахождения неизвестных параметров нужно иметь два уравнения, поэтому приравняем друг другу соответственно начальные теоретические и эмпирические моменты первого и второго порядков: M [ X ] = x в , D[ X ] = Dв . (20) Поскольку M [ X ] и D[ X ] есть функции от θ1 и θ 2 , соотношения (20) определяют точечные оценки этих параметров как функции от выборки: θ1* = θ1 ( x1 , x 2 ,..., x n ) , θ 2* = θ 2 ( x1 , x 2 ,..., x n ) . Пример 8. Найти методом моментов по выборке x1 , x2 , …, xn то- чечные оценки неизвестных параметров a и σ нормального распределения с функцией плотности распределения вероятности f ( x) = 1 σ 2π 27 e − ( x − a )2 2σ 2 . ☺ Решение . Из курса теории вероятностей известно, что для нормального распределения M [ X ] = a , D[ X ] = σ 2 . Используя формулы (20), получаем искомые точечные оценки параметров: a * = x в , σ * = Dв . ☻ 1.6.3. Метод наибольшего правдоподобия Дискретные случайные величины. Пусть Х – дискретная случай- ная величина, которая приняла значения x1 , x 2 , …, x n в результате п ис- РУ "М Т ат (М ем ИИ ат Т ) ик а" пытаний. Пусть известен закон распределения случайной величины Х, но неизвестен определяющий его параметр θ . Требуется найти точечную оценку этого параметра. Обозначим вероятность того, что в результате испытания величина Х примет значение xi , через p ( xi , θ ) . Функция аргумента θ L( x1 , x 2 ,..., x n , θ ) = p ( x1 , θ ) ⋅ p( x 2 , θ ) ⋅ ... ⋅ p ( x n , θ ) , (21) где x1 , x 2 , …, x n – фиксированные числа, называется функцией правдоподобия дискретной случайной величины Х. В качестве точечной оценки параметра θ принимается значение θ * , при котором функция (21) достигает максимума. Такую оценку θ * называют оценкой наибольшего правдоподобия. Функцию ln L( x1 , x2 ,..., xn ,θ ) = ln[ p ( x1 , θ ) ⋅ p ( x2 ,θ ) ⋅ ... ⋅ p ( xn ,θ )] , назы- вают логарифмической функцией правдоподобия. Точка максимума у обеих функций одна и та же, но вместо функции L , удобнее анализировать функцию ln L . Пример 9. Методом наибольшего правдоподобия найти оценку не- известного параметра р биномиального распределения Pn ( m) = C nm p m (1 − p ) n − m , если в n1 испытаниях событие А наступило m1 раз, а в n 2 испытаниях – m2 раз. 28 ☺ Решение . Составим функцию правдоподобия (21), где p = θ , L = Pn1 ( m1 ) ⋅ Pn2 ( m2 ) = Cnm1 Cnm2 p m1 + m2 (1 − p ) n + m − m1 −m2 . 1 2 Логарифмическая функция правдоподобия имеет вид:  m  ln L = ln Cn 1 Cnm2  + ( m1 + m2 ) ln p + (n1 − m1 + n 2 − m2 ) ln(1 − p ) . 2  1  Затем находим производную по р и, приравнивая её к нулю, получаем m1 + m2 n1 − m1 + n 2 − m2 − = 0. p 1− p m1 + m2 . n1 + n 2 Нетрудно убедиться, что вторая производная функции ln L < 0 , т. е. РУ "М Т ат (М ем ИИ ат Т ) ик а" Решение этого уравнения относительно р имеет вид: p = полученное значение р является точкой максимума логарифмической функции правдоподобия, а, значит, эту величину нужно принять в качестве оценки наибольшего правдоподобия неизвестного параметра p * биномиального распределения: p * = m1 + m2 . n1 + n 2 ☻ Непрерывные случайные величины. Пусть Х – непрерывная слу- чайная величина, которая приняла значения x1 , x 2 , …, x n в результате п испытаний. Пусть известна функция распределения плотности f ( x, θ ) , но неизвестен определяющий её параметр θ . Требуется найти точечную оценку этого параметра. Функция аргумента θ L( x1 , x 2 , ..., x n , θ ) = f ( x1 , θ ) ⋅ f ( x 2 , θ ) ⋅ ... ⋅ f ( x n , θ ) , (22) где x1 , x 2 , …, x n – фиксированные числа, называется функцией правдоподобия непрерывной случайной величины Х. Метод оценки наибольшего правдоподобия неизвестного параметра θ такой же, как и в предыдущем случае: поиск точки максимума функции L. Если в известной функции распределения f ( x, θ1 , θ 2 ) неизвестны два параметра, то функция правдоподобия имеет вид L( x1 , x 2 , ..., x n , θ1 , θ 2 ) = f ( x1 , θ1 , θ 2 ) ⋅ f ( x 2 , θ1 , θ 2 ) ⋅ ... ⋅ f ( x n , θ1 , θ 2 ) , и тогда необходимо найти точку максимума функции двух переменных. 29 Соответствующие логарифмические функции наибольшего правдоподобия вводятся так же, как и в случае дискретной случайной величины. Пример 10. Методом наибольшего правдоподобия найти оценку неизвестного параметра λ показательного распределения из примера 7. ☺ Решение . Составим функцию правдоподобия (22). В нашем случае θ =λ ⇒ L = (λe −λx1 ) ⋅ (λe − λx2 ) ⋅... ⋅ (λe − λxn ) = λn e − λ ( x1 + x2 + .... + xn ) . Отсюда найдём логарифмическую функцию правдоподобия ln L = n ln λ − λ ( x1 + x 2 + ... + x n ) . РУ "М Т ат (М ем ИИ ат Т ) ик а" Производную этой функции по λ приравниваем к нулю. Получаем λ= n 1 = , x1 + x 2 + ... + x n x в ☻ что совпадает с результатом примера 7. 1.6.4. Точечная оценка вероятности события Пусть произошло n независимых опытов. Случайная величина X i – 1, если А произошло, индикатор события А в i-ом опыте: X i =  0, если А не произошло. n Тогда событие А произошло X = X i раз, и (n − X ) раз оно не про∑ i =1 изошло. При этом X является случайной величиной, имеющей тот же закон распределения, что и случайная величина X i . n ∑ 1 Рассмотрим относительную частоту p = X = ⋅ X i как оценку р – n n i =1 * вероятности появления события. Так как опыты независимы, то случайная величина X распределена по биномиальному закону с параметрами n и p. 30 Учитывая, что M [ X ] = np , получим 1 n  1  n  1 1 M[p ] = M  ⋅ X i  = ⋅ M  X i  = ⋅ M [ X ] = ⋅ np = p . n  n i =1  n  i =1  n ∑ * ∑ ∗ ⇒ p – несмещённая оценка p . ( ) По теореме Бернулли имеем lim P | p − p∗ | < ε = 1 n →∞ ∗ ⇒ p – состоятельная оценка р. Таким образом, эмпирическая функция распределения выборки F * ( x ) , {X < x}, есть несмещённая со- РУ "М Т ат (М ем ИИ ат Т ) ик а" являясь оценкой вероятности события стоятельная оценка функции распределения F (x ) случайной величины Х. Пример 11. Монету подбрасывают п раз. Вероятность выпадения герба при каждом подбрасывании равна р. В ходе опыта монета выпала гербом т раз. Показать несмещённость оценки θ * = m вероятности θ = p n выпадения герба в каждом опыте. ☺Решение. Так как число успехов т имеет распределение Бернулли, то M[m] = np . Следовательно, M [θ * ] = M [ m n ] = 1 M [m ] = 1 ⋅ n ⋅ p = p = θ . n n Таким образом, оценка θ * = m – несмещённая. n ☻ 1.6.5. Точечная оценка математического ожидания Рассмотрим выборочную среднюю x в как оценку генеральной сред- ней xг = M [ X ] – истинного значения распределения. 1 n  1  n  1 n 1 M [ xв ] = M  ⋅ Xi  = M  Xi  = M[Xi ] = n  n i =1  n  i =1  n i =1 1 = ⋅ n ⋅ M [ X ] = M [ X ] = xг ⇒ n ∑ ∑ ∑ n ∑M[X ] = i =1 ⇒ x в – несмещённая оценка для xг . 31  1 n  X i − x г < ε  = 1. По теореме Чебышева имеем lim P   n→∞  n  i =1  ⇒ x в – состоятельная оценка для xг . ∑ Можно показать, что при нормальном распределении случайной величины Х эта оценка, т. е. x в , будет и эффективной. На практике во всех случаях в качестве оценки математического ожидания xг используется среднее арифметическое, т. е. x в . РУ "М Т ат (М ем ИИ ат Т ) ик а" 1.6.6. Точечная оценка дисперсии при неизвестном математическом ожидании Рассмотрим выборочную дисперсию Dв как оценку генеральной дис- персии Dг – истинного значения распределения. Покажем, что M [ Dв ] = ной совокупности. n −1 D[ X ] , где D[ X ] – дисперсия генеральn 1 Действительно, M [ Dв ] = M  ⋅  n  n ∑ ( X i − xв ) 2  = M  i =1 [x 2 ] − ( x в )2 = 2 2   n n n n      1 1 1 1 = M ⋅ X i2 −  ⋅ X i   = M  X i2  − 2 M  Xi   =    n      n i =1  n  n i = 1 i = 1 i = 1          1 1 = M X 12 + X 22 + ... + X n2 − 2 M ( X 1 + X 2 + ... + X n )2 = n n 1 = M X 12 + M X 22 + ... + M X n2 − n    1  2 − 2 M  X 1 + X 22 + ... + X n2 + 2 ⋅ ( X 1 X 2 + X 1 X 3 + X 2 X 3 + ... + X n −1 X n ) = 1444444424444444 3 n   2 Cn   n −1 = 2 M X 12 + M X 22 + ... + M X n2 − n 2 − 2 (M [ X 1 ]M [ X 2 ] + M [ X 1 ]M [ X 3 ] + M [ X 2 ]M [ X 3 ] + ... + M [ X n −1 ]M [ X n ]) = n ∑ ∑ ∑ [ [ ] ( [ ] [ ] ( ∑ ] [ ]) ) ( [ ] [ ] 32 [ ]) = ( [ ] [ ] [ ]) n −1 M X 2 + M X 2 + ... + M X 2 − 2 1444442444444 3 n n 2 (M [ X ] ⋅ M [ X ] + M [ X ] ⋅ M [ X ] + M [ X ] ⋅ M [ X ] + ... + M [ X ] ⋅ M [ X ]) = n2 2 n ( n − 1) n −1 n −1 n −1 = 2 ⋅n⋅M X 2 − 2 ⋅ ⋅ (M [ X ])2 = ⋅M X 2 − ⋅ (M [ X ])2 = 2 n n n n n −1 n −1 ⋅ D[ X ] . = ⋅ M X 2 − (M [ X ])2 = n n − [ ] [ ] ( [ ] ) Так как M [ Dв ] ≠ D[ X ] , то Dв − смещённая оценка D[ X ] . РУ "М Т ат (М ем ИИ ат Т ) ик а" Смещение оценки произошло потому, что в формуле выборочной дисn ∑ 1 персии Dв = ⋅ ( X i − xв ) 2 отклонение X i отсчитывается не от истинn i =1 ного математического ожидания, а от его статистического аналога x в . Чтобы исправить этот недостаток, вводят исправленную выбороч- ную дисперсию s2 = n ⋅ Dв , n −1 (23) где s – исправленное выборочное среднее квадратическое отклонение. n n Так как lim s 2 = lim ⋅ Dв = lim ⋅ lim Dв = 1 ⋅ D[ X ] = D[ X ] , то n →∞ n →∞ n − 1 n →∞ n − 1 n → ∞ получаем, что Dв − состоятельная оценка D[ X ] . Замечание. При больших значениях п разница между Dв и s 2 неве- лика и они практически равны, поэтому оценку s 2 чаще используют для оценки дисперсии при малых выборках, обычно при n ≤ 30 . Пример 12. Вычислить исправленную дисперсию и исправленное среднее квадратическое отклонение по данным примера 5. ☺Решение. По результатам примера 5 имеем Dв= 87,48 , σ в = 9,35 . По формуле (23): s 2 = 100 ⋅ 87,48 ≈ 88,36 , тогда s = 88,36 ≈ 9,4 . 99 33 ☻
«Предмет и задачи математической статистики» 👇
Готовые курсовые работы и рефераты
Купить от 250 ₽
Решение задач от ИИ за 2 минуты
Решить задачу
Помощь с рефератом от нейросети
Написать ИИ

Тебе могут подойти лекции

Смотреть все 938 лекций
Все самое важное и интересное в Telegram

Все сервисы Справочника в твоем телефоне! Просто напиши Боту, что ты ищешь и он быстро найдет нужную статью, лекцию или пособие для тебя!

Перейти в Telegram Bot